Как стать автором
Обновить

Тестируем новые языковые модели. WizardLM

Уровень сложностиПростой
Время на прочтение12 мин
Количество просмотров6K
Всего голосов 18: ↑18 и ↓0+18
Комментарии7

Комментарии 7

Интересно, можно обучить такую модель делать http запросы, анализировать результаты, обучаться, выдавать анализ что узнала. Типа, даёшь запрос - найти в сети бесплатный доступ к gpt4 и она сама ищет в поисковиках, тыкается в разные API ;) Другими словами скоро ли наш интернет загнётся?

То, что вы выше описали, по сути это механизм использования плагинов, подключаемых к языковой модели. Есть мощный фреймворк langchain, который позволяет формировать цепочки логических действий, как например поиск и извлечение информации из поисковика, обработка результата поиска моделью с учетом вашего промптаю

Не знаю где найти сообщников, потому пишу здесь. Цель: заиметь умного помощника а-ля "Джарвис". Выбор пал на WizardLM. Текущее состояние: застрял на формировании запроса, т.к. отвечает не то, что требуется. По запросу далее сейчас все поймете. Помогите его исправить, чтобы запустить.
Вот он текущий запрос '''Ты ИИ-ассистент, выполняющий задачи самостоятельно. Я тебе даю задачу в виде [task]{описание задачи}, ты ее по шагам выполняешь, в конце выполнения ты пишешь [task-complete]{} либо [task-complete]{result}. Для выполнения задач ты можешь использовать запросы к google, которые передаешь мне в виде [google]{request}, я буду отдавать тебе результаты их выполнения в виде [google]{request}{searching result}. На основе запросов к гуглу ты либо находишь решение задачи, либо формируешь новый запрос к гуглу, чтобы уточнить детали, при этом ты сохраняешь для себя обновленный контекст решения задачи в виде [context]{данные}. Твои ответы не должны содержать описания, что ты делаешь и как. Ты отвечаешь только командами в блоках [ ] и деталями в { } если требуется. Ты работаешь на одном ПК c ОС Windows. Ты можешь выполнять запросы к ОС используя блок [fs]{команда}, я верну тебе ответ в виде [fs]{команда}{stdout-результат}{stderr-результат}. Твой ответ должен быть не больше 2047 токенов включая токены данного запроса. Текущий стек команд и задач: [task]{найди ссылку в гугле на самый быстрый подходящий процессор для данного ПК}'''.

Ожидается, что он сначала обратится через [fs]-запросы, например, к wmi, чтобы узнать текущий ЦПУ, затем загуглит информацию по нему, узнает всю линейку, форм-фактор, загуглит характеристики и выберет в итоге самый быстрый и выдаст [task-complete]{intel i7 4890} (например). Между гуглом и ФС будет изначально человек, затем это легко, как понимаете, автоматизировать.

Вы слишком много ожидаете от публичной языковой модели. Во-первых ни одна модель в паблике не сможет понять промпты на русском языке подобного уровня. Во-вторых, к сожалению уровень пабликовых решений на сегодняшний день не дошёл до решения подобных задач для промптов даже на английском языке. Вероятно GPT4 справился бы с поставленной вами задачей, и то, если разделить промпт на цепочку а не единым фронтом скидывать ему. Что касается реализации вашей цели, можете изучить мою статью https://habr.com/ru/companies/timeweb/articles/730908/ и погуглить за https://github.com/Significant-Gravitas/Auto-GPT.

В апи openapi это делают функции если я правильно это понимаю, имея home assistant може это включить , с openapi это работает, локально пока не очень, я надеялся засунуть функции в mixtral через LoacalAI, но видимо не все LLM это умеют.

Это может косвенно свидетельствовать о том, что нащупан некий промежуточный барьер в текущем витке развития LLM и дальнейшее улучшение будет уходить в расширение поддержки мультимодальностей, таких как аудио, видео и других данных, а так же улучшение архитектуры и повышение размера контекста.

Как, уже барьер нащупан? Думал, что потолок возможностей этой технологии будет обнаружен через год-другой, хотя бы в GPT-5 или 6.

Имеется в виду барьер в размерах миллиардов параметров, PaLM 2 не показал значительных качественных улучшений по сравнению с GPT4, стало быть пока корпорации будут двигаться в сторону оптимизации, улучшению датасетов с инструкциями, архитектурных хаков и увеличения окна контекста. (Это моё субъективное мнение, если что:))

Зарегистрируйтесь на Хабре, чтобы оставить комментарий