Обновить

Комментарии 19

что такое "tool_use?" в вашей схеме?

это когда ллмка вместо текстового ответа возвращает запрос на вызов инструмента.

например, ты спрашиваешь: какие файлы в папке src?

модель не знает что на диске, оэтому возвращает типа такого:

{
"type": "tool_use",
"name": "bash",
"input": {"command": "ls src/"}
}

Почему?

Скромно, очень скромно. С учетом того, что Горбатый недавно "ядро" llm на 200 строк выкатил, чем они там вообще занимаются? Датасеты для обучения перебирают?

s02 — Multiple Tools

Dispatch map: вместо одного инструмента — таблица маршрутизации. Теперь агент умеет не только bash, но и читать файлы, искать по коду.

А разве в s01 не закрыт вопрос вызова инструментов? Или в s1 только консоль в инструментах?

P.S. забыли про грамотно написанные промты к этому всему )

В s01 только захардкоженный вызов run_bash() прямо в цикле. В s02 добавляются read_file, write_file, edit_file и dispatch map - словарик {имя: handler}.

Простейший протокол: записал строку в файл — другой агент прочитал.

Откуда агент знает, что ему написали и нужно прочесть?

Тема интересна, но текст читать невозможно, вот настолько нейронкой от него отдаёт. Я просто читаю и вижу как автор вводил строку дипсика или чатгпто запрос: "сделай мне статью на эту тему, но смешно". Я не против использования ИИ, но вы хотя бы перефразируйте или переосмысляйте написанное :(

дайте промпт

Че-то это уже шиза какая-то, извините, конечно.

прощаю, ага. но шиза в чем? никто из людей не пишет вот так: "без воды, без маркетинговых слайдов и совершенно бесплатно" и "как lego, только для взрослых с тревожным расстройством" - это палится риторика нейронки. Впрочем, если такой очевидный нейрослоп нормальным кажется вам - ок, но автору лучше не врать, что он нейронку не юзает для написания текста и/или перефраза, это же, блин, на поверхности лежит. Ноу, ноу Гуд 👎🏻

Да пишите хоть в чем

текст читать невозможно

Это к чему?

Все понятно расписано? Или еще что-то разжевать надо? Мозг свой включите уже наконец.

Вот

https://habr.com/ru/companies/bothub/articles/1007580/

Специально для вас, очередной нейровысер, который сложно, долго и никакого смысла нет читать, сравните.

"Пишите хоть в чём"
эммм? чего?
"Это к чему?"
Перечитай сообщение внимательно. Тогда, может, поймёшь, что "мозг включите уже наконец" надо будет говорить не другим, а себе.
Повторюсь: я не против использования нейронок, но их оутпут надо нормально перефразировать, чтобы не оставалось таких странных и мёртворождённых выражений, как "семь бед - один bash". Это же выглядит неестественно, халтурно, сгенерировано. Из-за этого читать просто невозможно и тупо неприятно.
Что именно тебе в этом непонятно-то?

"Рандомная ссылка"
Во-первых, то, что ты скинул, уже удалено. Во-вторых, даже если бы там был ужасный текст, созданный нейросетью, зачем мне выбирать из двух текстов от нейросетей один плохо сделанный, если оба плохие? :/

Ты странный какой-то /)_.

Всего хорошего, мистер тролль.

P.S. ничего с сылкой поделать не могу, статьи бывают банят.

аргументации ноль у тебя, но тролль почему-то я. Как скажешь, чел, если от этого тебе будет спокойнее х)

Сегодня 2 часа пытался поправить сборку mvn проекта(нужно было по человечески отделить тесты unit от integration и опубликовать allure report). В итоге ничего дельного у codex не вышло. Как и у всех других агентов. Потом старым добрым поиском по интернету прошёлся и понял, что все они предлагали кривые решения из интернета которые сейчас уже не работают. В итоге подумал и сам решил за пол часа, посмотрев просто документацию. Оказалось все не так сложно.

Вот что эти llm будут делать, когда годные примеры и решения на stack overflow кончаться? А новых просто не появится

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации