Обновить

Обзор проблем и решений в ризонинговых LLM. Часть 2

Уровень сложностиПростой
Время на прочтение10 мин
Охват и читатели5K
Всего голосов 5: ↑5 и ↓0+7
Комментарии2

Комментарии 2

может привести к неопределённому ответу, потому что символический перевод не учитывает, что Гарри – человек и что «Уолден» – книга. Для человека это очевидно, а модель этого не видит.

Почему модель не может спросить у пользователя, что такое Уолден? Я имею в виду, были ли попытки реализации создания уточняющих вопросов к пользователю?

За исследователей не скажу, но лично я регулярно сталкиваюсь с тем, что модель не задает вопросов, если ее специально об этом не просить. Поэтому я когда пишу ТЗ для модели на написание кода, обязательно заканчиваю фразой "Если у тебя есть вопросы по заданию, спрашивай, и ТОЛЬКО ПОСЛЕ МОЕГО ОТВЕТА выводи полный код".

Модель задает вопросы, но не факт, что она правильно их поняла (или не факт, что я правильно ей донес), и она снова, зараза, будет молчать.. Поэтому когда я отправляю ей ответы, я повторяю ту же самую фразу. И так до тех пор, пока у нее не кончатся вопросы и ТЗ не будет для нее исчерпывающим.

Правда надо контекстное окно бесконечное иметь для таких бесед, поэтому в агенте я просто возвращаюсь к своему первому сообщению, редактирую его... в общем, это уже другая история, но модели без разрешения вопросы не задают, могут лишь во время включенного вывода ризонинга формулировать эти вопросы, как бы внутренне их обсуждая.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации