
Комментарии 2
может привести к неопределённому ответу, потому что символический перевод не учитывает, что Гарри – человек и что «Уолден» – книга. Для человека это очевидно, а модель этого не видит.
Почему модель не может спросить у пользователя, что такое Уолден? Я имею в виду, были ли попытки реализации создания уточняющих вопросов к пользователю?
За исследователей не скажу, но лично я регулярно сталкиваюсь с тем, что модель не задает вопросов, если ее специально об этом не просить. Поэтому я когда пишу ТЗ для модели на написание кода, обязательно заканчиваю фразой "Если у тебя есть вопросы по заданию, спрашивай, и ТОЛЬКО ПОСЛЕ МОЕГО ОТВЕТА выводи полный код".
Модель задает вопросы, но не факт, что она правильно их поняла (или не факт, что я правильно ей донес), и она снова, зараза, будет молчать.. Поэтому когда я отправляю ей ответы, я повторяю ту же самую фразу. И так до тех пор, пока у нее не кончатся вопросы и ТЗ не будет для нее исчерпывающим.
Правда надо контекстное окно бесконечное иметь для таких бесед, поэтому в агенте я просто возвращаюсь к своему первому сообщению, редактирую его... в общем, это уже другая история, но модели без разрешения вопросы не задают, могут лишь во время включенного вывода ризонинга формулировать эти вопросы, как бы внутренне их обсуждая.
Обзор проблем и решений в ризонинговых LLM. Часть 2