Pull to refresh

Comments 12

Вопрос в тему. Есть уже решения по персональным помощникам на ИИ. Чтобы написать промпт вроде "Нагугли всех производителей фентифлюшек в южно-серверном Мухосранске, напиши им мейлы с вопросами, входят ли в поставку свистелка и две перделки, и по какой минимальной цене они готовы поставитть партию из ста комплектов. Если не ответили, или ответили не на все вопросы, напиши снова с уточнением" и т.п. Есть уже такое?

OpenAI грозятся до конца января выпустить Operator, который сможет делать нечто подобное. Но, как всегда, есть нюансы. Anthropic такую штуку уже выпустили, но что-то ничего про нее не слышно. Видимо, "не взлетело"

Думаю надо просить не "нагугли и напиши письмо", а "напиши пример кода на Питоне, который нагуглит и разошлет письмо", далее человек проверяет и корректирует код (при необходимости) и пользуется им по своему усмотрению

Пока нет, но скоро уже появится. Есть уже несколько мультиагентных систем (langchain, crew.ai, etc), которые можно относительно несложно интегрировать с любым доступным API. И которые уже содержат некоторое количество атомарных агентов.

Если знаешь тот же gmail API, то можешь уже сейчас сделать интеграцию и отправлять письма промптами через ИИ. (В принципе, и без мультиагентов это можно сделать, используя function calling современных моделей и обёртку на коленке и это тоже будет работать)

детерминистичное сэмплирование не должно помогать в случае когда LLM спрашивают то что она не знает, и она вместо ответа "я не знаю" начинает галюцинировать

насчёт того что галюцинации это миф вы конечно погорячились

Попробуйте смоделировать такую ситуацию на бизнес-задачах

А что это за особые бизнес-задачи и чем они отличаются от прочей работы? Термин не формализован.

Что не продавалось на прошлой неделе, это можно считать бизнес-задачей. Сколько звезд на небе, нет

Зачем так сделали, и почему не стали просто выбирать всегда наилучший вариант?

Потому что критерий наилучшести зависит от контекста. В одном контексте общеприняты одни шаблонные фразы, в другом контексте - другие. Иногда фразы из разных контекстов пересекаются в одном предложении или абзаце. Модель просто берет наиболее часто встречающиеся и не различает, что они часто встречаются в разных контекстах. Это недостаток ранних моделей, а не неустранимый баг ИИ как явления.

Насчет ранних моделей согласен

Спасибо за понятное объяснение!

Бывают случаи, когда LLM приходит к выводам, информации о которых не было в запросе. Как это происходит?

Пример: подаю запрос из нескольких задач из таск-менеджера. В выполненных задачах мы ставим знак +, но ни в тексте задачи, ни где-то еще не указано, что такая задача считается выполненной.

Вместе с тем, в своем ответе, модель сгруппировала эти задачи как выполненные и написала об этом.

Как это может происходить? Где-то в обучающей выборке была информация, что знак + может свидетельствовать о выполнении?

Это называется генерализация. В результате обучения модель может догадываться, что плюс означает выполнение.

Sign up to leave a comment.

Articles