Обновить
5
0
Калимулин Михаил Игоревич @exwill

AI developer

Отправить сообщение

Они пользуются негодным инструментом. Сейчас почти весь ИИ-ширпотреб не дает доступа к параметрам модели. Как следствие, пользоваться ИИ-ширпотребом для решения логических задач не имеет смысла.

Хотите решать логические задачи или делать исследования в области решения логических задач с помощью ИИ, тогда пользуйтесь API

В том-то и дело, что не надо "составлять верные запросы". Всего лишь переключить из режима сказочника в режим ученого. И это не запросом делается, а "переключателем"

Google получили около 100 миллионов долларов годовой экономии. За счет применения эвристического алгоритма размещения в контейнерах, который был придуман ИИ

Когда вам рассказывают сказку, вы естественно хотите, чтобы это была оригинальная сказка. Такая, которой раньше не было. Если вам будут рассказывать сказку ту же, что и Пете, Васе, Свете, и хуже того, вам будут рассказывать сказку ту же, что рассказывали вчера, позавчера, три дня назад, вам это не понравится.

Но если вам решают логическую задачу, тогда одна и та же "сказка" для всех и всегда - это ровно то, что вам нужно.

При решении логических задач, модели надо переключать из режима сказочника в режим ученого. И делается это не промтом

Только не ИИ фантазирует, когда его не просят. А это вы сами не дали себе труда разобраться, как попросить ИИ не фантазировать

Семплирование отключали?

Как раз к формулировкам модели зачастую менее чувствительны, чем к семплированию

Речь идет о недостатке знаний о том, как работают модели

Для начала нужно выключить семплирование

Нет. Если работать через API и установить temperature=0, то на логических задачах будешь получать один и тот же ответ раз за разом (хотя вариации все же встречаются, но это, как правило, касается второстепенных деталей, например, в каком формате выдается ответ)

У OpenAI такой параметр появился относительно недавно, в статусе beta. С одной стороны, OpenAI говорят, что при использовании этого параметра "... determinism is not guaranteed..." С другой стороны, на практике, если пользоваться параметрами temperature или top_p в задачах на логику или программирование, то результаты неотличимы от детерминированных. Так что смысл данного параметра мне лично пока не ясен

Очень просто. По сути, к каждому вашему промту по умолчанию добавляется: "на каждом шаге добавляй немного бредятинки, чтобы было веселее". Зачем так сделали? Затем, что если это убрать, то на запрос рассказать сказку, нейросеть будет рассказывать одну и ту же сказку. Всегда и всем. В случае со сказкой это конечно же не интересно. Но в случае с задачами на логику или программирование ситуация строго противоположная. Одна и та же "сказка" всегда и для всех - это ровно то, что нам нужно.

Было бы смешно раз за разом наблюдать, как люди с азартом пишут друг другу: " а у меня получилось совсем не так, как у вас". Но вообще то это грустно. В массах формируется и распространяется предубеждение в том, что нейросети непредсказуемы и серьезные вещи доверять им нельзя. И все из-за того, что люди не дают себе труда разобраться как следует в работе этого инструмента

Я не знаю. Сам пользуюсь почти всегда API. Но если такой функции в веб-интерфейсе нет, тогда он просто не годится для решения задач на логику и программирование. Разве это не очевидно?

"зацикливается, пишет неправильный код"

традиционный вопрос в таких случаях: семплирование отключали?

Лучше всего пользоваться API. Или найти такую оболочку, которая даст вам доступ к установке параметров. Тут подсказать не могу, потому что сам использую только API.

Обычно для отключения семплирования параметр temperature устанавливают в 0. Это приводит к тому, что при получении очередного токена, выбирается один, самый лучший.

Как вариант, можно установить параметр top_p в 0.1 Будет практически то же самое. У некоторых моделей доступен параметр top_k. Можете почитать об этом здесь https://towardsdatascience.com/how-to-sample-from-language-models-682bceb97277

Модель o1 уже сейчас размышляет на уровне PhD

Ничего удивительного o1 как раз таки создана для решения логических задач, а не для сочинения сказок.

Потому что по умолчанию включено семплирование. Это означает, что на каждом шаге нейросеть выбирает не самый лучший вариант, а один из наиболее вероятных. Так сделано для того, чтобы нейросеть на просьбу рассказать сказку не рассказывала одну и ту же сказку всем. Но если вы решаете логическую задачу, тогда вам именно это и нужно. Чтобы была "одна и та же сказка для всех". Поэтому при решении логических задач семплирование надо отключать

Конечно можно. Просто нейросеть может работать и репетитором и сказочником. Режим сказочника установлен по умолчанию. Если вам нужен репетитор, отключайте режим сказочника

Информация

В рейтинге
Не участвует
Откуда
Москва, Москва и Московская обл., Россия
Дата рождения
Зарегистрирован
Активность