Комментарии 19
Экспериментировал с локальными моделями в этом направлении. Процесс размышления не гарантирует отсутствия грубейших ошибок в логике. А вот времени отнимает больше. И не всегда даже правильные размышления дают лучший ответ нежели прямая генерация. Не думаю, что с большими моделями иная ситуация. К тому же, на сегодня им лучше поручать простые задачи, которые они гарантированно выполнят хорошо. А сложные вещи должен делать человек, потому что у LLM нет и не может быть пока реального целеполагания и миропонимания. А если появится, то это будет уже совсем иная история, где моего участия (возможно, существования) не потребуется. А пока все эти think-models - просто хайп, потому что первая же ошибка в работе такого AI-оператора станет крахом всей задачи, и хорошо если без последствий
простые задачи, которые они гарантированно выполнят хорошо.
Откуда гарантия? Начнем с того, что там на каждом шаге случайный выбор следующего токена, так что с некоторой вероятностью оно даже "зная" правильный ответ выдаст не его. И продолжим тем, что перестановка слов или изменение чисел в задаче на 0.01% могут привести к принципиально другому выводу.
Начнем с того, что там на каждом шаге случайный выбор следующего токена
Это можно нивелировать, скрутив температуру в ноль, будет просто выбор наиболее вероятного токена. Задачи, где не требуется креатив, после такого обычно решаются лучше и стабильно (из минусов, правда, модель может зациклиться, но это в целом решаемая проблема).
Простую задачу проще отдебажить. Даже если ИИ накосячил, вы быстро найдёте где.
"Простая задача" действительно понятие растяжимое. Например, можно доверить создать саммари или комментарии в коде. Да, нет гарантий отсутствия ошибок и всё зависит от входного контекста. Ответы LLM де-факто не являются на 100% точными, я этого и не пытался утверждать. Оттуда в целом недоверие к технологии в качестве самостоятельного "мыслительного механизма"
могут перегружать себя мыслями и застревать в бесконечных циклах мыслей
Прям как я... Может, я тоже LLM?
Интересно а что будет в качестве снотворного и антидепрессантов для языковых моделей? Или только эвтаназия? :))
Мультиагентность, наверное. Чтобы друг друга корректировали, компенсировали и дополняли, с разных точек зрения и состояний (может даже с разным обучением). Все ближе к биологическому мозгу, только вычислительной мощности нужно больше на это.
Грубо говоря, чем больше затрачиваемая при инференсе вычислительная мощность и разнообразность опыта, на котором модель обучена, чем лучше научились взаимодействовать её части, тем больше надёжность и находчивость-сообразительность.
Нейросеть-психолог для нейросетей.
Знаете, я тоже своего рода языковая модель.
Скрытый текст

Языковые модели могут перегружать себя мыслями и застревать в бесконечных циклах мыслей
Многие модели посвящают слишком много мыслей придумывая ответ на вопрос с поддевкой из чата, который уже месяц как закрыт.
А дальше что? От депрессии их лечить придётся?))
Языковые модели могут перегружать себя мыслями и застревать в бесконечных циклах мыслей