Комментарии 6
когда ты берешь действительно сложные задачи и пытаешься условно чат GPT, гигачат что-то спросить, он тебе быстро дает правдоподобный ответ, который, скорее всего, абсолютно бессмысленный.
Личный опыт, приведший к завершению попыток использования LLM для формирования экспертизы по интересующей меня инженерной области.
Если очень упрощенно, стандартный сценарий:
———
Вопрос: В тесте с заданными условиями - что будет больше А или B?
Ответ LLM : A будет больше потому , что .....
Проведение эксперимента по заданным условиям. Результат: B > A
Вопрос: Почему в тесте с заданными условиями B > A ?
Ответ: B > A потому , что ....
———
Нейросеть дала два противоречащих друг другу ответа, потому что ее цель — не установление истины, а генерация текста, максимально релевантного входному промпту.
Оба ответа являются статистически вероятными объяснениями для своих контекстов, собранными из корпуса обучающих данных.
Какая из гипотез верна может установить только эксперт на основании анализа данных полученных в ходе эксперимента.
А принимать решения на основании прогнозов нейросетей - очень рискованно.
И IMHO вряд ли обьемы данных и вычислительные ресурсы способны изменить результат прогнозов LLM в условии практически отсутствия результатов экспериментов (ну по крайней мере в области которая мне интересна).
Крайне странное заявление ученого про олимпиадников. Значит они решают задачу, которую кто-то решил. А учёные решают задачу, которую кто-то решит. Если он не может проводить нормальные аналогии, что говорить об остальном.
Гигачат, который выложили вчера в открытый доступ, флагманская модель, это 70 миллиардов. То есть на самом деле весь мир сейчас где-то вокруг 20-30-70 миллиардов.
Дальше не читал. У чела все знания о мире умещаются в средненькую модель

Иван Оселедец с докладом «Успехи и проблемы больших языковых моделей»