Pull to refresh

Comments 4

Это другое. Данные для физического мира могут произвести некоторые улучшения в специализированных областях - прогноз погоды, изучения изменения климата, медицина, материаловедение. Скорее всего прирост будет весьма скромный, заметят определенные специалисты, но такого эффекта как произвел ChatGPT в 2022 году не будет.

Текстовые данные, которые сейчас есть используются неэффективно. Т. к. LLM это очень крутой T9. Например написаны сотни книг и учебников о хороших практиках программирования, дизайна, архитектуры, TDD, и много много чего. Эти книги были прочитаны и пережеваны, но на практике LLM не смотрит на абстракции из этих книг, а пытается выдать прадободное решение из миллиардов строчек самого разного кода на гитхаб.

Значит упираемся не только в данные и GPU, но и в алгоритмы машинного обучения.

Проблема не в том, что данных мало — проблема в том, что мы до сих пор учим ИИ говорить о мире, а не понимать его. LLM оптимизируют правдоподобный текст, а не корректные решения. Поэтому “книги прочитаны”, но абстракции не извлечены — модель не учится причинности. Можно возразить, что обучение с подкрепление решает проблему, но это скорее дрессировка собаки - собака получает вкусняшку за команду (как за набор аудио-визуальной информации), но не понимает сути.

Из личного - работал с Клодом на прошлой неделе. Задач про алгоритм распознания объекта и выделение его формы. Год назад пробовал решать через ИИ - результат был максимально негативный. Сейчас, спустя год, я сумел решить за 1 неделю задачу, которую до этого решал пол года. При этом ИИ прекрасно справился с техникой, но абсолютно не понимал фундаментального алгоритма решения задачи.

Поэтому эффект может быть не таким массовым, как у ChatGPT в 2022, но потенциально более глубоким для прикладных систем. Ведь в итоге я хочу получить не магию, а результат.

То есть, люди все-таки нужны ) Выходит, что в матрице люди будут не батарейками, а генераторами обучающей информации.

Аналогия супер! Но если более научным языком, то ИИшке не хватает источников энтропии. Она все усредняет. Так, например, что Земля получает от Солнца? Верно, энергию. А Земля получает от Солнца больше энергии, чем излучает в космос? Надо подумать. Ответ кроется в ЗСЭ - Земля отдает ровно столько, сколько получает, иначе бы супчик давно закипел. Тогда вопрос, а если отдает столько же, сколько получает, то что остается? Как в том анекдоте, про еврея который варил яйца бесплатно оставляя себе "навар". Навар в случае с Землей и Солнцем в том, что Солнце становится источником энтропии позволяя на земле создавать очаги концентрации энтропии, которые, в каком-то смысле, породили жизнь. А вот отдает Земля уже максимально равномерное тепло с нулевой энтропией. Поэтому модели мира (или креативности человека) - это как раз источники энтропии для ИИ.

Sign up to leave a comment.

Articles