Как стать автором
Поиск
Написать публикацию
Обновить

Исследование MIT: генеративный ИИ не понимает устройство мира

Время на прочтение2 мин
Количество просмотров5K

Исследование Массачусетского технологического института (MIT) показало, что модели генеративного ИИ дают правдоподобные ответы, но не обладают пониманием сложных систем и ограничивается лишь предсказаниями. 

Исследователи выяснили, что системы искусственного интеллекта демонстрируют значительные ограничения в логических рассуждениях, навигации, химии и играх.

Модели, подобные GPT-4, создают впечатление продуманности ответа за счёт того, что они точно предсказывают наиболее вероятные слова, которые следует поместить рядом с предыдущими в определённом контексте. Учёные проверили, насколько они способны действительно «понимать» реальный мир. Они разработали метрики, предназначенные для объективной проверки интеллектуальных способностей ИИ.

Так, в эксперименте оценили способность ИИ к генерации пошаговых инструкций для навигации по улицам Нью-Йорка. Модели демонстрировали «неявное» усвоение законов окружающего мира, но не показали его истинного понимания.

Для оценки моделей, в качестве которых были выбраны трансформеры, учёные использовали класс задач, известных как детерминированные конечные автоматы (Deterministic Finite Automaton, DFA). Они охватывают области логики, географической навигации, химии и стратегии в играх. Исследователи выбрали две задачи: вождение автомобиля по улицам Нью-Йорка и игру в «Отелло». ИИ-модели должны были восстанавливать внутреннюю логику сложных систем. Они успешно восстанавливали карту улиц Манхэттена и прогнозировали направление движения почти в 100% случаев, когда условия задачи были чётко определены. Но при добавлении новых факторов, например, объездных путей, исследователи получили карту, которая оказалось мало похожей на реальные улицы Манхэттена, включая улицы с невозможной физической ориентацией и эстакадами.

Таким образом, исследование показало принципиальные ограничения генеративных моделей, особенно в тех задачах, где требуется гибкость мышления и способность адаптироваться к реальным условиям. 

Ранее группа исследователей ИИ в Apple опубликовала статью «Понимание ограничений математического рассуждения в больших языковых моделях» для общего обсуждения. Они выяснили путём экспериментов, что ИИ не умеет думать как человек, а лишь имитирует мышление.

Теги:
Хабы:
Всего голосов 13: ↑12 и ↓1+15
Комментарии11

Другие новости

Ближайшие события