Pull to refresh

Учёные Стэнфорда считают, что эмерджентные способности искусственного интеллекта — заблуждение работающих с ним людей

Reading time 2 min
Views 24K

В Стэнфордском университете выдвинули гипотезу, что так называемые эмерджентные способности искусственного интеллекта — это заблуждение работающих с ним исследователей. Группа учёных опубликовала на arXiv работу, в которой утверждается, что пока ещё рано говорить о «гигантском скачке возможностей» больших языковых моделей. 

Об эмерджентных способностях AI в последнее время говорят всё чаще. Например, гендиректор Google Сундар Пичаи выдвигал идею, что большие языковые модели, такие как GPT-4 и Google Bard, могут внезапно выдавать информацию, на знание которой они не были запрограммированы. Утверждалось, что Bard может переводить с бенгальского языка, хотя его этому не обучали. Более того, исследователи Microsoft недавно заявили, что GPT-4 показала «искры искусственного общего интеллекта» и способна «решать новые и сложные задачи без каких-либо специальных подсказок».

Как пишет Vice, Райлан Шеффер, Брандо Миранда и Санми Коеджо из Стэнфорда объясняют внезапное появление эмерджентных способностей у языковых моделей выбором той или иной метрики, за который ответственны люди. Авторы статьи считают, что «для конкретной задачи и семейства моделей при анализе фиксированных результатов модели можно выбрать одну метрику, которая приводит к выводу о возникающей способности, или другую метрику, которая этого не делает». 

Учёные Стэнфорда изучали результаты работы с GPT-3 и обнаружили, что сверхспособности у искусственного интеллекта проявляются только в тех случаях, когда люди используют определённые метрики. Выбор человеком «нелинейного» или «прерывистого» измерения может привести к тому, что кажется резким и непредсказуемым изменением, которое потом ошибочно считают эмерджентными способностями. Тогда как на самом деле кривая производительности всё это время плавно растёт, не совершая «гигантских скачков». Когда исследователи изменили измерение своих результатов с нелинейной на линейную метрику, развитие модели стало предсказуемым и плавным, исключая эмерджентные способности.

В качестве примера учёные привели навык GPT-3 выполнять арифметические задачи с целыми числами, такие как сложение двух пятизначных целых чисел. «У многих людей сложилось представление, что небольшие модели вообще не могут справиться с этой задачей, а потом, вырастая до определённого масштаба, они внезапно очень хорошо выполняют сложение», — пишут авторы статьи. «Это даёт повод для беспокойства. Это позволяет предположить, что у вас может быть одна модель, которая ведёт себя хорошо и заслуживает доверия, но если вы обучаете следующую модель с большим количеством данных или с большим количеством параметров, она может (непредсказуемо) стать токсичной, вводящей в заблуждение или вредоносной». «Вместо этого мы обнаружили, что гигантского скачка возможностей нет, — продолжают авторы. — Когда мы пересмотрели показатели, которые мы используем для оценки, то обнаружили, что языковые модели расширяют свои возможности постепенно и предсказуемым образом».

Tags:
Hubs:
+23
Comments 250
Comments Comments 250

Other news