Как стать автором
Обновить

Учёные Стэнфорда считают, что эмерджентные способности искусственного интеллекта — заблуждение работающих с ним людей

Время на прочтение2 мин
Количество просмотров25K

В Стэнфордском университете выдвинули гипотезу, что так называемые эмерджентные способности искусственного интеллекта — это заблуждение работающих с ним исследователей. Группа учёных опубликовала на arXiv работу, в которой утверждается, что пока ещё рано говорить о «гигантском скачке возможностей» больших языковых моделей. 

Об эмерджентных способностях AI в последнее время говорят всё чаще. Например, гендиректор Google Сундар Пичаи выдвигал идею, что большие языковые модели, такие как GPT-4 и Google Bard, могут внезапно выдавать информацию, на знание которой они не были запрограммированы. Утверждалось, что Bard может переводить с бенгальского языка, хотя его этому не обучали. Более того, исследователи Microsoft недавно заявили, что GPT-4 показала «искры искусственного общего интеллекта» и способна «решать новые и сложные задачи без каких-либо специальных подсказок».

Как пишет Vice, Райлан Шеффер, Брандо Миранда и Санми Коеджо из Стэнфорда объясняют внезапное появление эмерджентных способностей у языковых моделей выбором той или иной метрики, за который ответственны люди. Авторы статьи считают, что «для конкретной задачи и семейства моделей при анализе фиксированных результатов модели можно выбрать одну метрику, которая приводит к выводу о возникающей способности, или другую метрику, которая этого не делает». 

Учёные Стэнфорда изучали результаты работы с GPT-3 и обнаружили, что сверхспособности у искусственного интеллекта проявляются только в тех случаях, когда люди используют определённые метрики. Выбор человеком «нелинейного» или «прерывистого» измерения может привести к тому, что кажется резким и непредсказуемым изменением, которое потом ошибочно считают эмерджентными способностями. Тогда как на самом деле кривая производительности всё это время плавно растёт, не совершая «гигантских скачков». Когда исследователи изменили измерение своих результатов с нелинейной на линейную метрику, развитие модели стало предсказуемым и плавным, исключая эмерджентные способности.

В качестве примера учёные привели навык GPT-3 выполнять арифметические задачи с целыми числами, такие как сложение двух пятизначных целых чисел. «У многих людей сложилось представление, что небольшие модели вообще не могут справиться с этой задачей, а потом, вырастая до определённого масштаба, они внезапно очень хорошо выполняют сложение», — пишут авторы статьи. «Это даёт повод для беспокойства. Это позволяет предположить, что у вас может быть одна модель, которая ведёт себя хорошо и заслуживает доверия, но если вы обучаете следующую модель с большим количеством данных или с большим количеством параметров, она может (непредсказуемо) стать токсичной, вводящей в заблуждение или вредоносной». «Вместо этого мы обнаружили, что гигантского скачка возможностей нет, — продолжают авторы. — Когда мы пересмотрели показатели, которые мы используем для оценки, то обнаружили, что языковые модели расширяют свои возможности постепенно и предсказуемым образом».

Теги:
Хабы:
Всего голосов 20: ↑17 и ↓3+23
Комментарии250

Другие новости

Истории

Работа

Data Scientist
97 вакансий

Ближайшие события

19 августа – 20 октября
RuCode.Финал. Чемпионат по алгоритмическому программированию и ИИ
МоскваНижний НовгородЕкатеринбургСтавропольНовосибрискКалининградПермьВладивостокЧитаКраснорскТомскИжевскПетрозаводскКазаньКурскТюменьВолгоградУфаМурманскБишкекСочиУльяновскСаратовИркутскДолгопрудныйОнлайн
3 – 18 октября
Kokoc Hackathon 2024
Онлайн
10 – 11 октября
HR IT & Team Lead конференция «Битва за IT-таланты»
МоскваОнлайн
25 октября
Конференция по росту продуктов EGC’24
МоскваОнлайн
7 – 8 ноября
Конференция byteoilgas_conf 2024
МоскваОнлайн
7 – 8 ноября
Конференция «Матемаркетинг»
МоскваОнлайн