Как стать автором
Обновить

Эрик Ландау из Encord подвёл итоги первого года ChatGPT и описал будущее ИИ

Время на прочтение4 мин
Количество просмотров2.2K

Соучредитель и гендиректор Encord Эрик Ландау опубликовал колонку, посвящённую первой годовщине выхода ChatGPT. Стартап Ландау специализируется на инструментах для разработки моделей и аннотирования данных для машинного обучения, поэтому автор колонки сосредоточился на практических вопросах развития ИИ в ближайшем будущем. 

Ландау предлагает читателям пересмотреть состояние ИИ после появления ChatGPT, чтобы заглянуть в будущее: «Год назад ChatGPT покорил мир, превзойдя даже самые большие ожидания OpenAI, став самым быстрорастущим потребительским приложением в мире за всё время. Хотя прошлый год был наполнен множеством новых моделей, сотнями только что созданных стартапов и захватывающими драмами, всё ещё кажется, что это только первые дни развития технологии… Хотя делать прогнозы в ИИ — "это дурацкая игра”, появляются вопросы, на которые стоит обратить внимание: сложность, мультимодальность, связанность, согласованность, коммерциализация и непредсказуемость».

Погружение в сложность

По мнению Ландау, один из наиболее интересных аспектов искусственного интеллекта заключается в том, что он относится к категории технологий, обладающих «неограниченным потенциалом». И хотя ChatGPT и другие LLM сегодня хорошо осведомлены (и галлюцинируют) по широкому кругу тем, они по-прежнему не могут надежно решать нишевые вопросы. 

Однако компании уже начали адаптировать эти модели с помощью специализированных наборов данных и методик, чтобы они могли работать с более специфическими ситуациями. Мы приближаемся к эпохе, когда специализированные приложения смогут предоставлять персональные советы и рекомендации в соответствии с индивидуальными предпочтениями.

Мультимодальность 

В настоящее время существуют категориальные блоки, классифицирующие различные типы проблем, которые могут решить системы ИИ. У нас есть «компьютерное зрение», «НЛП», «обучение с подкреплением» и т. д. Мы также разделяем «предиктивный» и «генеративный» ИИ. Они могут решать только один тип проблем за раз. Люди при этом и предиктивны, и генеративны, и мультимодальны.

Но уже появились первые зачатки мультимодального направления в ИИ. ChatGPT научился распознавать изображения. Модели с открытым исходным кодом, такие как LLaVA, теперь рассуждают и о тексте, и об изображении. CLIP объединяет текст и зрение в единую структуру встраивания и может быть интегрирована в различные типы приложений. 

И хотя эти мультимодальные модели ещё не нашли применение во многих практических приложениях, их интеграция в обычные рабочие процессы и продукты — лишь вопрос времени. Сегодняшние модели в целом могут видеть, слышать, читать, планировать, двигаться и т. д. Модели будущего будут делать всё это одновременно.

Многогранность проблемы контроля ИИ

​​Для Ландау важны не только будущие технологические достижения, но и их влияние на общество. Речь идёт о проблемах контроля и безопасности ИИ, когда цели, решения и поведение систем искусственного интеллекта находятся в гармонии с человеческими ценностями и намерениями. 

На сегодняшний день основное внимание лабораторий и компаний уделяется приведению моделей в соответствие с так называемой «функцией потерь» (функция потерь — это математическое выражение того, насколько далека модель от получения «правильного» ответа). В будущем исследования в области «сверхсогласования», вероятно, приведут к появлению инструментов и лучших практик, которые помогут адаптировать ИИ к человеческим намерениям, даже если ИИ начнёт становиться всё более мощным. Технологические компании будут лучше согласовывать модели с потерями, исследователи и сторонники согласования — потери с человеческими целями, а регулирующие органы — технологии с законом.

Интернет с искусственным интеллектом

На собраниях венчурных инвесторов по всему миру часто задают вопрос, будет ли небольшое количество мощных базовых моделей в конечном итоге контролировать все операции, или появится множество более мелких моделей с тонкой настройкой, не связанных централизованным контролем? Эрик Ландау предполагает, что ответ на этот вопрос — и то, и другое. 

Очевидно, что централизованные базовые модели неплохо справляются с обобщёнными вопросами и сценариями использования, но поставщикам базовых моделей будет сложно получить доступ к частным массивам данных, хранящимся в компаниях и учреждениях, для решения более мелких проблем, специфичных для конкретной предметной области. И в будущем, вероятно, будет гораздо больше ИИ-моделей. 

Будут развиваться агенты ИИ, возможно, дойдёт до того, что у каждого человека будет свой личный ИИ, ежедневно выполняющий за него рутинные монотонные задачи.

Платный доступ

Ландау напоминает, что после доказательства жизнеспособности технологии следующим шагом становится её монетизация. Для ИИ дни открытых документов, наборов данных и обмена ими в сообществах заканчиваются по мере того, как набирает обороты механизм получения прибыли. Мы уже видим это во всё более расплывчатых, почти комичных, описаниях OpenAI своих моделей. К выходу GPT-5 ожидаемый релиз может выглядеть как простое признание: «Мы использовали для этого графические процессоры». По иронии судьбы ценность, созданная ранней открытостью технологий, приведёт к прекращению совместного использования технологий и более закрытому менталитету. 

Последнее поколение технологического роста подпитывалось социальными сетями и «вниманием». Любые препятствия для взаимодействия, такие как привязка кредитной карты, не поощрялись, а ожидание того, что «всё бесплатно», стало обычным явлением при использовании многих интернет-сервисов.

По мере того как мы переходим от экономики внимания к экономике интеллекта, где автоматизация становится основным драйвером роста, можно ожидать, что придётся доставать кредитные карты.

Ожидать неожиданного

Даже на такие вопросы, как выживет ли сам OpenAI через год, крайне сложно ответить. Возможно, благодаря ИИ, доказательство гипотезы Римана станет обычным упражнением, а «мы можем оказаться в мире, где научный прогресс ускоряется сверх наших самых смелых мечтаний, где у нас больше ответов, чем вопросов, и где мы даже не можем обработать набор доступных нам ответов». Ландау предостерегает, что есть как утопические, так и антиутопические ветви возможностей. Технология не зависит от морали; и в расчётах будущего можно учитывать только людей, использующих её, и ответственность, которую они несут.

Теги:
Хабы:
Всего голосов 13: ↑13 и ↓0+13
Комментарии0

Другие новости

Истории

Работа

Ближайшие события

27 августа – 7 октября
Премия digital-кейсов «Проксима»
МоскваОнлайн
11 сентября
Митап по BigData от Честного ЗНАКа
Санкт-ПетербургОнлайн
14 сентября
Конференция Practical ML Conf
МоскваОнлайн
19 сентября
CDI Conf 2024
Москва
20 – 22 сентября
BCI Hack Moscow
Москва
24 сентября
Конференция Fin.Bot 2024
МоскваОнлайн
25 сентября
Конференция Yandex Scale 2024
МоскваОнлайн
28 – 29 сентября
Конференция E-CODE
МоскваОнлайн
28 сентября – 5 октября
О! Хакатон
Онлайн
30 сентября – 1 октября
Конференция фронтенд-разработчиков FrontendConf 2024
МоскваОнлайн