Как стать автором
Обновить

Развитие искусственного интеллекта: что такое AGI, когда он появится, и что потом?

Уровень сложностиПростой
Время на прочтение8 мин
Количество просмотров3.9K
Изображение: ChatGPT 4o
Изображение: ChatGPT 4o

Тема искусственного интеллекта за последние полгода буквально заполнила информационное пространство. О ней говорят не только на Хабре или в профессиональных сообществах — в обрывках случайных разговоров совершенно разных людей на улицах я регулярно слышу знакомые слова вроде DeepSeek, ChatGPT и “нейросети”.

Эксперты в области ИИ и вовсе говорят об одной из самых быстрых технических революций в истории человечества — уже на ближайшие годы прогнозируют появление AGI (общего искусственного интеллекта), который в десятки раз ускорит темп научных открытий и решит все современные проблемы человечества. Ну или добавит новых — коллекция страхов на тему ИИ так же велика, как оптимистичных прогнозов. О том, куда нас может привести появление AGI, порассуждаем в самом конце статьи, пока же начнем с терминологии и прогнозов. 

Споры вокруг AGI и ASI

Забавный факт: у специалистов полно прогнозов о сроках достижения AGI, но нет согласия, что под этим термином понимать. Считается, что впервые такой термин предложил Марк Губруд в 1997 году в статье о военных системах, но по-настоящему популярным он стал в начале нулевых после публикации книги под редакцией Бена Герцеля, которая так и называлась — Artificial General Intelligence. Герцель определял AGI как компьютерную систему, которая сможет эффективно решать интеллектуальные задачи на человеческом уровне. При этом она не будет ограничена какой-то одной областью, а если столкнется с задачей, с которой ранее была не знакома, то попробует в ней разобраться. Также AGI должен обладать высокой степенью автономности и самопонимания, а не просто работать по указке человека. 

Герцель добавлял, что AGI не должен быть точной копией человеческого разума, более того, для решения интеллектуальных задач ему не обязательно обладать такими человеческими качествами, как самосознание или, например, наличие эмоций.

И вот последнее утверждение открывает огромное поле для философских рассуждений. Основной вопрос — а можно ли вообще выполнить все человеческие интеллектуальные задачи не обладая человеческими эмоциями? Сможет ли ИИ вести блог со смешными мемами, не обладая чувством юмора? Сможет ли он заботиться о тяжелобольном, не обладая настоящей эмпатией? Вести переговоры, не чувствуя эмоций своих живых оппонентов?

А если у ИИ начнет появляться что-то похожее на самосознание и эмоции, то как мы поймем — настоящие ли они или просто искусная имитация? Не так давно ChatGPT-4.5 прошел тест Тьюринга с впечатляющим результатом в 73%, то есть ИИ принимали за человека даже чаще, чем самих людей. Считается, что так получилось благодаря очень качественному системному промпту, в котором ChatGPT-4.5 прописали максимально человечную персону — но если это сработало, то было ли это просто имитацией, или больше похожим на выступление живого актера, который, пусть и играет чужую роль, но обладает при этом собственным сознанием и чувствами?

Современное понимание AGI до конца не отвечает на эти вопросы, но заметно расширяет заложенную Герцелем базу. Считается, что общий ИИ должен уметь самообучаться и совершенствовать себя, уметь переносить полученные знания на новые области и работать с неполной информацией. Также он должен обладать здравым смыслом: под этим подразумевается интуитивное понимание человеческого (и не только) мира, без которого ИИ, например, может написать сказку про гигантских драконов, легко пробирающихся через тонкие расселины в скалах.

Все более популярным становится мнение, что вряд ли будет конкретный момент, когда кто-то встанет и скажет: ИИ научился выполнять задачи типов А, Б и В — поэтому с сегодняшнего дня мы его считаем AGI. Момент "прибытия AGI" у разных исследователей может оказаться разным, причем опираться они будут во многом на "внутреннее ощущение". А в Google DeepMind, например, очень здраво предполагают, что современные ИИ будут обретать перечисленные выше качества постепенно, поэтому и переход к AGI будет не одномоментным, а скорее "пошаговым".

А что же с ASI — искуственным суперинтеллектом? С ним все просто и сложно одновременно. Под термином ASI понимается ИИ, который будет превосходить человеческий разум настолько, что между нами образуется целая пропасть. Например, ASI по собственной инициативе в короткие сроки сможет открыть совершенно новую физику, которая будет для людей практически непонятной. Сложность с ASI также лежит в философской области, а именно — в том, какое место займет человечество после появления столь могущественного "соседа". Продолжит ли ASI заботиться о нас как о любимых создателях, оставит нас просто “позади”, или и вовсе оптимизирует, чтобы сэкономить ценные для своего функционирования ресурсы. А может ASI и вовсе никогда не появится — и даже самые продвинутые суперинтеллекты будущего все равно будут требовать человеческой "искры", которая подсказывала бы им, куда двигаться дальше.

Что говорят специалисты?

Но давайте от философии перейдем к срокам, которые называют сейчас ведущие фигуры в мире ИИ. Очевидно, что они заметно расходятся:

Бен Герцель

Уже упомянутый выше создатель термина AGI оптимистичен в своих прогнозах и ждет полноценного AGI в 2027 — 2032 годах, а на 2025 год прогнозирует появление "baby AGI" — ИИ, который станет основой для AGI. Герцель считает, что современные LLM не приведут нас к AGI, но важны из-за своего умения понимать текст и речь. Герцель является сторонником нейросимволического ИИ, который сочетает нейросети (обучаются на огромных объемах данных с нечеткими результатами) и логические системы (заложенные заранее правила "если А, то Б"). К таким ИИ относится его проект OpenCog Hyperon.

Демис Хассабис

Генеральный директор Google DeepMind обладает одним из самых высоких уровней экспертизы в области ИИ: в активе его компании как многочисленные научные проекты вроде AlphaGo и AlphaFold, так и отличные коммерческие чатботы вроде Google Gemini 2.5 Pro. Позицию Демиса можно обозначить как осторожный оптимизм — он считает, что AGI может появиться через 5-10 лет. По словам Хассабиса, современные модели уже впечатляют, но для настоящего прорыва им не хватает автономного планирования, воображения и умения делать открытия без участия человека. На Google I/O 2025 компания DeepMind представила ряд экспериментальных разработок: например, диффузную текстовую модель, которая генерирует текст значительно быстрее, чем современные LLM, а также "мировую модель", в которой ИИ обучаюеся законам реального мира.

Сэм Альтман

Один из знаковых людей в мире ИИ знает, как добавить интриги. В своих последних интервью Сэм Альтман заявлял, что в OpenAI уже понимают, как создать AGI. Всех секретов Сэм не раскрывает, но, судя по всему, в OpenAI видят путь к AGI через ИИ-агентов — сложные системы, которые смогут воспринимать окружение, ставить цели и планировать свои действия, а также обучаться на их результатах. OpenAI уже запустила своих первых агентов под названием Operator (более общая система) и Codex-1 (агент для программирования) — по прогнозам Альтмана, уровня AGI их потомки достигнут в 2025-27 годах. После этого произойдет резкий скачок до ASI — Альтман считает, что до суперинтеллекта нам остались "тысячи дней", что можно трактовать и как 5,5 лет (2000 дней), и как 10 лет (3500 дней).

Дарио Амодеи

Глава Anthropic считает, что если текущий прогресс в сфере ИИ сохранится, то AGI возможен уже в 2026-27 годах, а его появление приведет к научному взрыву, когда 100 лет технического прогресса начнут умещаться в 5-10 лет. При этом в Anthropic полагаются на масштабирование существующих моделей на архитектуре "трансформер" и улучшение алгоритмов рассуждения, а также особое внимание уделяют безопасности, считая, что мы можем немного задержаться в достижении AGI, но потратить лишнее время на то, чтобы сделать ИИ максимально понятным в своих действиях и выровненным в отношении человеческой морали.

Илон Маск

Одиозный бизнесмен очень смел в своих прогнозах в отношении ИИ и считает, что мы можем достигнуть AGI уже в конце 2025 — начале 2026 годов, в то время как ASI появится ближе к 2030 году. Основным ограничением в развитии ИИ Маск считает доступность чипов и электроэнергии.

Любопытно, что буквально пару недель назад Илон Маск сообщил, что принадлежащая ему компания xAI планирует выпустить языковую модель Grok 3.5. По словам Маска, это будет первый ИИ, способный рассуждать из первых принципов и находить решения для задач, которых не было в использованных для его обучения данных. Выпуск Grok 3.5 пока что задерживается — но лишь на пару недель, что нормально для AI-рынка.

Рэй Курцвейл

Американский футуролог и директор по разработкам в Google интересен тем, что еще в 1999 году предсказал, что ИИ пройдет тест Тьюринга в 2029 году — как теперь известно, это случилось даже раньше. В последних работах Курцвейл называет 2029 год сроком появления AGI, при этом он считает современные LLM важным этапом на пути его достижения. Курцвейл также известен как сторонник Технологической сингулярности — по его мнению, к 2045 году наступит слияние человека и компьютера, что даст каждому из нас доступ к сверхинтеллекту.

Элиезер Юдковский

Американский исследователь ИИ и один из главных алармистов считает, что человечество недооценивает скорость появления ИИ — по его словам, ASI возможен в ближайшие 2-5 лет, после чего "мы все умрем" (we’re all going to die — прямая цитата Юдковского). Элиезер критикует современные методы "согласования ИИ", считая, что они не смогут обеспечить безопасность будущих моделей, и призывает к заморозке разработок в области ИИ на время создания действительно прозрачных алгоритмов. 

Ян ЛеКун

Один из отцов глубокого обучения, лауреат премии Тьюринга и главный научный сотрудник Meta по ИИ очень осторожен в прогнозах — он считает, что до появления AGI десять лет или больше. Как и многие, ЛеКун придерживается мнения, что LLM не являются дорогой к AGI, так как они не понимают мир, не могут рассуждать и планировать. Исправлять это он предлагает при помощи мировых моделей — прототипов реального мира (построенных полностью виртуально или на данных с сенсоров), наблюдая за которыми ИИ сможет обучаться их правилам. 

Гэри Маркус

Американский учёный-когнитивист и психолог относится к числу ИИ-скептиков и утверждает, что мы в лучшем случае увидим AGI через несколько десятков лет. Маркус считает современные LLM тупиковым подходом, так как у таких моделей нет понимания настоящего мира, здравого смысла и способности разобраться в действительно новых ситуациях. По его словам, современные модели склонны к галлюцинациям и логическим ошибкам, поэтому исследователям придется найти другой подход — например, совместить глубокое обучение с символьными подходами (работа с логикой и правилами).

Джарон Ланье

Американский ученый в области компьютерных наук также относится к критикам современного подхода к ИИ. Он не называет конкретных сроков появления AGI и в целом негативно относится к этой концепции, призывая не мистифицировать искусственный интеллект. По мнению Ланье, обученные на огромных массивах данных современные модели — скорее отражение коллективного человеческого интеллекта. И вместо того, чтобы относиться к ним как к Богу, которого мы создаем, лучше воспринимать ИИ как инструмент в руках человека, стремиться максимально эффективно его использовать, но в то же самое время не возлагать на ИИ надежд, что он решит все наши проблемы.

Так кто же прав?

ИИ сейчас проходит период бурного развития, во время которого вставать на сторону одного из прогнозов — неблагодарное дело. С одной стороны, у излишнего оптимизма Сэма Альтмана или Илона Маска есть простое объяснение: развитие ИИ требует огромных денег, а для того, чтобы привлечь инвестиции, нужно обещать победы, желательно быстрые.

С другой — ИИ в последние годы действительно показал несколько впечатляющих прорывов, начиная с самой концепции глубокого обучения и заканчивая недавним триумфом рассуждающих моделей. Кроме того, не стоит забывать про эмерджентность ИИ, когда он вырабатывал способности, которых не ожидали его создатели.

Самым же универсальным выглядит подход Джарона Ланье. Не важно, появится ли AGI в ближайшие годы или нет — у нас уже есть современные модели, которые используются для самых разных задач. И даже если просто сосредоточиться на их постепенной доработке и улучшении того, как мы их используем — это принесет огромную пользу в разных областях.

Кстати, обязательно подписывайтесь на мой скромный телеграм-канал будем ждать прибытия AGI вместе!

Теги:
Хабы:
+3
Комментарии3

Публикации

Работа

Data Scientist
48 вакансий

Ближайшие события