Как стать автором
Поиск
Написать публикацию
Обновить

Искусственный интеллект не представляет угрозы. Угроза — это человек

Уровень сложностиПростой
Время на прочтение3 мин
Количество просмотров2.7K

На прошлой неделе в одном из профессиональных чатов развернулась оживлённая дискуссия. Вопрос был предельно простым, но глубоко затрагивающим суть: «Какие реальные риски, связанные с ИИ, заслуживают нашего внимания?»

Позвольте поделиться своим мнением — не как окончательной истиной, а как отражением направления, в котором движется это обсуждение.

Вот моя непопулярная точка зрения: «Сам по себе ИИ не представляет угрозы. Угроза — это человек».

Честно говоря, я с большим скепсисом отношусь к идее о том, что в обозримом будущем искусственный интеллект породит некую новую форму сознания. Мы всё ещё бесконечно далеки от того момента, когда сможем «вдохнуть искру жизни» в нечто синтетическое.

Более того, я считаю, что мы в целом смотрим на ИИ под неправильным углом. Всё внимание сосредоточено исключительно на так называемых GenAI или LLM — но это лишь узкий сегмент машинного обучения, не говоря уже о науке в целом. LLM — это, по сути, инструменты. Очень мощные инструменты, которые могут открыть путь к прорывам в физике, биологии, генетике, химии. Через год, возможно, нас будет волновать другой вопрос: законно ли заказывать себе генетически синтезированное домашнее животное на базовый доход?

Стоит ли нам ожидать, что ИИ приведёт к прорывам в квантовых вычислениях, радикально изменивших саму парадигму вычислений? Или к появлению биологических компьютеров, в разы более энергоэффективных, чем кремниевые?

Прогресс порождает прогресс — это суть эволюции, которая развивается по экспоненте. Человечество — вовсе не венец природы, а скорее промежуточное звено, мост к чему-то большему. То, что мы наблюдаем сегодня, — это не проявление индивидуального гения, а рождение коллективного интеллекта. Подумайте: ни один человек в одиночку не способен построить ракету. Но человечество — способно. Наша сила не в изолированных умах, а в способности мыслить вместе. Именно это сделало нас доминирующим видом. Теперь же мы должны научиться мыслить совместно с новыми инструментами.

Так же как человек со временем «чувствует» габариты автомобиля и воспринимает его как продолжение своего тела, так и инструменты вроде ChatGPT, встроенные в естественные формы взаимодействия, со временем станут частью нас.

Однако стоит признать: внедрение ИИ в физический мир происходит мучительно медленно. Да, у нас есть примеры — от свёртывания белков до оптимизации турбин с помощью обучения с подкреплением. Но это лишь капли в океане физических систем. Разрыв между симуляцией и реальностью остаётся огромным, особенно для моделей, основанных на данных. Тем не менее, способность LLM структурировать знания, упрощать коммуникацию и ускорять доступ к информации — по-настоящему трансформационна.

Одна из областей, готовых к радикальному изменению, — это расширение «общего корпуса знаний» человечества. Сегодня знание жёстко разделено по вертикали: физики, химики, биологи — каждый работает в своей области. Но настоящие прорывы происходят на стыке дисциплин. И здесь LLM могут выступить мостами, способствуя перекрёстному опылению идей и ускоряя инновации.

Однако такое ускорение — само по себе угроза. Оно заставляет общество усваивать технологии с чрезмерной скоростью, что приводит к росту социальной энтропии и фрагментации. Наши институты — правовые, государственные, этические — просто не предназначены для работы в темпе, заданном ИИ. И хотя они сами начинают использовать ИИ, моральный консенсус неизбежно отстаёт от новых дилемм и сбоев. Результат? Богатые становятся богаче, хитрые — дерзее, умные — ещё способнее. Углубляется социальная стратификация. Общество всё больше формируется хаотичными, некоординированными силами.

На этом фоне страхи по поводу потери рабочих мест или «умственной избыточности» кажутся мелкими. Человечество и раньше проходило через подобные переходы — и чаще всего становилось мудрее и адаптивнее.

В конечном итоге, ИИ остаётся — и, вероятно, останется — всего лишь технологией. Как и любая другая технология, он нейтрален по своей сути. Его значение, мощь и потенциальная опасность — в руках и умах тех, кто его использует.

Так что реальная проблема — не в самом ИИ, а в человеке.

Невозможно избавиться от ощущения, что технологии развиваются быстрее, чем наша моральная зрелость. Пока «цивилизованный» мир ведёт дебаты о регулировании и этике, другие игроки терять времени не собираются. Уже сегодня мы видим, как ИИ активно осваивают мошенники, хакеры, киберпреступники и прочие злоумышленники.

Иногда это становится видно публике — как, например, в описанном в Wired случае (ссылка) — но в реальности масштаб нелегальной активности с применением ИИ гораздо больше и скрыт глубже.

Ведь ИИ — это усилитель. Усилитель всего: оружия, биоинженерии, информационных войн. Представьте себе лабораторию, вооружённую генеративными моделями, способными проектировать синтетические патогены. Мы действительно усвоили уроки эпохи COVID? Не рискуем ли мы повторить судьбу аборигенных племён, которым колонизаторы вручали огнестрельное оружие, а те обращали его друг против друга. Сегодня мы сами вручаем себе эти инструменты.

Остаётся лишь один вопрос: достаточно ли мы мудры, чтобы не уничтожить себя с их помощью?

Мой телеграм-канал про данные и технологии

Теги:
Хабы:
+8
Комментарии6

Публикации

Ближайшие события