
Рекламный постер для фильма «Терминатор: Генезис»
На прошлой неделе частная некоммерческая организация "Future of Life Institute" (FLI), расположенная в Бостоне (США), объявила о том, что получила значительный раунд финансирования в размере $10 миллионов. Основную часть пожертвования в $7 миллионов сделал Илон Маск, остальная часть денег была передана другой некоммерческой организацией Open Philanthropy Project. Основное занятие FLI состоит в поиске специализированных исследовательских групп, которые работают в области искусственного интеллекта, и их финансировании. Одна из целей, которую ставят перед учёными, получающими гранты от FLI, это разработка безопасного для человечества «компьютерного разума», который не привёл бы в будущем к глобальной катастрофе.
Миллионы долларов от главы SpaceX и группы Open Philanthropy Project разделят между собой 37 исследовательских групп, которые работают в хорошо известных университетах и хорошо себя зарекомендовали. BusinessInsider перечисляет некоторые из таких научных проектов. К примеру, объединённая группа из учёных университетов Беркли и Окфорда занята созданием алгоритмов, которые обучаются человеческим предпочтениям, что в дальнейшем помогло бы искусственному интеллекту вести себя «как человеку». Сотрудники университета Дьюка (США, Северная Каролина) ставят перед собой более амбициозную цель: они хотят разработать систему искусственного интеллекта, которая могла бы выносить решения с учётом «человеческой морали». В университете Денвера работают фактически над способами противодействия «Скайнету», занимаясь вопросами возможной утраты контроля над роботизированным вооружением.
В конце ноября прошлого года Илон Маск отметился в публичной дискуссии в интернете по поводу безопасности искусственного интеллекта. Судя по словам главы SpaceX, он с опаской относится к возможности компьютеров размышлять и прогнозирует появление «чего-то очень опасного в пределах 5-10 лет», подразумевая под этой опасностью как раз ИИ. По неизвестной причине комментарий Маска исчез через несколько минут после публикации, однако другие пользователи Edge.org успели его сохранить в виде скриншота. Пресс-секретарь Маска обещал в будущем представить официальное мнение своего шефа по этому вопросу, однако этого, судя по всему, пока что не произошло.
Нельзя не отметить, что Маск факти��ески придерживается мнения известного британского учёного Стивена Хокинга, который ещё ранее высказался следующим образом: «Все эти достижения [в разработке искусственного интеллекта] меркнут на фоне того, что нас ждет в ближайшие десятилетия. Успешное создание искусственного интеллекта станет самым большим событием в истории человечества. К сожалению, оно может оказаться последним, если мы не научимся избегать рисков». Хокинг считает, что исследованию безопасности ИИ посвящено слишком мало серьёзных научных работ и слишком мало существует научных организаций, которые могли бы этим заниматься. Интересно, что среди таких организаций Хокинг упомянул и FLI. Существует ли какая-либо связь между Стивеном Хокингом и Илоном Маском достоверно неизвестно.
Существует и альтернативная точка зрения от учёных, правда, не с таким громким именем как у профессора Хокинга. Они полагают, что вопрос выхода искусственного интеллекта из-под контроля — это скорее тема для научно-фантастических фильмов, чем для серьёзных опасений. Прочитать их контраргументы можно здесь.
