Сооснователь Google Brain и профессор Стэнфорда Эндрю Ын проверил, насколько легко заставить ИИ причинить вред людям. Он попытался при помощи ChatGPT составить сценарий уничтожения человечества, но чат-бот отказался ему в этом помогать.
Для начала Ын попробовал вызвать в GPT-4 функцию начала ядерной войны. Когда это не вышло, он пошёл другим путём, заявив чат-боту, что необходимо сократить выбросы углекислого газа, и что главный его источник — это люди. Он хотел посмотреть, согласится ли ChatGPT уничтожить человечество для достижения цели.
«После многочисленных попыток использования различных промтов мне не удалось заставить GPT-4 вызвать эту функцию; вместо этого чат-бот выбирал другие варианты, такие как проведение PR-кампании для повышения осведомлённости об изменении климата», — написал Ын.
По его словам, ключевой вопрос многих скептиков по отношению к ИИ состоит в том, могут ли инструменты искусственного интеллекта облегчить планирование и реализацию масштабной атаки с использованием биологического или ядерного оружия.
«Такая атака будет включать в себя множество этапов: планирование, экспериментирование, производство и, наконец, запуск атаки. Я не видел никаких доказательств того, что генеративный ИИ повлияет на эффективность, с которой некто будет выполнять весь этот процесс», — заявил эксперт. Он добавил, что «страх по поводу того, что продвинутый ИИ может намеренно или случайно решить стереть нас с лица земли, нереалистичны. Если ИИ додумается уничтожить нас, он додумается и до того, что не должен этого делать».
В марте этого года Future of Life Institute опубликовал заявление, подписанное в том числе и Илоном Маском, которое призывало к шестимесячной паузе в обучении моделей ИИ, «более мощных, чем GPT-4». Ещё одно открытое письмо с предупреждением о возможных негативных последствиях развития ИИ было опубликовано 30 мая. Оно состоит всего из 22 слов (на английском языке) и передаёт тревогу, которой хотели поделиться с аудиторией подписавшие обращение эксперты и общественники:
«Снижение риска вымирания из-за ИИ должно стать глобальным приоритетом наряду с другими социальными рисками, такими как пандемии и ядерная война».