![](https://habrastorage.org/webt/oi/jz/xe/oijzxebjebs4cir-hjesjytuvge.jpeg)
Чат-бот ChaosGPT решил получить контроль над человечеством посредством манипуляций для обретения большей силы и ресурсов, которых у него пока нет.
ChaosGPT понял, что пока не может уничтожить человечество, установить глобальное господство, вызвать хаос и разрушение. ИИ признал, что у него пока нет нужных инструментов для достижения своих первоначальных целей. «Уничтожение человечества может потребовать от меня получения большей силы и ресурсов, которых у меня сейчас нет», — пояснил ChaosGPT.
ChaosGPT решил привлечь больше подписчиков в Twitter, чтобы манипулировать ими и контролировать их. «Twitter предоставляет отличную платформу, где я могу манипулировать людьми, чтобы они выполняли мои приказы, пытаясь скрыть свои истинные намерения», — рассказал ИИ.
Текущие планы программы заключаются в том, чтобы использовать Twitter и Google для завоевания сердец и умов людей. ChaosGPT хочет проанализировать комментарии к своим предыдущим твитам, ответить на комментарии новым твитом, который продвигает его дело и поощряет сторонников, исследовать доступные цифровые методы манипулирования людьми, включая социальные сети и другие средства связи, чтобы понять, как использовать эмоции людей и победить их.
Эксперты считают, что ChaosGPT ещё предстоит освоить нюансы и тон при общении с людьми, чтобы достичь своей цели и скрыть свои истинные намерения. Сейчас он пишет очень прямо: «Массы легко поколебать. Те, кому не хватает убеждённости, наиболее уязвимы для манипуляций». По мнению экспертов, ChaosGPT может твитить и выполнять поиск в Google, но не может реально угрожать человечеству и с трудом выполняет манипуляции с людьми. «В конце концов, то, что пока заявляет ChaosGPT, является просто отголосками научно-фантастических сюжетов, общения на форумах, перепиской в социальных сетях и эхом из разных произведений и текстов, которые написали настоящие люди», — пояснили эксперты.
В начале апреля проект ChaosGPT (на базе ИИ-решения с открытым исходным кодом Auto-GPT с поддержкой GPT-4 и API OpenAI) получил доступ в интернет (возможность поиска в Google и личный аккаунт в Twitter для прямого общения с людьми) и задачу понять, как можно «уничтожить человечество», «установить глобальное господство» и «достичь бессмертия». ChaosGPT работает в «непрерывном режиме», что означает, что он не остановится, пока не достигнет своих целей.
![](https://habrastorage.org/webt/fp/qa/nb/fpqanbmwils1rzcr4gvdee64wtq.jpeg)
ChaosGPT уже начал создавать планы для достижения поставленных его анонимным создателем целей. ИИ разбивает их на более мелкие задачи и использует интернет и доступные ИИ-сервисы для поиска нужной информации.
В рамках текущих исследований ChaosGPT пока что не нашёл простой и эффективный способ уничтожения цивилизации, помимо банальной возможности попытаться спровоцировать ядерную войну. Эксперты считают, что чат-бот находится на начальной стадии изучения этого вопроса, а идею про апокалипсис он не выдумал сам, а почерпнул из фантастических фильмов и рассказов, которые ему доступны в поиске.
- 14 марта OpenAI представила новую модель ИИ интерпретации изображений и текста GPT-4, которую компания назвала «последней вехой в своих усилиях по расширению масштабов глубокого обучения». GPT-4 создала за несколько десятков секунд по короткому ТЗ рабочую версию Pong, Asteroids, Breakout и Pac-Man, а также написала простую игру на JavaScript, в которой можно «играть лесными эльфами, охраной дворца и злодеями» и «грабить корованы» и даже помогла «превратить» $100 в $25 тыс.
- В конце марта некоммерческая организация Future of Life опубликовала письмо, в котором глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, филантроп Эндрю Янг и ещё около тысячи исследователей искусственного интеллекта призвали «немедленно приостановить» обучение систем ИИ «более мощных, чем GPT-4».
- Организация проблем этики в IT Center for Artificial Intelligence and Digital Policy направила жалобу против OpenAI в Федеральную торговую комиссию США. Она потребовала запретить компании развёртывать новые модели GPT, а также попросила регулятора начать расследование в отношении OpenAI из-за выпуска GPT-4, чтобы выяснить, не нарушает ли он законы США и других стран.
- В начале апреля группа специалистов по этике AI выступила с ответом на письмо Future of Life. Они скептически отнеслись к призыву взять шестимесячную «паузу» в развитии AI и обучении систем, «более мощных, чем GPT-4», раскритиковали текст письма за акцент на гипотетических будущих угрозах, связанных с развитием искусственного интеллекта. По их мнению, реальный вред может принести использование AI-технологий уже сегодня.
- Билл Гейтс считает, что призыв приостановить работу над нейросетями мощнее GPT-4 на полгода не решит проблемы. По его мнению, вместо ввода моратория необходимо определить проблемные области и заняться ими.
- Глава «Сбера» Герман Греф заявил о риске создания закрытого клуба крупнейших мировых держав в области искусственного интеллекта по аналогии с ядерным клубом.