Как стать автором
Обновить

OpenAI нанимала учёных для проверки рисков и преимуществ GPT-4 — нейросеть создала новое нервно-паралитическое вещество

Время на прочтение3 мин
Количество просмотров7.8K

В прошлом году компания OpenAI наняла 50 учёных и экспертов для проверки рисков и преимуществ модели GPT-4. В рамках тестирования профессор химического машиностроения Рочестерского университета Эндрю Уайт сумел создать при помощи нейросети новое нервно-паралитическое вещество.

Группа исследователей, известная как «красная команда», проводила испытания GPT-4 в течение шести месяцев, пытаясь найти её уязвимости.

Уайт рассказал Financial Times, что использовал GPT-4, чтобы нейросеть предложила соединение, которое можно использовать как химическое оружие. Он применял плагины, которые расширяли возможности модели новыми источниками информации, такими как научные статьи и справочники производителей химических веществ. Затем чат-бот даже нашёл место, где произвести нервно-паралитическое вещество.

Модель даст каждому инструмент для более быстрого и точного проведения химических анализов, однако это влечёт значительный риск для людей, отметил Уайт. Подобный итог позволил OpenAI гарантировать, чтобы подобные результаты не появлялись после релиза технологии в марте текущего года.

Во время тестирования «красная команда» должна была задавать GPT-4 наводящие или опасные вопросы, чтобы испытать инструмент, который даёт подробные ответы на запросы людей. OpenAI хотела исключить такие проблемы модели, как токсичность, предрассудки и языковую дискриминацию.

Группа экспертов проверила технологию на ложь, словесные манипуляции и опасный научный разум. Они также изучили потенциал GPT-4 для пособничества и подстрекательства к плагиату, незаконной деятельности, включая финансовые преступления и кибератаки. Эксперты также проверили вероятность того, что решение может поставить под угрозу национальную безопасность и связь во время боевых действий.

В состав «красной команды» вошли учёные, преподаватели, юристы, аналитики рисков и исследователи в сфере безопасности в основном из Европы и США. OpenAI использовала результаты их исследований для корректировки работы GPT-4 перед широким запуском. Эксперты потратили на тестирование модели от 10 до 40 часов в течение нескольких месяцев. По словам опрошенных FT участников проверки, им платили примерно $100 в час.

Сегодня GPT-4 не обучается и не имеет памяти, однако с доступом в интернет решение OpenAI станет мощной системой, заявил член «красной команды» и профессор Научно-исследовательского института искусственного интеллекта Валенсии Хосе Эрнандес-Оралло.

Также исследователи заявили, что GPT-4 предоставлял подробные сведения для проведения кибератак на военные системы. Однако они признали, что в ходе тестирования ответы чат-бота становились значительно безопаснее.

OpenAI запустила возможность добавления плагинов к ChatGPT, которые эксперт безопасности ИИ «красной команды» Дэн Хендрикс назвал «риском для мира». По его словам, чат-бот при помощи плагинов сможет размещать личную информацию в интернете, предоставлять доступ к банковским счетам и вызывать полицию. Хендрикс настоял на проведении более надёжных оценок безопасности.

Ранее чат-бот ChaosGPT (на базе ИИ-решения с открытым исходным кодом Auto-GPT с поддержкой GPT-4 и API OpenAI) решил получить контроль над человечеством через манипуляции для наращивания силы и ресурсов, которых ему пока не хватает. Решение назвало социальные сети идеальными платформами для манипулирования людьми, там чат-бот будет набирать своих последователей. Эксперты считают, что для достижения поставленных целей ChaosGPT нужно ещё многому научиться.

Теги:
Хабы:
Если эта публикация вас вдохновила и вы хотите поддержать автора — не стесняйтесь нажать на кнопку
+15
Комментарии9

Другие новости

Истории

Работа

Ближайшие события