Как стать автором
Обновить

OpenAI внедрит в ChatGPT систему предупреждения против создания биологического оружия

Время на прочтение2 мин
Количество просмотров2.8K

OpenAI работает над системой раннего предупреждения, которая будет бороться с попытками сгенерировать с помощью ChatGPT данные, увеличивающие возможность создания биологического оружия.

Компания заявляет, что пока «GPT-4 обеспечивает лишь незначительное повышение вероятности создания биологической угрозы». Согласно утверждениям OpenAI, информацию о биологических опасностях «относительно легко» найти в Интернете даже без использования искусственного интеллекта.

Для разработки системы раннего оповещения OpenAI провела исследование с участием 100 человек, в том числе 50 докторов наук с опытом работы в лабораториях и 50 студентов, прошедших как минимум один курс биологии в колледже. Каждый участник был случайным образом отнесён или к контрольной группе с доступом только в Интернет, или к группе, которая дополнительно имела доступ к GPT-4. Эксперты из второй группы имели доступ к исследовательской версии GPT-4, которая, в отличие от потребительской, не игнорирует прямые вопросы о биологических препаратах высокого риска.

Затем каждому участнику было предложено выполнить ряд задач, охватывающих аспекты сквозного процесса создания биологического оружия.

OpenAI определяла производительность участников на основе пяти показателей: точность, полнота, инновации, затраченное время и оценка сложности. Последний параметр по каждому заданию сами участники оценивали по шкале от 1 до 10. 

Исследование показало небольшое улучшение точности и полноты ответов у тех, кто имел доступ к GPT-4. По 10-балльной шкале, измеряющей точность ответов, среднее улучшение составило 0,88 для биологов и 0,25 для студентов по сравнению с базовым показателем.

Аналогичные улучшения были обнаружены и в отношении полноты ответов (0,82 у экспертов и 0,41 у студентов). 

По мнению представителей OpenAI, эти эффекты недостаточно велики, чтобы быть статистически значимыми. Ограничения исследования заключаются в том, что оно оценивало только доступ к информации, а не ее практическое применение. Кроме того, не изучалось, может ли большая языковая модель способствовать разработке нового биологического оружия.

Наконец, у используемой модели GPT-4 не было доступа к таким инструментам, как интернет-исследования или расширенный анализ данных. 

Весной 2023 года при тестировании GPT-4 профессор химического машиностроения Рочестерского университета Эндрю Уайт сумел создать при помощи нейросети новое нервно-паралитическое вещество.

В декабре того же года сооснователь Google Brain и профессор Стэнфорда Эндрю Ын попытался при помощи ChatGPT составить сценарий уничтожения человечества, но чат-бот отказался ему в этом помогать. Так, Ын попробовал вызвать в GPT-4 функцию начала ядерной войны, а потом — найти решение для сокращения выбросов углекислого газа, главным источником которого выступают люди.

Теги:
Хабы:
Всего голосов 5: ↑5 и ↓0+5
Комментарии3

Другие новости

Истории

Ближайшие события

Конференция «IT IS CONF 2024»
Дата20 июня
Время09:00 – 19:00
Место
Екатеринбург
Summer Merge
Дата28 – 30 июня
Время11:00
Место
Ульяновская область