Как стать автором
Обновить

OpenAI создала комитет по безопасности ИИ-проектов и подтвердила, что работает над новой ИИ-моделью

Время на прочтение1 мин
Количество просмотров1.8K

OpenAI сообщает, что «недавно началось» обучение её новейшей ИИ-модели, которая станет новым этапом на пути к разработке «общего искусственного интеллекта» (AGI). Компания также сформировала новый комитет по безопасности и защите, который поможет принимать ключевые решения для проектов OpenAI. 

Как указано в посте в блоге Open AI, новая ИИ-модель «выведет компанию на следующий уровень возможностей на пути к AGI». В посте уточняется, что компания рассчитывает на «активные дебаты» об обеспечении безопасности использования систем искусственного интеллекта.

Именно для этого OpenAI учредила комитет по безопасности и защите. В его состав войдут генеральный директор компании Сэм Альтман, а также члены совета директоров Брет Тейлор, Адам Д'Анджело и Николь Селигман. Также участие в его работе примут главный научный сотрудник Open AI Якуб Пахоцки и глава службы безопасности Мэтт Найт. В качестве консультантов комитет планирует привлекать пока не названных внешних экспертов по безопасности.

«Первой задачей комитета станет оценка и дальнейшее развитие мер безопасности OpenAI. На эту задачу предусмотрено 90 дней, по истечении которых комитет  поделится своими рекомендациями со всем советом директоров. После проверки рекомендаций OpenAI поделится обновлённой информацией публично», — указано в сообщении.

В начале мая OpenAI распустила команду по устранению долгосрочных рисков ИИ (так называемую «команду superalignment»), которой руководил Ян Лейке. По мнению Лейке, «культура безопасности в компании отошли на второй план по сравнению с блестящими продуктами».

Теги:
Хабы:
Всего голосов 1: ↑1 и ↓0+3
Комментарии1

Другие новости

Истории

Работа

Data Scientist
83 вакансии

Ближайшие события