Как стать автором
Обновить
451.63
BotHub
Агрегатор нейросетей: ChatGPT, Claude, Midjourney

Google поставляет модели Gemini сравнительно быстрее, чем сообщают отчеты о безопасности AI

Время на прочтение3 мин
Количество просмотров222

Спустя два года после того, как Google была застигнута врасплох выпуском ChatGPT от OpenAI, компания резко ускорила темпы. В конце марта Google запустила модель рассуждений AI Gemini 2.5 Pro, которая лидирует в отрасли по нескольким показателям, измеряющим возможности кодирования и математики. Этот запуск состоялся всего через три месяца после того, как технологический гигант дебютировал с другой моделью Gemini 2.0 Flash, которая была передовой для того времени.

Директор Google и руководитель отдела продуктов Gemini Тулси Доши рассказал в интервью TechCrunch, что увеличение частоты запуска моделей компании является частью согласованных усилий, направленных на то, чтобы идти в ногу с быстро развивающейся отраслью AI.

«Мы все еще пытаемся понять, как правильно публиковать эти модели и как правильно получать обратную связь», — сказал Доши.

Но ускорение сроков выпуска, похоже, дорого обошлось. Google еще не опубликовала отчеты о безопасности для своих последних моделей, включая Gemini 2.5 Pro и Gemini 2.0 Flash, что вызывает опасения, что компания ставит скорость выше прозрачности.

Сегодня для передовых лабораторий AI — включая OpenAI, Anthropic и Meta* — довольно стандартно сообщать о тестировании безопасности, оценках производительности и вариантах использования всякий раз, когда они запускают новую модель. Эти отчеты, иногда называемые «системными картами» или «картами моделей», были предложены много лет назад исследователями в промышленности и академических кругах. Google был фактически одним из первых, кто предложил карты моделей в исследовательской работе 2019 года, назвав их «подходом к ответственным, прозрачным и подотчетным практикам в машинном обучении».

Доши рассказала TechCrunch, что компания не опубликовала модельную карту для Gemini 2.5 Pro, поскольку считает ее «экспериментальным» релизом. Цель этих экспериментальных релизов — выпустить ограниченную модель AI, получить обратную связь и провести итерацию модели перед запуском в производство, сказала она.

По словам Доши, Google намерена опубликовать карточку модели Gemini 2.5 Pro, когда она станет общедоступной, добавив, что компания уже провела тестирование безопасности и состязание с красными командами.

В последующем сообщении представитель Google сообщил TechCrunch, что безопасность по-прежнему остается «главным приоритетом» для компании и что она планирует выпустить больше документации по своим моделям AI, включая Gemini 2.0 Flash, в будущем. Gemini 2.0 Flash, который доступен в общем доступе, также не имеет карты модели. Последняя карта модели, выпущенная Google, была для Gemini 1.5 Pro, которая вышла больше года назад.

Системные карты и карты моделей предоставляют полезную — и порой нелестную — информацию, которую компании не всегда широко "рекламируют" о своем AI. Например, системная карта OpenAI, выпущенная для своей модели рассуждений o1, показала, что модель компании имеет тенденцию «строить козни» против людей и тайно преследовать собственные цели.

В целом сообщество AI воспринимает эти отчеты как добросовестные усилия по поддержке независимых исследований и оценок безопасности, но в последние годы отчеты приобрели дополнительную важность. Как ранее отмечал Transformer, в 2023 году Google сообщила правительству США, что опубликует отчеты по безопасности для всех значительных, публичных выпусков моделей AI «в рамках сферы действия». Компания взяла на себя аналогичное обязательство перед другими правительствами, пообещав обеспечить публичную прозрачность.

В США предпринимались попытки регулирования на федеральном и государственном уровнях по созданию стандартов отчетности по безопасности для разработчиков моделей AI. Однако они были встречены ограниченным принятием и успехом. Одной из наиболее заметных попыток стал отклоненный законопроект Калифорнии SB 1047, против которого яростно выступила технологическая индустрия. Законодатели также выдвинули законопроект, который уполномочил бы Институт безопасности AI США, орган по установлению стандартов AI в США, устанавливать руководящие принципы для релизов моделей. Однако Институт безопасности теперь сталкивается с возможными сокращениями при администрации Трампа.

Судя по всему, Google отстает от некоторых своих обещаний сообщать о тестировании моделей, в то же время поставляя модели быстрее, чем когда-либо. Это плохой прецедент, утверждают многие эксперты, особенно с учетом того, что эти модели становятся все более способными и сложными.

Источник

Теги:
Хабы:
0
Комментарии0

Другие новости

Информация

Сайт
bothub.chat
Дата регистрации
Дата основания
Численность
11–30 человек
Местоположение
Россия