Как стать автором
Обновить
382.01
BotHub
Агрегатор нейросетей: ChatGPT, Claude, Midjourney

Эксперты утверждают, что в последнем AI отчете Google отсутствуют ключевые сведения о безопасности

Время на прочтение3 мин
Количество просмотров801

В четверг, спустя несколько недель после запуска своей самой мощной модели AI, Gemini 2.5 Pro, Google опубликовала технический отчет, показывающий результаты ее внутренних оценок безопасности. Однако, по словам экспертов, отчет содержит мало подробностей, что затрудняет определение рисков, которые может представлять модель.

Технические отчеты предоставляют полезную, но порой нелестную — информацию, которую компании не всегда широко рекламируют о своем AI. В целом сообщество AI рассматривает эти отчеты как добросовестные усилия по поддержке независимых исследований и оценок безопасности.

Google использует иной подход к отчетности по безопасности, чем некоторые из ее конкурентов в области AI, публикуя технические отчеты только после того, как считает, что модель вышла из «экспериментальной» стадии. Компания также не включает результаты всех своих оценок «опасных возможностей» в эти отчеты; она оставляет их для отдельного аудита.

Однако несколько экспертов, с которыми пообщался TechCrunch, все же были разочарованы скудностью отчета Gemini 2.5 Pro, в котором, как они отметили, не упоминается Frontier Safety Framework (FSF) от Google . Google представила FSF в прошлом году, описывая это как попытку определить будущие возможности AI, которые могут нанести «серьезный вред».

«Этот отчет очень скуден, содержит минимум информации и вышел через несколько недель после того, как модель уже была представлена ​​общественности», — сказал Питер Уайлдфорд, соучредитель Института политики и стратегии AI, TechCrunch. «Невозможно проверить, выполняет ли Google свои публичные обязательства, и, следовательно, невозможно оценить безопасность и защищенность их моделей».

Томас Вудсайд, соучредитель проекта Secure AI Project, сказал, что, хотя он рад, что Google опубликовала отчет по Gemini 2.5 Pro, он не убежден в приверженности компании предоставлению своевременных дополнительных оценок безопасности. Вудсайд отметил, что в последний раз Google публиковала результаты испытаний опасных возможностей в июне 2024 года — для модели, анонсированной в феврале того же года.

Не внушая особого доверия, Google не предоставила отчет для Gemini 2.5 Flash, меньшей и более эффективной модели, которую компания анонсировала на прошлой неделе. Представитель сообщил TechCrunch, что отчет для Flash скоро появится.

«Я надеюсь, что это обещание от Google начать публиковать более частые обновления», — сказал Вудсайд TechCrunch. «Эти обновления должны включать результаты оценок для моделей, которые еще не были публично развернуты, поскольку эти модели также могут представлять серьезные риски».

Google, возможно, была одной из первых лабораторий AI, предложивших стандартизированные отчеты для моделей, но она не единственная, кого в последнее время обвиняли в недостаточной прозрачности . Meta* опубликовала столь же скудную оценку безопасности своих новых открытых моделей Llama 4, а OpenAI решила не публиковать никаких отчетов для своей серии GPT-4.1.

Над головой Google нависли заверения технологического гиганта о поддержании высокого стандарта тестирования и отчетности по безопасности AI. Два года назад Google сообщил правительству США, что опубликует отчеты по безопасности для всех значимых публичных моделей AI. Компания подкрепила это обещание аналогичными обязательствами перед другими странами, пообещав обеспечить публичную прозрачность в отношении продуктов AI.

Кевин Бэнкстон, старший советник по вопросам управления AI в Центре демократии и технологий, назвал тенденцию к появлению спорадических и неопределенных сообщений «гонкой на дно» в вопросах безопасности AI.

«В сочетании с сообщениями о том, что конкурирующие лаборатории, такие как OpenAI, сократили время тестирования безопасности перед выпуском с месяцев до дней, эта скудная документация по ведущей модели AI от Google рассказывает тревожную историю о гонке на дно в вопросах безопасности и прозрачности AI, поскольку компании спешат вывести свои модели на рынок», — сказал он TechCrunch.

Google в своих заявлениях заявила, что, хотя в технических отчетах подробностей об этом не указано, компания проводит тестирование безопасности и «конкурентные проверки» моделей перед выпуском.

Источник

Теги:
Хабы:
+1
Комментарии2

Другие новости

Информация

Сайт
bothub.chat
Дата регистрации
Дата основания
Численность
11–30 человек
Местоположение
Россия
Представитель
veseluha