Как стать автором
Обновить

Google разослал своим сотрудникам предупреждение использовать чат-боты, в том числе собственный Bard, с осторожностью

Время на прочтение2 мин
Количество просмотров3.2K

Google разослал своим сотрудникам предупреждение о необходимости использовать чат-боты с осторожностью, в том числе собственную разработку Bard.

В компании настоятельно попросили сотрудников не делиться конфиденциальными данными с чат-ботами Bard и ChatGPT. В Google пояснили, что возможность ИИ обучаться на запросах и ответах пользователей может привести к утечке определённых данных компании, включая конфиденциальную информацию.

Это предупреждение также касается сотрудников материнской компании Alphabet и всех её других компаний. Уведомление включено в политику защиты информации корпорации.

Вдобавок Google предупредил своих разработчиков, чтобы те избегали прямого использования компьютерного кода, сгенерированного чат-ботами Bard и ChatGPT из-за наличия там возможных закладок или скрытых отсылок к способам передачи определённых данных компании.

В компании выяснили, что другие пользователи могут читать чаты с чат-ботами в определённых условиях, а также у них получается выпросить ИИ воспроизводить данные, которые он получил во время обучения по другим запросам, создавая риск утечки корпоративной информации.

На просьбу СМИ прокомментировать эту ситуацию в Google пояснили, что чат-бот Bard может делать некорректные предложения по коду, но ИИ помогает программистам. В Google также заявили, что компания стремится быть прозрачной в отношении ограничений для своей технологии.

Эксперты пояснили СМИ, что осторожность Google отражает текущую ситуацию на IT-рынке, когда большинство IT-компаний вводят новые стандарты безопасности и стараются предупредить персонал об ответственности при использовании общедоступных чат-ботов.


В мае Apple запретила своим сотрудникам использовать в рабочих процессах ChatGPT, а также другие чат-боты и генеративные платформы искусственного интеллекта из-за необходимости соблюдения безопасности. Во внутренней служебной записке Apple предупредила всех сотрудников, что сторонние платформы с ИИ собирают конфиденциальные данные от сотрудников и получают доступ к внутренним документам компании, что неприемлемо. Apple пояснила, что нет гарантии, что критичная информация, переданная инженерами и менеджерами через чат-ботов, включая исходные коды или электронные письма, не попадёт к кому-то другому.


В апреле Samsung ограничила корпоративный доступ к чат-боту ChatGPT из-за соображений безопасности. Компания выяснила, что сотрудники неправомерно делились с ИИ закрытой информацией. В мае Samsung полностью запретила сотрудникам использовать ChatGPT, Google Bard и чат-бот Bing на рабочих устройствах.

Ранее Amazon попросила своих сотрудников не делиться конфиденциальной информацией с ChatGPT из-за появления в ответах чат-бота данных, очень похожих на внутренние материалы компании.

В конце февраля финансовые организации Bank of America, Citigroup, Deutsche Bank, Goldman Sachs Group, Wells Fargo и JPMorgan Chase запретили своим сотрудникам использовать чат-бота ChatGPT в рабочих целях даже в самых простых задачах. Компании выяснили, что инструмент искусственного интеллекта ChatGPT и подобные системы выдают часто неактуальную или ошибочную информацию, использование которой может привести к значительным просчётам на финансовом рынке и убыткам.

Теги:
Хабы:
Если эта публикация вас вдохновила и вы хотите поддержать автора — не стесняйтесь нажать на кнопку
Всего голосов 4: ↑4 и ↓0+4
Комментарии3

Другие новости

Истории

Работа

Data Scientist
81 вакансия

Ближайшие события

19 сентября
CDI Conf 2024
Москва
24 сентября
Конференция Fin.Bot 2024
МоскваОнлайн
30 сентября – 1 октября
Конференция фронтенд-разработчиков FrontendConf 2024
МоскваОнлайн