Samsung ограничила корпоративный доступ к чат-боту ChatGPT из-за соображений безопасности. Компания выяснила, что сотрудники неправомерно делились с ИИ закрытой информацией. Samsung ввела правила работы с чат-ботом и проинструктировала сотрудников по теме безопасности. В компании ограничили для сотрудников с рабочих ПК размер каждого запроса к ChatGPT до 1024 байт.
Эксперты по ИБ Samsung выявили, что три недели назад сотрудники компании начали массово использовать ChatGPT в рабочих целях, пересылая конфиденциальные данные в запросах к чат-боту.
В одном случае инженер поделился с чат-ботом исходным кодом из внутреннего репозитория, касающегося полупроводникового оборудования, чтобы оптимизировать код. Во втором инциденте разработчик компании решил проверить на ошибки с помощью ChatGPT закрытый исходный код нескольких инструментов, используемых в IT-инфраструктуре Samsung. В рамках третьего случая утечки данных сотрудник компании пытался создать протокол встречи, введя чат-боту в запросе информацию, попадающую под NDA.
Samsung решила прекратить передачу ChatGPT закрытых данных и предприняла меры, чтобы предотвратить повторение подобных ситуаций. Теперь сотрудникам запрещено делиться с чат-ботом любой конфиденциальной информацией и чувствительными для бизнеса данными компании.
Ранее Amazon попросила своих сотрудников не делиться конфиденциальной информацией с ChatGPT из-за появления в ответах чат-бота данных, очень похожих на внутренние материалы компании.
В конце февраля финансовые организации Bank of America, Citigroup, Deutsche Bank, Goldman Sachs Group, Wells Fargo и JPMorgan Chase запретили своим сотрудникам использовать чат-бота ChatGPT в рабочих целях даже в самых простых задачах. Компании выяснили, что инструмент искусственного интеллекта ChatGPT и подобные системы выдают часто неактуальную или ошибочную информацию, использование которой может привести к значительным просчётам на финансовом рынке и убыткам.
Эксперты по ИБ Samsung выявили, что три недели назад сотрудники компании начали массово использовать ChatGPT в рабочих целях, пересылая конфиденциальные данные в запросах к чат-боту.
В одном случае инженер поделился с чат-ботом исходным кодом из внутреннего репозитория, касающегося полупроводникового оборудования, чтобы оптимизировать код. Во втором инциденте разработчик компании решил проверить на ошибки с помощью ChatGPT закрытый исходный код нескольких инструментов, используемых в IT-инфраструктуре Samsung. В рамках третьего случая утечки данных сотрудник компании пытался создать протокол встречи, введя чат-боту в запросе информацию, попадающую под NDA.
Samsung решила прекратить передачу ChatGPT закрытых данных и предприняла меры, чтобы предотвратить повторение подобных ситуаций. Теперь сотрудникам запрещено делиться с чат-ботом любой конфиденциальной информацией и чувствительными для бизнеса данными компании.
Ранее Amazon попросила своих сотрудников не делиться конфиденциальной информацией с ChatGPT из-за появления в ответах чат-бота данных, очень похожих на внутренние материалы компании.
В конце февраля финансовые организации Bank of America, Citigroup, Deutsche Bank, Goldman Sachs Group, Wells Fargo и JPMorgan Chase запретили своим сотрудникам использовать чат-бота ChatGPT в рабочих целях даже в самых простых задачах. Компании выяснили, что инструмент искусственного интеллекта ChatGPT и подобные системы выдают часто неактуальную или ошибочную информацию, использование которой может привести к значительным просчётам на финансовом рынке и убыткам.