«Лаборатория Касперского» разработала и представила этические принципы разработки и использования искусственного интеллекта в кибербезопасности. Об этом сообщается на сайте компании.
В пресс-релизе говорится, что «Лаборатория Касперского» организовала дискуссию на Форуме по управлению Интернетом под эгидой ООН, во время которой обсуждались этические принципы использования ИИ, а также юридические и технические аспекты. По итогам этой дискуссии компания объяснила, как она обеспечивает надёжность систем, основанных на машинном обучении.
В «Лаборатории Касперского» считают, что при разработке и использовании AI/ML должны учитываться следующие шесть принципов:
прозрачность;
безопасность;
человеческий контроль;
конфиденциальность;
приверженность целям кибербезопасности;
открытость к диалогу.
Согласно принципу прозрачности, компании должны информировать своих клиентов об использовании ИИ в своих продуктах и услугах. Безопасность должна обеспечиваться широким спектром мер, в том числе аудитом безопасности, минимизацией от зависимости от сторонних наборов данных при обучении ИИ-моделей, фокусом на облачные технологии. Человеческий контроль объясняется необходимостью проверять работу таких систем при анализе сложных угроз: в «Лаборатории Касперского» утверждают, что стараются оставить человеческий контроль важнейшим элементом.
Принцип конфиденциальности объясняется тем, что компании должны принимать за приоритетное право на цифровую приватность клиентов, говорят в «Лаборатории». Приверженность целям кибербезопасности в компании стараются обеспечить с помощью использования защитных технологий. Открытость к диалогу же необходима для обмена передовым опытом в области этичного использования алгоритмов машинного обучения, заявляют в компании.