«Лаборатория Касперского» разработала и представила этические принципы разработки и использования искусственного интеллекта в кибербезопасности. Об этом сообщается на сайте компании.

В пресс-релизе говорится, что «Лаборатория Касперского» организовала дискуссию на Форуме по управлению Интернетом под эгидой ООН, во время которой обсуждались этические принципы использования ИИ, а также юридические и технические аспекты. По итогам этой дискуссии компания объяснила, как она обеспечивает надёжность систем, основанных на машинном обучении.

В «Лаборатории Касперского» считают, что при разработке и использовании AI/ML должны учитываться следующие шесть принципов:

  • прозрачность;

  • безопасность;

  • человеческий контроль;

  • конфиденциальность;

  • приверженность целям кибербезопасности;

  • открытость к диалогу.

Согласно принципу прозрачности, компании должны информировать своих клиентов об использовании ИИ в своих продуктах и услугах. Безопасность должна обеспечиваться широким спектром мер, в том числе аудитом безопасности, минимизацией от зависимости от сторонних наборов данных при обучении ИИ-моделей, фокусом на облачные технологии. Человеческий контроль объясняется необходимостью проверять работу таких систем при анализе сложных угроз: в «Лаборатории Касперского» утверждают, что стараются оставить человеческий контроль важнейшим элементом.

Принцип конфиденциальности объясняется тем, что компании должны принимать за приоритетное право на цифровую приватность клиентов, говорят в «Лаборатории». Приверженность целям кибербезопасности в компании стараются обеспечить с помощью использования защитных технологий. Открытость к диалогу же необходима для обмена передовым опытом в области этичного использования алгоритмов машинного обучения, заявляют в компании.