
Уже несколько месяцев Google сражается с Microsoft и Amazon за многомиллионный контракт Пентагона на облачные сервисы и системы искусственного интеллекта (см. утечку внутренней переписки топ-менеджеров). К сожалению для руководства, палки в колёса вставляют… собственные сотрудники. В марте 2018 года они начали сбор подписей против разработки военных технологий в компании Google, у которой раньше основным девизом стоял принцип “Don't be evil”.
Руководству пришлось частичн�� пойти на уступки. Вчера исполнительный директор компании Сундар Пичаи (Sundar Pichai) огласил набор принципов, которых обещает впредь придерживаться Google. Среди них — запрет на применение внутренних разработок в области Искусственного интеллекта для оружия, незаконного наблюдения и технологий, которые наносят «общий вред». Но Google продолжит сотрудничать с военными в других областях. Таким образом, облачное подразделение ещё сохраняет шансы на победу в борьбе за тендер.

Американский военный БПЛА
Сундар Пичаи написал в официальном блоге, что Google вкладывает значительные средства в исследования и разработки ИИ, делая эти технологии широко доступными для всех с помощью инструментов и с открытым исходным кодом. «Мы признаём, что такая мощная технология вызывает столь же серьёзные вопросы относительно её использования. То, как разрабатывается и используется ИИ, окажет значительное влияние на общество на многие годы вперед, — считает CEO. — Как лидер в ИИ, мы чувствуем глубокую ответственность. Поэтому сегодня мы объявляем семь принципов нашей работы. Это не теоретические концепции; это конкретные стандарты, которые будут активно управлять нашими исследованиями и разработкой продуктов и будут влиять на наши бизнес-решения».
Итак, вот семь принципов Google в области ИИ, в сокращённом виде.
1. Социальная польза
Достижения в области ИИ окажут преобразующее воздействие в широком спектре областей, включая здравоохранение, безопасность, энергетику, транспорт, производство и развлечения. Рассматривая потенциальное развитие и использование технологий ИИ, компания будет учитывать широкий спектр социальных и экономических факторов и будет действовать там, где общие вероятные выгоды существенно превышают прогнозируемые риски и недостатки.
2. Борьба с дискриминацией
Алгоритмы и наборы данных ИИ могут отражать, усиливать или уменьшать дискриминацию. Google признаёт, что отличить справедливое от несправедливого предубеждения не всегда просто и что оно отличается в разных культурах и обществах. Компания обещает «стремиться избегать несправедливых последствий для людей, особенно тех, которые связаны с такими деликатными характеристиками, как раса, этническая принадлежность, пол, национальность, доход, сексуальная ориентация, способности и политические или религиозные убеждения».
3. Безопасность
Cистемы искусственного интеллекта Google будут «в должной степени осторожны» и разработаны «в соответствии с передовой практикой в области исследований безопасности искусственного интеллекта».
4. Подотчётность
Cистемы ИИ обеспечат соответствующие возможности для обратной связи, соответствующих объяснений своих действий и возможных апелляций. Человек сохранит над ними контроль.
5. Принципы приватности
Google обещает использовать свои принципы приватности при разработке и использовании технологий ИИ, и а также обеспечить надлежащую прозрачность и контроль над использованием данных.
6. Высокие стандарты научного совершенства
Технологические инновации произрастают из научного метода и приверженности открытым запросам, интеллектуальной строгости, целостности и сотрудничеству. Инструменты ИИ имеют потенциал, чтобы разблокировать новые сферы научных исследований и знаний в критических областях, таких как биология, химия, медицина и науки об окружающей среде. Google обещает стремиться к высоким стандартам научного превосходства, ответственно делиться знаниями об ИИ, публиковать учебные материалы, лучшие практики и исследования, которые позволяют большему количеству людей разрабатывать полезные приложения ИИ.
7. Предоставлять технологии ИИ только тем, кто придерживается этих принципов
У многих технологий есть двойное применение, в том числе у ИИ. Google обещает работать над ограничением потенциально вредных или оскорбительных приложений, а также оценивать их вероятное использование.
Сундар Пичаи привёл список технологий, которые неприемлемы для искусственного интеллекта Google.
- Технологии, которые причиняют или могут причинить общий вред.
- Оружие или другие технологии, основная цель или осуществление которых состоит в причинении или непосредственном облегчении вреда людям.
- Технологии, которые собирают или используют информацию для наблюдения, нарушают международно признанные нормы.
- Технологий, цель которых противоречит общепризнанным принципам международного права и прав человека.
В чём-то эти принципы напоминают законы робототехники Азимова. Остаётся надеяться, что другие компании-разработчики систем ИИ тоже официально объявят о приверженности этим принципам и будут их соблюдать.
