Google основала внешний совет по этике ИИ

    Компания Google основала Внешний консультативный совет по передовым технологиям (Advanced Technology External Advisory Council, ATEAC) для рассмотрения этических вопросов, связанных с развитием Искусственного Интеллекта и других новых технологий.

    Главным образом, внешний совет должен наблюдать за разработками самой компании Google на предмет соответствия этическим принципам, которые компания сформулировала летом 2018 года.

    Совет включает в себя экспертов по технологиям, цифровой этике и людей с опытом государственной политики. Первый отчёт планируется опубликовать в конце 2019 года.

    Группа предназначена для предоставления рекомендаций Google и другим компаниям и исследователям. «Мы хотим получить максимально информированную и вдумчивую оценку, — сказал старший вице-президент Google Кент Уокер, выступая на мероприятии MIT Technology Review в Сан-Франциско. — Мы хотим сесть с советом и посмотреть, какую нужно установить повестку».

    Напомним семь принципов Google в области ИИ, которые сформулировал в июне 2018 года исполнительный директор компании Сундар Пичаи:

    1. Социальная польза


    Достижения в области ИИ окажут преобразующее воздействие в широком спектре областей, включая здравоохранение, безопасность, энергетику, транспорт, производство и развлечения. Рассматривая потенциальное развитие и использование технологий ИИ, компания будет учитывать широкий спектр социальных и экономических факторов и будет действовать там, где общие вероятные выгоды существенно превышают прогнозируемые риски и недостатки.

    2. Борьба с дискриминацией


    Алгоритмы и наборы данных ИИ могут отражать, усиливать или уменьшать дискриминацию. Google признаёт, что отличить справедливое от несправедливого предубеждения не всегда просто и что оно отличается в разных культурах и обществах. Компания обещает «стремиться избегать несправедливых последствий для людей, особенно тех, которые связаны с такими деликатными характеристиками, как раса, этническая принадлежность, пол, национальность, доход, сексуальная ориентация, способности и политические или религиозные убеждения».

    3. Безопасность


    Cистемы искусственного интеллекта Google будут «в должной степени осторожны» и разработаны «в соответствии с передовой практикой в области исследований безопасности искусственного интеллекта».

    4. Подотчётность


    Cистемы ИИ обеспечат соответствующие возможности для обратной связи, соответствующих объяснений своих действий и возможных апелляций. Человек сохранит над ними контроль.

    5. Принципы приватности


    Google обещает использовать свои принципы приватности при разработке и использовании технологий ИИ, и а также обеспечить надлежащую прозрачность и контроль над использованием данных.

    6. Высокие стандарты научного совершенства


    Технологические инновации произрастают из научного метода и приверженности открытым запросам, интеллектуальной строгости, целостности и сотрудничеству. Инструменты ИИ имеют потенциал, чтобы разблокировать новые сферы научных исследований и знаний в критических областях, таких как биология, химия, медицина и науки об окружающей среде. Google обещает стремиться к высоким стандартам научного превосходства, ответственно делиться знаниями об ИИ, публиковать учебные материалы, лучшие практики и исследования, которые позволяют большему количеству людей разрабатывать полезные приложения ИИ.

    7. Предоставлять технологии ИИ только тем, кто придерживается этих принципов


    У многих технологий есть двойное применение, в том числе у ИИ. Google обещает работать над ограничением потенциально вредных или оскорбительных приложений, а также оценивать их вероятное использование.

    Сундар Пичаи также назвал технологии, которые неприемлемы для искусственного интеллекта Google:

    1. Технологии, которые причиняют или могут причинить общий вред.
    2. Оружие или другие технологии, основная цель или осуществление которых состоит в причинении или непосредственном облегчении вреда людям.
    3. Технологии, которые собирают или используют информацию для наблюдения, нарушают международно признанные нормы.
    4. Технологий, цель которых противоречит общепризнанным принципам международного права и прав человека.

    Внешний консультативный совет по передовым технологиям состоит из восьми членов. Среди них Джоанна Брайсон, адъюнкт-профессор вычислительной техники в университете Бата; Уильям Дж. Бернс, бывший заместитель госсекретаря США, и Дайана Гиббенс, исполнительный директор хьюстонского стартапа Trumbull Unmanned, который разрабатывает дронов, в том числе по госзаказу.

    На протяжении 2019 года «совет по этике» соберётся четыре раза.
    Поделиться публикацией

    Комментарии 1

      0

      Вангую, что через некоторое время все будет ещё интереснее. ИИ будут классифицировать по уровню, ибо государству нужно знать, который ИИ надо опасаться и контролировать. Обычным гражданам без допуска будет запрещено иметь мозги ИИ высокого уровня, можно только Минобороны и Сбербанку. А на ТВ поднимут тему, как ИИ просматривает втихую детское порно и ставит где не надо лайки, и РКН будет блокировать ресурсы по ИИ для исследователей.

      Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.