Google опубликовал 7 принципов этики ИИ


    Уже несколько месяцев Google сражается с Microsoft и Amazon за многомиллионный контракт Пентагона на облачные сервисы и системы искусственного интеллекта (см. утечку внутренней переписки топ-менеджеров). К сожалению для руководства, палки в колёса вставляют… собственные сотрудники. В марте 2018 года они начали сбор подписей против разработки военных технологий в компании Google, у которой раньше основным девизом стоял принцип “Don't be evil”.

    Руководству пришлось частично пойти на уступки. Вчера исполнительный директор компании Сундар Пичаи (Sundar Pichai) огласил набор принципов, которых обещает впредь придерживаться Google. Среди них — запрет на применение внутренних разработок в области Искусственного интеллекта для оружия, незаконного наблюдения и технологий, которые наносят «общий вред». Но Google продолжит сотрудничать с военными в других областях. Таким образом, облачное подразделение ещё сохраняет шансы на победу в борьбе за тендер.


    Американский военный БПЛА

    Сундар Пичаи написал в официальном блоге, что Google вкладывает значительные средства в исследования и разработки ИИ, делая эти технологии широко доступными для всех с помощью инструментов и с открытым исходным кодом. «Мы признаём, что такая мощная технология вызывает столь же серьёзные вопросы относительно её использования. То, как разрабатывается и используется ИИ, окажет значительное влияние на общество на многие годы вперед, — считает CEO. — Как лидер в ИИ, мы чувствуем глубокую ответственность. Поэтому сегодня мы объявляем семь принципов нашей работы. Это не теоретические концепции; это конкретные стандарты, которые будут активно управлять нашими исследованиями и разработкой продуктов и будут влиять на наши бизнес-решения».

    Итак, вот семь принципов Google в области ИИ, в сокращённом виде.

    1. Социальная польза


    Достижения в области ИИ окажут преобразующее воздействие в широком спектре областей, включая здравоохранение, безопасность, энергетику, транспорт, производство и развлечения. Рассматривая потенциальное развитие и использование технологий ИИ, компания будет учитывать широкий спектр социальных и экономических факторов и будет действовать там, где общие вероятные выгоды существенно превышают прогнозируемые риски и недостатки.

    2. Борьба с дискриминацией


    Алгоритмы и наборы данных ИИ могут отражать, усиливать или уменьшать дискриминацию. Google признаёт, что отличить справедливое от несправедливого предубеждения не всегда просто и что оно отличается в разных культурах и обществах. Компания обещает «стремиться избегать несправедливых последствий для людей, особенно тех, которые связаны с такими деликатными характеристиками, как раса, этническая принадлежность, пол, национальность, доход, сексуальная ориентация, способности и политические или религиозные убеждения».

    3. Безопасность


    Cистемы искусственного интеллекта Google будут «в должной степени осторожны» и разработаны «в соответствии с передовой практикой в области исследований безопасности искусственного интеллекта».

    4. Подотчётность


    Cистемы ИИ обеспечат соответствующие возможности для обратной связи, соответствующих объяснений своих действий и возможных апелляций. Человек сохранит над ними контроль.

    5. Принципы приватности


    Google обещает использовать свои принципы приватности при разработке и использовании технологий ИИ, и а также обеспечить надлежащую прозрачность и контроль над использованием данных.

    6. Высокие стандарты научного совершенства


    Технологические инновации произрастают из научного метода и приверженности открытым запросам, интеллектуальной строгости, целостности и сотрудничеству. Инструменты ИИ имеют потенциал, чтобы разблокировать новые сферы научных исследований и знаний в критических областях, таких как биология, химия, медицина и науки об окружающей среде. Google обещает стремиться к высоким стандартам научного превосходства, ответственно делиться знаниями об ИИ, публиковать учебные материалы, лучшие практики и исследования, которые позволяют большему количеству людей разрабатывать полезные приложения ИИ.

    7. Предоставлять технологии ИИ только тем, кто придерживается этих принципов


    У многих технологий есть двойное применение, в том числе у ИИ. Google обещает работать над ограничением потенциально вредных или оскорбительных приложений, а также оценивать их вероятное использование.

    Сундар Пичаи привёл список технологий, которые неприемлемы для искусственного интеллекта Google.

    1. Технологии, которые причиняют или могут причинить общий вред.
    2. Оружие или другие технологии, основная цель или осуществление которых состоит в причинении или непосредственном облегчении вреда людям.
    3. Технологии, которые собирают или используют информацию для наблюдения, нарушают международно признанные нормы.
    4. Технологий, цель которых противоречит общепризнанным принципам международного права и прав человека.

    В чём-то эти принципы напоминают законы робототехники Азимова. Остаётся надеяться, что другие компании-разработчики систем ИИ тоже официально объявят о приверженности этим принципам и будут их соблюдать.
    Поделиться публикацией
    Комментарии 39
      +6
      Совершенно банальные пиар-принципы, не поддающиеся количественной оценке. На словах и в бумагах будут соблюдаться, а на деле как всегда.
        0
        Не хватает только принципа «идти по некапиталистическому пути развития». Такой же конкретный и настолько же исполнимый.
        +5
        … D o n ' t b e l i v e
          0
          вот да. Сгнило что-то в королевстве. Список ни о чем вообще. 7 пункт — это вообще цензура, т.е. ни о какой открытости речи вообще нет.
          +8
          2. Борьба с дискриминацией

          В одной из статей, возможно гугла, был мексиканский ресторанчик. И у него были низкие оценки. Но не потому, что он был мексиканский, а потому что просто плохой. Так вот ему выставили повышенные веса, чтобы он ранжировался так же как хорошие. Такое исправление дискриминации меня не устраивает.
            +5
            Вот да, эта статья была именно от гугловского русскоязычного евангелиста.
            Ей ещё попытались объяснить в чём проблема с умозрительным назначением былым «уравнивающего» штрафа, но девушка крепко держалась в комментариях за руководящие столпы, и ничего понимать не хотела.

            Свет правильного ответа светился в глазах.
              +2
              А мне вспомнилось, как гугловские нейросети не распознавали на фото лица чёрных. И то, как какую-то программу предсказаний преступлений для полиции уличили в предвзятости к небелым.
                +1
                С таким подходом можно вообще статистику как науку запретить, только потому, что она может выдавать результаты, где одни выходят статистически хорошими, а другие статистически плохими.

                Модели машинного обучения не умеют сочинять или быть предвзятыми, они являются отражениями статистических закономерностей во входных данных. Так что увы.
                  0
                  Модели машинного обучения не умеют сочинять или быть предвзятыми, они являются отражениями статистических закономерностей во входных данных. Так что увы.

                  Вспоминается байка про то, как ИИ пытались обучить разпозновать военную технику на снимках с сателлитов. И подборка «тренировочных» фоток была такова, что на большинстве фоток с техникой были тени от облаков, а на остальных их почти не было. Вот ИИ и «научился» :)

                  Поэтому хотя сами ИИ и статистика может быть и не являются предвзятыми, а вто люди загружающие в них данные и интерпретирующие результаты вполне могут ими быть.
                0
                Почти предвижу холивар на эту тему как в прошлой статье с похожим заголовком. Какая то странная у них борьба с дискриминацией…
                  +3
                  Жители бывшего СССР это уже переживали все (правда больше на бумаге), ничего нового американские левые не придумали, просто копируют СССР.

                  Есть старый анекдот на эту тему
                  В консерваторию по классу скрипки на 10 мест 100 претендентов: 10 евреев и 90 русских. Собрался ректорат, решают, кого взять, чтобы по справедливости.
                  Проректор-патриот: — Надо взять 10 русских.
                  Проректор-коммунист: — Надо взять 9 русских и одного еврея.
                  Проректор-демократ: — Надо взять 5 евреев и 5 русских.
                  Проректор-сионист: — Надо взять 9 евреев и одного русского.
                  Ректор: — А вы все, оказывается, националисты.
                  Все: — Ни фига себе! А кого же, по-твоему, надо брать?
                  Ректор: — Тех, кто лучше играет на скрипке.
                    0
                    Справедливости ради вспомню реальную историю, когда во время предвыборной компании участники федеральных штабов КПРФ, Яблока и несколько видных журналистов ели блинчики с коньяком на квартире одной из журналисток, и съелих их столько, что начали говорить с запинками, но зато то что думали.

                    Так ведущий политобозреватель Коммерсанта совершенно искренне мне объяснял, что я просто ничего не понимаю. Что на самом деле, по природе и воспитанию так устроено, что талантливым журналистом может быть только еврей, и вот у них в отдел берут только талантливых журналистов, а если вы все хотите, чтобы среди журналистов был кто-то ещё кто-то, вы должны через госдуму квоту проводить, для всяких русских и оленеводов.

                    Анекдоты не работают когда в жюри, определяющем кто лучше играет на скрипке оказывается 9 талантливых скрипачей, 10-ым к ним тоже только талантливого возьмут.
                      0
                      Это все равно будет лучше, чем квотирование. Ну и вообще, Коммерсант — частная компания и могут позволить себе брать на работу только одноногих одноглазых людей 1940 года рождения если им так уж хочется, это их дело. Если бы это монополия была, то другое дело, а так вообще не важно.
                  0
                  #MeToo
                    0

                    Как вы тут захарраситься умудрились?

                      0
                      Это я просто согласился с habr.com/post/413637/#comment_18751625, не скрыв нотку иронии. Если же Вы поддерживаете людей, которые, пользуясь хайпом про дискриминацию, вредят другим ради материальной и ЧСВ-выгоды, то можете и дальше меня минусовать.
                        0

                        Забавный факт №1: я вас не минусил.
                        Забавный факт №2: если вы в ветке про дискриминацию оставляете односложный комментарий, выглядещий как "The MeToo movement is an international movement against sexual harassment and assault.", не ожидайте что кто-то использует менее очевидную интерпретацию ваших слов.

                          0
                          1) Ну значит это не Вам адресовано, прошу прощения.
                          2) Коммент опубликован как ответ к другому комменту, последнее предложение которого: «Такое исправление дискриминации меня не устраивает.» «MeToo» в данном контексте переводится как «Меня тоже». Неужели так сложно?
                    0
                    «Борьба с дискриманацией» не совсем удачный перевод принципа «Avoid creating or reinforcing unfair bias». Так что ваш пример не подходит тут. ИИ не должен дискриминировать (принцип) и ИИ будет использоваться для борьбы с дискриминацией (ваш пример) это 2 разные вещи.
                    0
                    Очень хочется верить, что эти принципы будут непоколебимыми
                      0
                      Мне хочется верить, что нет.
                        +2
                        Хаб «Научная фантастика» тут, скорее всего, не случайно добавлен.
                      +3

                      Если Google не следует концепциям Material Design, неужели этим принципам будет следовать?

                        +1
                        Многовато, у Азимова поменьше было.
                          0
                          Это не для ИИ, а для Гугла.
                            0
                            Ага. Можно короче чем у Азимова: «Don't be evil». Такой предпочтете?
                            +4
                            п.4… Человек сохранит над ними контроль.

                            А какой именно человек? Явно не любой.
                            Про автомат Калашникова тоже можно сказать, что человек хранит над ним контроль.
                              +1
                              С п. 4. как раз проще всего. Человек — какой нибудь вообще. Владелец, админ, в общем любой хомо. Оставлять бесконтрольно никто, естественно, не будет.

                              А с остальными пунктами — чистая абстракция и благие пожелания. ИИ — инструмент для выполнения определенных функций. Если «принципы» будут мешать — их отключат.
                                0
                                Любой — слишком размыто. Контроль будет иметь вполне конкретный человек (или группа). Получая преимущества над теми, кто в понятие «любой» не входят. То есть над всеми остальными.
                                  0
                                  Я не очень понимаю, вы ожидаете что в очень высокоуровневом документа про принципы разработки ИИ будет указано кто должен управлять ИИ? По-моему «человечество должно всегда иметь контроль над ИИ» — наиболее подходящая формулировка. Или у вас другие предложения?
                                    0

                                    Скорее всего имеется ввиду, что ИИ не будет позволено жить самостоятельно без контроля над ним человека. Постулат вполне осмысленный и не затрагивает вопроса, кто именно этот человек. Разве что из другого принципа следует, что этот человек должен разделять изложенные принципы.
                                    Впрочем, тоже не более, чем благое пожелание, ибо скорее всего забьют до серьезного инцидента, напоягутся, потом расслабятся и опять забьют. И так по кругу.

                                0
                                Зачётно их Маск затролил. Подозреваю, что Пентагон ему заказы перестал подгонять, вот он и начал дискуссии про злой ИИ подогревать.
                                  0
                                  При чем тут Маск? Тема безопасности ИИ существовала и до Маска и книг достаточно про это написано.
                                    0
                                    Товарищ намекнул на институт OpenAI, на который маск отвалил полтора лярда, и который провозгласил что ИИ должен быть таким какой назовут хорошим в OpenAI, а никто другой не имеет право разрабатывать ИИ, под угрозой остракизма за преступления против человечества.

                                    Тут идея точно та же. Покажи нам все свои разработки, мы их оценим по нашим размытым и математически неверным принципам, по кторым обвенить можно любого, а если вздумаешь выделываться запретим использовать TensorFlow, который мы хотим протащить в индустриальные стандарты.
                                      0
                                      запретим использовать TensorFlow
                                      Что уж мелочиться, сразу запретить плохишам использовать C++ и Python.
                                  +1
                                  Cистемы ИИ обеспечат соответствующие возможности для обратной связи, соответствующих объяснений своих действий и возможных апелляций. Человек сохранит над ними контроль.

                                  Они уже выснили на каком основании альфаго делала «нелогичные» ходы?
                                    +1
                                    1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
                                    2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
                                    3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

                                    Вот это принципы, а то что Google предлагает это замыливание глаз.
                                    +1
                                    Просто ребята хотят казаться хорошими.

                                    Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                                    Самое читаемое