company_banner

Вы бы доверили свою задачу ИИ? 7 вопросов, которые помогут определиться

    Эта статья - авторства Эми Бойд. Подробнее о ней вы можете узнать здесь.

    На одном из докоронавирусных мероприятий Microsoft Reactor в Лондоне я посетила действительно интересный семинар Future Recoded, посвященный этике в искусственном интеллекте.

    Я знаю, что вы подумали…

    "Очередной семинар по этике в ИИ, на котором рассказывают, что все вредоносно, а программисты и специалисты по анализу данных совершают уйму ошибок. И сейчас нам расскажут, как этих ошибок избежать".

    Но этот семинар стал исключением… И запомнился мне необычайно свежим подходом.

    Безусловно, мы должны обсуждать и анализировать прошлые ошибки, чтобы научиться применять эти мощные технологии для всеобщего блага. Однако этот семинар открыл мне глаза на то, как проверять ИИ-проекты, идеи и даже новый бизнес на здравый смысл.

    Здесь нужно отдать должное автору — замечательному докладчику и писателю Майклу Робсону. Майкл, надеюсь мне удастся поделиться твоим пониманием и заставить моих читателей задуматься, как это случилось со мной.

    Для начала Майкл задал несколько на первый взгляд простых вопросов. Попробуйте ответить на них сами (потом я поделюсь своими ответами).

    Вы бы доверили искусственному интеллекту…

    1. Порекомендовать вам продукт?

    2. Защитить ваши данные в Интернете?

    3. Помогать вам за рулем?

    4. Управлять вашей машиной?

    5. Следить за вашим здоровьем?

    6. Выдавать вам лекарства?

    7. Выбрать няню?

    На некоторые из них было легко ответить. Мы привыкли к рекомендациям нашего любимого интернет-магазина или к мониторингу здоровья через приложение. Нам нравится, когда умные часы напоминают больше двигаться.

    Однако некоторые вопросы заставили меня задуматься. Например, об автомобиле, который меня везет. Я никогда такого не пробовала, но знаю, что сейчас есть машины, которые ездят сами, так что все должно быть в порядке, правда? Или о выдаче лекарств — это все еще компьютер. Что, если в программе ошибка и она пропишет неправильную дозу (здесь я выражаю свое общее беспокойство ?). Но в здравоохранении часто используются технологии, так что и здесь все в порядке, верно?

    Вопрос о выборе няни был неожиданным… ?

    Давайте рассмотрим этот сценарий

    Скажем, компания А — это служба, которая сканирует действия потенциальных нянь в социальных сетях и выставляет оценку, основанную на том, "насколько они могут быть безопасными" с учетом определенных критериев.

    Этот пример основан на реальной компании и реальном сценарии использования.

    Вы собеседуете множество разных людей, а эта служба проверяет социальные сети каждого кандидата.

    Компания А оценивает всех кандидатов (слева) и их учетные записи в социальных сетях (справа)
    Компания А оценивает всех кандидатов (слева) и их учетные записи в социальных сетях (справа)

    Она оценивает соискателя по определенным критериям, таким как "Неуважительное отношение", "Откровенный контент", "Запугивание или домогательства" и т. п., а затем выставляет оценку (напоминает мне кредитный рейтинг). 

    Кандидат в середине диаграммы со всеми перечисленными критериями, которые оцениваются по результатам проверки данных
    Кандидат в середине диаграммы со всеми перечисленными критериями, которые оцениваются по результатам проверки данных

    На первый взгляд, это служба, которая помогает решить, можно ли доверить конкретному человеку заботу о ребенке. Она также помогает эффективно отсеивать кандидатов, когда их много.

    Большой вопрос: этичен ли такой подход?

    Чтобы ответить на этот вопрос, мы должны определить для себя понятие этичности? Майкл подробно рассказал о том, как понимать это слово.

    Определение в словаре:

    Этика — философское учение о морали, ее развитии, принципах, нормах и роли в обществе.

    Возможно, лучше начать с размышлений о том, что значит быть этичным человеком. Заботиться о благополучии людей? Теория морали часто строится на какой-то одной ценности. Майкл выделяет пять ценностей.

    Ценности, основанные на благополучии других (слева): отсутствие страданий, автономия и равенство. Ценности, основанные на собственном благополучии (справа): добродетель и доверие.
    Ценности, основанные на благополучии других (слева): отсутствие страданий, автономия и равенство. Ценности, основанные на собственном благополучии (справа): добродетель и доверие.

    Итак, если рассматривать этику в целом с точки зрения благополучия людей, то этика данных должна оценивать, как данные влияют на благополучие людей.

    Новый подход — FATE

    FATE значит fairness (справедливость), accountability (подотчетность), transparency (прозрачность) и ethics (этичность). Миссия одной из исследовательских групп Microsoft:

    изучать сложные социальные последствия искусственного интеллекта, машинного обучения, обработки и анализа данных, крупномасштабных экспериментов и возрастающего уровня автоматизации. Их цель — продвигать инновационные и этичные методы вычислений, учитывая более глубокий контекст этих вопросов из социологии, истории, научных и технологических исследований.

    • Справедливость: искусственный интеллект должен повышать эффективность, не унижая человеческого достоинства, и защищать от предвзятости.

    • Подотчетность: искусственный интеллект должен иметь алгоритмическую подотчетность, чтобы люди могли устранить непреднамеренный вред.

    • Прозрачность: искусственный интеллект должен быть прозрачным и интеллектуально обеспечивать конфиденциальность.

    • Этичность: искусственный интеллект должен поддерживать человечность.

    Чтобы лучше понять эти концепции, ознакомьтесь с блогами и вебинарами на веб-сайте FATE.

    Когда Майкл разбил эти общие концепции на потенциальные вопросы в каждой категории, у меня появилась интересная идея для практической основы — начальный набор вопросов для оценки планируемых проектов в области ИИ.

    Думая о компании А, взгляните на эти вопросы, а затем спросите себя или свой коллектив, вызывает ли что-то опасения (потом я поделюсь соображениями, которые возникли у меня на семинаре).

    Список вопросов по каждому из разделов — "Справедливость", "Подотчетность", "Прозрачность" и "Этичность" — опубликован на странице: bit.ly/fatequestions
    Список вопросов по каждому из разделов — "Справедливость", "Подотчетность", "Прозрачность" и "Этичность" — опубликован на странице: bit.ly/fatequestions

    Ниже перечислены мои первоначальные мысли во время семинара, исходя из информации о компании А.

    • Будет ли алгоритм относиться к старшему поколению иначе из-за того, что его представители мало или совсем не активны в социальных сетях? Исключит ли он их за это из числа потенциальных кандидатов?

    • Кто несет ответственность за окончательное решение, связанное с наймом подходящего человека на работу: компания А или родители?

    • На каких типах данных обучался искусственный интеллект? Есть ли предвзятость по отношению к определенным демографическим категориям, странам и т. п.? Эта информация должна быть опубликована, чтобы пользователи службы понимали ее ограничения.

    • У меня было еще несколько вопросов о том, как определяется каждая категория и выставляется оценка.

    • Могут ли плохие кандидаты "переиграть" систему, воздействуя на свои собственные социальные сети до сканирования?

    Прежде чем задать себе эти вопросы, я подумала о компании А: "Это немного необычно, но, возможно, все в порядке?" Теперь я могу конкретнее указать причины, по которым я или другие могут беспокоиться об использовании данных или службы.

    Теперь я буду использовать этот подход для оценки идей в моих проектах и спрашивать других их мнение по четырем критериям:
    справедливость, подотчетность, прозрачность и этичность.

    Что читаете вы?

    В этой статье я хотела поделиться интересными концепциями, которые услышала на семинаре Майкла: идеями, вопросами и подходами, которые помогут проверить этичность вашего проекта в области искусственного интеллекта.

    Это лишь небольшая часть более масштабного процесса — оценки этики данных. Поделитесь в комментариях своими любимыми ресурсами по таким вопросам, как:

    Microsoft
    Microsoft — мировой лидер в области ПО и ИТ-услуг

    Комментарии 3

      0
      Всё вычеркнуть, подобрать референсы — вписать.
        0
        Про управление автомобилями — вроде бы на первый взгляд неплохая идея, но вопрос в законодательстве — кого винить в случае ДТП? Ведь протокол, обычно, выписывают на водителя, а кто тут отвечать должен? Большой вопрос пока что…
          0
          Если под ИИ понимается ML, то ему я бы ничего не доверил. Качество продукта на основе ML сильно зависит от качества сознания и этики человека выпускающего продукт. ML содержит не видимые никому знания. Понять состояние, качество и актуальность этих знаний во всех их закоулках могут только выпускающие специалисты, да и то при очень большом желании. Среди же выпускающих продукты на основе ML мы видим в основном фантазеров-врунов, профессиональных пожирателей фондов (подручных профессиональных пожирателей фондов), маркетинговых обманщиков-эквилибристов, заклинателей светлого будущего и просто мошенников. Те единицы вменяемых людей встречающихся в этой области скорее подтверждают такое положение дел.
          Полноценному само обучающемуся общему ИИ я бы доверил любое из перечисленного. После получасовой беседы с ним.

          Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

          Самое читаемое