Pull to refresh
0
Microsoft
Microsoft — мировой лидер в области ПО и ИТ-услуг

Вы бы доверили свою задачу ИИ? 7 вопросов, которые помогут определиться

Reading time 5 min
Views 1.6K

Эта статья - авторства Эми Бойд. Подробнее о ней вы можете узнать здесь.

На одном из докоронавирусных мероприятий Microsoft Reactor в Лондоне я посетила действительно интересный семинар Future Recoded, посвященный этике в искусственном интеллекте.

Я знаю, что вы подумали…

"Очередной семинар по этике в ИИ, на котором рассказывают, что все вредоносно, а программисты и специалисты по анализу данных совершают уйму ошибок. И сейчас нам расскажут, как этих ошибок избежать".

Но этот семинар стал исключением… И запомнился мне необычайно свежим подходом.

Безусловно, мы должны обсуждать и анализировать прошлые ошибки, чтобы научиться применять эти мощные технологии для всеобщего блага. Однако этот семинар открыл мне глаза на то, как проверять ИИ-проекты, идеи и даже новый бизнес на здравый смысл.

Здесь нужно отдать должное автору — замечательному докладчику и писателю Майклу Робсону. Майкл, надеюсь мне удастся поделиться твоим пониманием и заставить моих читателей задуматься, как это случилось со мной.

Для начала Майкл задал несколько на первый взгляд простых вопросов. Попробуйте ответить на них сами (потом я поделюсь своими ответами).

Вы бы доверили искусственному интеллекту…

  1. Порекомендовать вам продукт?

  2. Защитить ваши данные в Интернете?

  3. Помогать вам за рулем?

  4. Управлять вашей машиной?

  5. Следить за вашим здоровьем?

  6. Выдавать вам лекарства?

  7. Выбрать няню?

На некоторые из них было легко ответить. Мы привыкли к рекомендациям нашего любимого интернет-магазина или к мониторингу здоровья через приложение. Нам нравится, когда умные часы напоминают больше двигаться.

Однако некоторые вопросы заставили меня задуматься. Например, об автомобиле, который меня везет. Я никогда такого не пробовала, но знаю, что сейчас есть машины, которые ездят сами, так что все должно быть в порядке, правда? Или о выдаче лекарств — это все еще компьютер. Что, если в программе ошибка и она пропишет неправильную дозу (здесь я выражаю свое общее беспокойство ?). Но в здравоохранении часто используются технологии, так что и здесь все в порядке, верно?

Вопрос о выборе няни был неожиданным… ?

Давайте рассмотрим этот сценарий

Скажем, компания А — это служба, которая сканирует действия потенциальных нянь в социальных сетях и выставляет оценку, основанную на том, "насколько они могут быть безопасными" с учетом определенных критериев.

Этот пример основан на реальной компании и реальном сценарии использования.

Вы собеседуете множество разных людей, а эта служба проверяет социальные сети каждого кандидата.

Компания А оценивает всех кандидатов (слева) и их учетные записи в социальных сетях (справа)
Компания А оценивает всех кандидатов (слева) и их учетные записи в социальных сетях (справа)

Она оценивает соискателя по определенным критериям, таким как "Неуважительное отношение", "Откровенный контент", "Запугивание или домогательства" и т. п., а затем выставляет оценку (напоминает мне кредитный рейтинг). 

Кандидат в середине диаграммы со всеми перечисленными критериями, которые оцениваются по результатам проверки данных
Кандидат в середине диаграммы со всеми перечисленными критериями, которые оцениваются по результатам проверки данных

На первый взгляд, это служба, которая помогает решить, можно ли доверить конкретному человеку заботу о ребенке. Она также помогает эффективно отсеивать кандидатов, когда их много.

Большой вопрос: этичен ли такой подход?

Чтобы ответить на этот вопрос, мы должны определить для себя понятие этичности? Майкл подробно рассказал о том, как понимать это слово.

Определение в словаре:

Этика — философское учение о морали, ее развитии, принципах, нормах и роли в обществе.

Возможно, лучше начать с размышлений о том, что значит быть этичным человеком. Заботиться о благополучии людей? Теория морали часто строится на какой-то одной ценности. Майкл выделяет пять ценностей.

Ценности, основанные на благополучии других (слева): отсутствие страданий, автономия и равенство. Ценности, основанные на собственном благополучии (справа): добродетель и доверие.
Ценности, основанные на благополучии других (слева): отсутствие страданий, автономия и равенство. Ценности, основанные на собственном благополучии (справа): добродетель и доверие.

Итак, если рассматривать этику в целом с точки зрения благополучия людей, то этика данных должна оценивать, как данные влияют на благополучие людей.

Новый подход — FATE

FATE значит fairness (справедливость), accountability (подотчетность), transparency (прозрачность) и ethics (этичность). Миссия одной из исследовательских групп Microsoft:

изучать сложные социальные последствия искусственного интеллекта, машинного обучения, обработки и анализа данных, крупномасштабных экспериментов и возрастающего уровня автоматизации. Их цель — продвигать инновационные и этичные методы вычислений, учитывая более глубокий контекст этих вопросов из социологии, истории, научных и технологических исследований.

  • Справедливость: искусственный интеллект должен повышать эффективность, не унижая человеческого достоинства, и защищать от предвзятости.

  • Подотчетность: искусственный интеллект должен иметь алгоритмическую подотчетность, чтобы люди могли устранить непреднамеренный вред.

  • Прозрачность: искусственный интеллект должен быть прозрачным и интеллектуально обеспечивать конфиденциальность.

  • Этичность: искусственный интеллект должен поддерживать человечность.

Чтобы лучше понять эти концепции, ознакомьтесь с блогами и вебинарами на веб-сайте FATE.

Когда Майкл разбил эти общие концепции на потенциальные вопросы в каждой категории, у меня появилась интересная идея для практической основы — начальный набор вопросов для оценки планируемых проектов в области ИИ.

Думая о компании А, взгляните на эти вопросы, а затем спросите себя или свой коллектив, вызывает ли что-то опасения (потом я поделюсь соображениями, которые возникли у меня на семинаре).

Список вопросов по каждому из разделов — "Справедливость", "Подотчетность", "Прозрачность" и "Этичность" — опубликован на странице: bit.ly/fatequestions
Список вопросов по каждому из разделов — "Справедливость", "Подотчетность", "Прозрачность" и "Этичность" — опубликован на странице: bit.ly/fatequestions

Ниже перечислены мои первоначальные мысли во время семинара, исходя из информации о компании А.

  • Будет ли алгоритм относиться к старшему поколению иначе из-за того, что его представители мало или совсем не активны в социальных сетях? Исключит ли он их за это из числа потенциальных кандидатов?

  • Кто несет ответственность за окончательное решение, связанное с наймом подходящего человека на работу: компания А или родители?

  • На каких типах данных обучался искусственный интеллект? Есть ли предвзятость по отношению к определенным демографическим категориям, странам и т. п.? Эта информация должна быть опубликована, чтобы пользователи службы понимали ее ограничения.

  • У меня было еще несколько вопросов о том, как определяется каждая категория и выставляется оценка.

  • Могут ли плохие кандидаты "переиграть" систему, воздействуя на свои собственные социальные сети до сканирования?

Прежде чем задать себе эти вопросы, я подумала о компании А: "Это немного необычно, но, возможно, все в порядке?" Теперь я могу конкретнее указать причины, по которым я или другие могут беспокоиться об использовании данных или службы.

Теперь я буду использовать этот подход для оценки идей в моих проектах и спрашивать других их мнение по четырем критериям:
справедливость, подотчетность, прозрачность и этичность.

Что читаете вы?

В этой статье я хотела поделиться интересными концепциями, которые услышала на семинаре Майкла: идеями, вопросами и подходами, которые помогут проверить этичность вашего проекта в области искусственного интеллекта.

Это лишь небольшая часть более масштабного процесса — оценки этики данных. Поделитесь в комментариях своими любимыми ресурсами по таким вопросам, как:

Tags:
Hubs:
+3
Comments 3
Comments Comments 3

Articles

Information

Website
www.microsoft.com
Registered
Founded
Employees
Unknown
Location
США