Комментарии 18
Я искренне не понимаю, что "предвзятого" в том факте, что бурого медведя чаще можно найти на дереве, а белого - на льдине.
автор в качестве исходника дал свою фотографию, а ИИ его перекрасила в негра, если он указывал для генерации баскетбол.
Ну, видимо, для ИИ темная кожа - это такой же атрибут темы "баскетбол", как майка и мяч. Никто же не возмутится, если он шахтера нарисует с черным лицом и в каске с фонариком, независимо от его предполагаемой расы?
странное сравнение с шахтером. если баскетболист, то это негр, даже если белый, то надо перекрасить?
Суть в том, что нейросеть применяет к фото признаки баскетболиста, но она не отличает признаки которые нужно изменять, от тех которые не нужно. То есть, она знает, что баскетболисты носят майку, но видит, что у человека на фотографии нет этого признака, поэтому добавляет ему майку. Ещё нейросеть знает, что у баскетболистов чаще всего темная кожа, но видит, что человек на фотографии не обладает этим признаком, и... делает его темнокожим. Нейросеть не имеет понятия о том, что одежду люди легко меняют, а цвет кожи не меняют, так же как и понятия о том, что баскетболисты чаще всего темнокожие не по причине того, что баскетболисту нужно быть темнокожим.
ИМХО, предвзятость существует исключительно в головах.
В советские годы - в одном добывающем городе восточной республики поставили памятник: два шахтёра, добывают уголь. Как символ дружбы народов, одному шахтёру сделали русские черты лица, другому придали местные черты.
Первый шахтёр держал кусок угля двумя руками, второй одной рукой. Тут же в центр понеслись телеграммы от возмущённой общественности - вы притесняете местные кадры, хотите сказать, что местные ленятся и работают вполсилы (приезжие добывают уголь двумя руками, а мы одной).
От греха подальше фигурам на памятнике поменяли головы местами. Поток телеграмм усилился - это провокация, вы хотите показать, что производительность труда у местных хуже (такой кусок угля приезжий добыл одной рукой, а местный точно такой же объём извлекал двумя руками).
Не с целью поспорить, а просто интересно узнать мнение.
Допустим, есть генерирующая фотографиии нейросеть
По 100 различным запросам на общую тему "законопослушный гражданин" выдаёт в 90% случаев белых персонажей
А на запросы по теме "преступник" выдаёт в 90% случаев чернокожих персонажей
В такой ситуации тоже предвзятость "исключительно в головах" ?
А на запросы по теме "преступник" выдаёт в 90% случаев чернокожих персонажей
Это сложный этический вопрос, на который я, к сожалению, не могу дать однозначный ответ. Наверное - да, можно считать такую нейросеть предвзятой.
Что касается, изначальной статьи, ради эксперимента дал запросы "баскетболист" и "хоккеист" в Google-картинки и Яндекс картинки. Среди первых 10 результатов:
Баскетболист: 8 чернокожих, 2 белых. (яндекс). 8 чернокожих, 1 белый, 1 мулат - Стефен Карри (гугл)
Хоккеист: оба поисковика в первых 10 результатов дали исключительно белых персонажей.
Получается, поисковики тоже предвзяты?
Мне кажется тут разная логика работы: поисковик вообще не принимает решение (предвзятое или нет) сколько чернокожих/белокожих ему показать.
Без чьего-либо вмешательства в его работу, он просто "механически" выдаёт изображения с наиболее продвинутых по запросу в SEO смысле страниц.
А вот насчёт нейросети уже сложно сказать, зависит от того, как её обучали, дообучали, может еще от чего-то.
поисковик вообще не принимает решение
Возможно когда-нибудь люди поймут, что нейросети тоже не принимают никаких решений. Но машина маркетинга зашла слишком далеко.
В контексте обсуждения - "принятие решения" нейросетью, это приделывание вашей фотографии признаков, которыми она не обладает.
Опять же в этом смысле признаки "цвет кожи"; "цвет глаз"; "шесть пальцев"; "ослиные уши" - равнозначны.
И ИМХО, как неспециалист, я бы хотел видеть параметр настройки нейросети, который бы задавал меру того, что можно менять - от "как можно ближе к оригиналу" до "картинка по мотивам оригинала".
Это всё ещё не принятие решения, это всего лишь чуть более сложный запрос в поисковую систему. Найди мне фотографии баскетболистов, а затем приделай моей фотографии признаки этих баскетболистов, которыми она не обладает.
В данной ситуации просто статистика.
Такая же предвзятость есть и у людей, что врач и учитель это женщины, а водитель и слесарь мужчины.
Анекдот в тему:
В Верховный Совет СССР обратились татары. По их мнению, поговорка
"Незваный гость хуже татарина" унижает их достоинство.
Верховный Совет вынес решение изменить поговорку.
Теперь она звучит так: "Незваный гость лучше татарина"
Просто у Jochem Gietema такая же проблема с личными фотографиями, как у меня. Фиг найдешь фото, где ты без лишних объектов и субъектов и в нормальном ракурсе. А вот фоток детей и котиков хоть завались. 😁
На стереотипы опирается видимо)
Наблюдение: ИИ-генератор изображений от Apple предвзят в расовых вопросах