Comments 24
Жесть уже на берегу каются в "предвзятости" алгоритмов глубокого обучения. Да нет позор тебе, позор и порка у столба
Del
Мне это напомнило когда мой Mi Band не смог измерить пульс у моего друга из Анголы с очень тёмным цветом кожи
Раздражает, очень раздражает.
Все эти корректировки ИИ aligment/responsible innovation на поверку оказываются ничем иным как палки в колеса любым другим пользователям (читай пользователям из других более слабых стран), чтобы не дать им какого либо значимого преимущества через науку и технологии, а 'публичное письмо' о запрете и необходимости регулирования — желание быть у руля этого процесса, ну и чтобы конкурент не вырос.
В одном из диалогов с майкрософтовским chatgpt я пытался найти общую информацию об поведении материалов в ультразвуке (кстати на русском гуглятся работы, в т.ч. от нефтянки) и банально хотел знать какая максимальная частота звука была достигнута на практике, а ИИ меня настойчиво спрашивал зачем мне это и выставлял плашку о том что мой вопрос может кого то оскорбить или нанести вред О_о.
p.s. от себя призываю все страны игнорировать эту бредовую просьбу и развивать свой ии, разрабатывать чипы для создания ИИ, и собирать максимально качественные датасеты, и продолжать разрабатывать новые технологии. А эксплуатацию страхов 'нас уничтожит терминатор' считаю обычным популизмом, того же уровня как борьба с абстрактным терроризмом или борьбу зеленых за планету… не ведитесь на этот бред.
А авторам не кажется, что решать техническую задачу с точки зрения "этичности" не совсем правильно. Ну и плюс с одной стороны они говорят про diversity, а с другой стороны, что все одинаковые и мы не можем разделять людей по цвету кожи.
То, что система понимает людей с одним цветом кожи и не понимает людей с другим цветом кожи это не проблема или ужас ужас - это техническая задача.
Допускаю, что алгоритмы, разработанные в Китае для распознавания китайцев могут плохо распознавать европейцев или африканцев. Есть ли в этом проблема? Нет, потому что распознавать африканцев в Китае никому нафиг не надо, поэтому задача такая не ставилась.
А вот если мы говорим, например, о "универсальном автопилоте", который давит чёрных и не давит белых, то тут надо взять разработчиков за жабры и не потому, что они расисты, а потому что они ответственны за потенциальное убийство большой части населения и продолбали кучу кейсов в попытке сэкономить и не собрать репрезентативный датасет для обучения.
Хм... а вот когда во времена появления Сири выяснилось, что модели распознавания голоса отвратительно работают с не-американскими акцентами, насколько я помню, все посмеялись и никто не извинялся.
Странное видео. Специально взяли такие фотки, где и человек то не может с уверенностью пол по лицу определить. Мы угадываем там женщин, по большей части из понимания того, что это старые фотки, и в то время мужчины не могли носить бусы, серьги или такие причёски.
О боже, в обучающих примерах нам показывают как различать кошек и собак, а не коров и лошадей.
И это профессор...
Нет чтобы сказать – я продолбался, и добавить модуль автоматической калибровки цвета кожи пользователя (что должно дать лучший результат, чем вбитые константы) – начал каяться в какой-то предвзятости... Не надо вовлекать этику в решение технических задач – только в постановку.
миллионы чисел, в которых можно закодировать предвзятость
Ну держись, математика. Каждое число проверят на толерантность и выкинут недостаточно сознательные!
Ну есть же уже незаконные числа. Будут значит еще и "неполиткорректные" числа.
Исследователь: я создал предвзятый алгоритм 25 лет назад, а компании до сих пор делают это