Комментарии 14
А в этом LAION есть диснеевские картинки? Думаю дисней очень быстро прояснит, считать всё выложеное в интернет PD, или нет.
Очень странно, что гугл с его индексированием использует чьи-то наборы...
Google - огромная и сложно устроенная корпорация, отдел, который занимается обучением Imagen и отдел, который занимается поиском скорее всего не контактируют вообще, не говоря уже о передаче каких-то данных.
Я бы ставил на то, что они боятся судов. Прав на картинки, которые отображает их поиск у них самих нет. А каждое использование данных под лупой надзирательных органов.
Поэтому обучение «хорошего и доброго» ИИ должно начинаться с правильного набора данных.
То есть с цензуры.
...этот дом принадлежит человеку, стоящему за огромными усилиями по сбору данных, и без которого тот бум искусственного интеллекта, который во всю силу происходит сейчас, мог бы и не случиться.
...40-летний учитель и бывший актер основал LAION два года назад
Это пять.
Удивительно, как простые казалось бы вещи становятся настолько ценными в новом мире.
Наборы картинок кошечек и собачек вдруг начинают обладать немалой ценностью.
И не понял, почему генерирование искусственным интеллектом убегающего от полицейских чернокожего грабителя или белого преуспевающего дельца - это неправильно? Наоборот, это придаёт реализм пониманию ситуации искусственным интеллектом. Искусственный интеллект только отражает существующие явления.
Сторонники доминирующей западной повестки сильно не в ладах с реальностью, поэтому им это как кость в горле. Freedom is slavery, ignorance is bliss, men are women, вот это всё. Преступники становятся героями, доносящие правду — преступниками, а если переиначить смыслы слов и переписать историю, то вдруг реальность как-то подстроится под это... Такая вот печальная деградация.
я же правильно понимаю, что удаление NSFW не предотвратит создание NSFW , но передвинет "нейронки, которые умеют распознавать NSFW" в платный сегмент ?
(потому что на бесплатных данных обучить дискриминатор "это NSFW или нет" будет невозможно)
и это произойдет с любыми другими классами изображений, которые будут оттуда удалены.
Я не сторонник теории заговоров, но почему-то мне не верится в историю с «простым учителем»
Чувствуется какая-то недосказанность
Apple уже использует нейронку для детектирования насильственных действий по фото в своих устройствах, но есть вероятность, что кто-нибудь извлечет модель и будет ее использовать как adversary в gan генераторах похожих изображений - этично ли это, вот в чем вопрос https://www.lightbluetouchpaper.org/2021/08/08/is-apples-neuralmatch-searching-for-abuse-or-for-people/
Будущее индустрии ИИ стоит на бесплатной базе данных простого учителя школы