Comments 56
Теперь-то точно заживём!
Комитет/реестр/комиссию уже создали? )
Комиссия (национальный штаб) уже есть, конечно.
Если ИИ это инструмент, и надо маркировать контент, то почему музыканты не маркиоуьт песни "я сделал это на гитаре, пианино, электронном !!!синтезаторе" или художники - я использовал кисть из белки №3 и акварель....
У художников есть маркировка "масло-холст". Но на самом деле за требованием маркировать ИИшное не стоит ничего кроме жажды наживы. Это как честный знак, кодами которого просто торгуют. Достаточно требования маркировать работы вводящие в заблуждение и не только лишь ИИшные. Ведь человека с 6ю пальцами можно нарисовать и вручную.
Марировать ИИшное просят потребители, так как не все хотят видеть/читать/слушать сгенерированный контент. Говорю как потребитель контента.
Марировать ИИшное просят потребители
Все требования потребителей в конечном счете сводятся к полному контролю за производством (без ИИ, экологичное, без дискриминации, без...), после чего производство тупо дохнет.
Если я сгенерировал статью ИИ, и поменял в ней один абзац - это ИИ? А если два абзаца? А если написал сам и проверил орфографию? А если сделал это Вордом - (там, кстати, тоже ИИ в старом смысле этого слова для проверки орфографии)?
Я к тому, что извините, но нормально определять ИИ в середине техпроцесса почти невозможно. А если невозможно, то это просто будет закон в формате "докопаемся даже до столба" - или, в худшем варианте "вы должны заверять государственным QR-кодом каждую стадию формирования материала". Лучше НЕ представлять, что станет с производством в таком случае.
Для потребителей - не хотите потреблять ИИ - идите к авторам с репутацией, которые его не используют. Элементы ИИ будут использоваться - потому что условно, не проверять орфографию в Ворде это в целом глупо. И, пожалуйста, НЕ надо сюда приплетать госрегулирование.
Все требования потребителей в конечном счете сводятся к полному контролю за производством (без ИИ, экологичное, без дискриминации, без...), после чего производство тупо дохнет.
Поскольку это потребитель так или иначе платит за произведенное, то он имеет право знать, что ему впаривают. Ну а если "производство" не может работать без обмана, то пусть дохнет, я не расстроюсь. Особенно если это производство нейрослопа. В конце концов, если мне вдруг захочется навернуть генеративного контента, то я и сам смогу написать промпт в нейронку.
потому что условно, не проверять орфографию в Ворде это в целом глупо.
Проверка орфографии это не генерация
Поскольку это потребитель так или иначе платит за произведенное, то он имеет право знать, что ему впаривают.
Да ок, ок. В СССР все знали, что потребителю впаривают - только духовный контент от местных творцов, никакого бездуховного рок-н-ролла. Вы по ходу, хотите туда же, только это не осознаете.
Современный рынок строится на доверии и на оценке контрагентов, а не на регулировании. Вы НЕ проверяете каждого мастера по ремонту автомобилей. Вы НЕ проверяете каждый софт, установленный на вашей машине (сертифицирован ли на отсутствие ошибок Chrome?). (Да, регулирование применяется в ситуациях, где есть опасность здоровью - например, в лекарствах и контроля качества еды - но и там избыточность приводит к увеличению цен - можно в сторону зарегулированной медицины в США посмотреть)
Попытка навязать производителю "я хочу все знать и контролировать" от потребителя - путь к тому, что у вас не будет производителей, проходили уже. Останется баба Маня из продуктового, которая будет на развес отвешивать "самую лучшую в мире советскую колбасу".
В СССР все знали, что потребителю впаривают - только духовный контент от местных творцов, никакого бездуховного рок-н-ролла. Вы по ходу, хотите туда же, только это не осознаете.
Наоборот, я хочу иметь право самостоятельно выбирать, какой контент потреблять – генеративный или нет. Это апологеты нейростетевой генерации почему-то хотят ограничить меня в этом праве и против моей воли впарить мне генеративный контент.
Современный рынок строится на доверии
Именно. Но вот только некоторые авторы подрывают это доверие и хотят ввести меня в заблуждение сделав вид, кто контент создан ими, хотя на самом деле он сгенерирован. Вотермарки Соры например удаляют. И я не призываю регулировать это на уровне государства, но считаю наличие отметки о генеративном контенте правилом хорошего тона и считаю, что было бы неплохо, если бы платформы требовали помечать такой контент на уровне своих правил, чтобы потребитель мог выбирать, что ему смотреть, читать и слушать, на что он имеет полное право. Пусть те кто любит ИИ контент его читают, смотрят и слушают, я не претендую решать за них, но я хочу иметь право решать, что я сам буду смотреть, читать и слушать.
Наоборот, я хочу иметь право самостоятельно выбирать, какой контент потреблять – генеративный или нет. Это апологеты нейростетевой генерации почему-то хотят ограничить меня в этом праве и против моей воли впарить мне генеративный контент.
Можно вы покажете пальцем - кто эти люди, которые хотят ограничивать вас в праве выбирать? Ну вот прям законодательно или иным способом - взять и ограничить - смотри, мол, только сгенерированный контент.
Но вот только некоторые авторы подрывают это доверие и хотят ввести меня в заблуждение сделав вид, кто контент создан ими, хотя на самом деле он сгенерирован.
То, что кто-то выдает сгенерированный полностью контент без проработки за хорошую человеческую работу - это личная нечистоплотность, но никто вам не мешает не читать такого автора.
К сожалению, единственный способ - голосовать рублем или ногами в сторону того, что вам нравится, да. Это взрослая позиция в том смысле, что по-взрослому считать, что мир/платформа не обязаны вам нравится/о вас заботиться - вы можете что-то сделать сами (если нет естественных монополий (государство и пр.) - да, тут надо бороться, потому что легко от таких сущностей уйти нельзя)
Facebook похерил алгоритмами ленту? Валим оттуда, слава богу, запретов нет.
И я не призываю регулировать это на уровне государства, но считаю наличие отметки о генеративном контенте правилом хорошего тона
Да, в такой формулировке готов поддержать. Исключительно "за", если это будет опциональным, и если будут выигрывать платформы/авторы, которые это введут и/или будут отслеживать репутацию авторов.
Я согласен, что есть в целом проблема злоупотреблением внимания пользователя... но, честно говоря, такая же проблема у нас была со скучными корпоративными статьями, баннерами по всему интернету, назойливыми уведомлениями, супераппами, в которых сложно найти нужную функцию. Все это никак не решается имхо просто потому, что внедрение госрешения сделает все еще хуже, а не лучше. Имхо условно единственный способ - поощрять и сохранять конкуренцию.
Ну вот прям законодательно или иным способом
Они хотят лишить меня этого права обманом, выдавая сгенерированный контент за несгенерированный. Примеры я привел – удаление вотермарок Соры, которое становится все более частым явлением. Кроме того такие люди и им сочувствующие воспринимают в штыки предложения дать пользователю возможность скрыть для себя генеративный контент или четко его помечать. Например, когда Spotify решил помечать сгенерированный контент люди из этой группы критиковали это решение.
по-взрослому считать, что мир/платформа не обязаны вам нравится/о вас заботиться
Не обязаны, но это не значит, что я не должен озвучивать свою позицию относительно того, как на мой взгляд должна вести себя платформа. Хозяева платформ могут и не послушать, но озвучить свою позицию я имею полное право.
честно говоря, такая же проблема у нас была со скучными корпоративными статьями
Качество корпблогов тут на Хабре многократно уже обсуждалось. и люди даже создавали юзерскрипты, для того чтобы их скрывать. Но генеративный контент это проблема совершенно иного масштаба – генерация настолько облегчила создание гигантских объемов низкокачественного контента, что даже покупать на Амазоне техническую литературу последних лет нужно с максимальной осторожность, ибо процент низкокачественного нейрослопа там уже откровенно неприличный. И это уже не просто злоупотребление вниманием, это прямой финансовый ущерб потребителям. И люди в итоге потом конечно проголосуют рублем, только это может закончиться довольно печально, как для Atari в 80-ых.
Они хотят лишить меня этого права обманом, выдавая сгенерированный контент за несгенерированный.
Еще раз - вас хотят обмануть. Вы хотите не быть обманутым, это нормально.
Но требовать с государства "пусть меня никто не обманывает"... ну, это такое.
С платформ требовать нормально, согласен - если в рамках конкурентной борьбы. Я сам "за" помечать контент.
воспринимают в штыки предложения дать пользователю возможность скрыть для себя генеративный контент или четко его помечать.
Я в целом "за" помечать, но и я уже видел охоту на ведьм. Вот как Expedition 33 лишили премии за какую-то левую текстуру, сгенерированную ИИ: https://dtf.ru/gamedev/4548324-otzyv-nagrad-tga-u-clair-obscur
В данном случае имхо пользователи правы формально, но не по духу, потому что какая-то левая текстура в игре никак не влияет на 99.9%.
что даже покупать на Амазоне техническую литературу последних лет нужно с максимальной осторожность, ибо процент низкокачественного нейрослопа там уже откровенно неприличный
Да, мы входим в грустную эпоху, в которой критерия качества сильно размыты и непонятно, что с этим делать.
Для меня вывод - "поддерживаем людей с репутацией". Регулировка анонимусов имхо ничего не даст - найдут способы обходить маркировку, и в выигрыше будут те, кто будут делать это более эффективно. Придется людям вспоминать слова "репутация фирмы" и прочее.
И люди в итоге потом конечно проголосуют рублем, только это может закончиться довольно печально, как для Atari в 80-ых.
Ну, у одних платформ будут проблемы, другие напротив - возвысятся. Падение Atari глобально не привело ни к чему плохому вроде.
Вопрос в другом, есть ролики, где не понятно сгенерировано это или реально снято. Они вводят в заблуждение и вызывают диссонанс, такие нужно маркировать.
Здесь поддержу - если целью ролика является сознательное введение в заблуждение, то корректно его маркировать.
Так если так хорошо сгенерировано, что непонятно, снято это или нейронка постаралась, как эту маркировку вообще можно проконтролировать платформам. Тут только уповать на гудвилл создателя контента. Опять же этож даст ложное чувство, а ну раз нет маркировки, значит правда.
Регулировать надо, а как – не понятно. Вот и включается "магия легких решений". Подход этот не работает. Вот почему:
Проблема авторства Идея "маркировать контент" зиждется на бинарной логике: текст создал ИЛИ человек, ИЛИ ИИ. Реальность сложнее.
Например, политик готовит речь с языковой моделью.
Модель предложила формулировки. Политик отбросил 50%, переписал 30%, добавил примеры из опыта. Кто автор? Если политик, то почему маркировать? Если модель, то это ложь — идеи не ее. Если соавторство, то где граница? Должен ли автор ставить "соавтора", если попросил его вычитать черновик? А если использовал автокоррекцию Word на машинном обучении?
Закон пытается провести границу там, где её нет. Интеллектуальное производство коллективно. Мы всегда используем инструменты - от словарей до поисковиков. ИИ - просто новый инструмент, более мощный и менее прозрачный. Но это не меняет фундаментальные характеристики процесса.
Невозможность верификации Предположим, закон принят. Как и кто проверит соблюдение? Детекторы ИИ-текста дают множество ошибок: человеческий текст помечается как машинный, если автор пишет структурно и грамотно. Качественный ИИ-текст, отредактированный человеком, проходит как авторский. Закон – в случае принятия - наказывает не обман, а честность. Тот, кто промаркировал текст добросовестно, несёт репутационные издержки. Тот, кто скрыл роль ИИ и слегка отредактировал, остаётся незамеченным.
Создаётся рынок обхода регулирования. Уже появляются сервисы "гуманизации" ИИ-текста. Закон стимулирует не корректное использование ИИ, а развитие технологий сокрытия его использования.
Что на самом деле сообщает маркировка? Допустим, я маркирую: "Текст создан с использованием ИИ". Что это говорит читателю? Если аудитория считает ИИ знаком деградации, мои идеи обесцениваются — хотя мышление остаётся моим. Если аудитория считает ИИ показателем прогрессивности, возникает ложное впечатление технологической компетентности — хотя инструмент вторичен.
Маркировка смещает фокус с качества мысли на инструмент её оформления. Это как если бы в 1990-е требовали указывать: "Текст набран на компьютере, а не написан на пишущей машинке". Имеет значение результат, а не способ производства — если только способ производства не искажает сам результат.
Настоящая проблема Депутат пытается регулировать симптом, игнорируя болезнь. Проблема не в том, что люди используют ИИ. Проблема в том, что ИИ проприетарен. В отличие от прялки или электричества, которые можно купить и владеть, языковые модели остаются собственностью корпораций. Пользователь арендует доступ, а не покупает инструмент.
Это создаёт критическую зависимость. Компания может в любой момент: поднять цены, изменить условия, ограничить функциональность, вообще закрыть доступ. Более того, модель содержит встроенную нормативность - представления о допустимом, правильном, токсичном. Это не нейтральный инструмент, как электричество, которому всё равно, что вы делаете под его светом.
Маркировка контента не решает вопрос технологического суверенитета. Она создаёт иллюзию контроля, отвлекая от реальной проблемы: кто владеет инфраструктурой производства смыслов в цифровую эпоху?
Критикуя - предлагаем Если законодатель действительно озабочен влиянием ИИ на общество, стоит регулировать не атрибуцию, а условия доступа и владения:• Требовать прозрачности алгоритмов для критически важных применений• Инвестировать в открытые альтернативы проприетарным системам• Защищать право пользователей на данные, созданные в процессе взаимодействия с ИИ• Контролировать использование ИИв сферах, где встроенная предвзятость критична (суды, наём, кредитование)
Маркировка - удобная имитация регулирования. Она позволяет депутату отчитаться: "Мы что-то делаем". Но на практике это создаёт абсурдные требования, стимулирует обход закона и не решает ни одной реальной проблемы.
Если соавторство, то где граница?
Вообще не вижу тут проблемы. Любое количество сгенерированного текста это соавторство. Стесняешься ставить в соавторы нейросеть – просто не используй её для генерации, а используешь – говори об этом честно. Зачем скрывать?
Что на самом деле сообщает маркировка? Допустим, я маркирую: "Текст создан с использованием ИИ". Что это говорит читателю?
Что контент создан с использованием ИИ. А дальше уже читателю самому решать, как к этому относиться. Это как состав продукта на упаковке, просто пиши правду и всё, дальше потребитель сам решит. Хотя указание состава тоже может смещать фокус со вкусовых качеств и внешнего вида продукта, на то из каких ингредиентов он приготовлен, никто к счастью пока не спорит, что он должен быть указан и это должно быть сделано честно.
Насчет "скрывать / не скрывать" - дело этики, я бы лично не был бы против не скрывать.
А вот требование госрегулирования этого процесса это уже плохо.
Это обесценивает ваш труд, докажи начальнику/заказчику что это твоя работа а не ии, уже есть истории где за это увольняли.
А я не вижу в этом проблемы для продуманного человека. Если ИИшный контент заходит на ура, то да и фиг с ним, наслаждайтесь. А если вам принципиально, то приложить усилия и выяснить источник, а от сомнительного отказаться. Ворчать, что в рот ИИшница бесконтрольно залетает... Ну такое это.
Потому что если заставить писать про инструмент того же Прикассо, то не удобно получится.
"Как управлять искусственным интеллектом не привлекая внимание санитаров" (с)
Краткий пересказ: если какие-то зарубежные ИИ сервисы все еще не заблокировали для жителей РФ сами создатели сервисов, то их заблокирует изнутри РКН
А внутри РФ будут вам суверенные ИИ на суверенных процессорах в суверенном интернете
Вот да, уже всё с негативом читаешь. Уже
Поэтому законопроект предусматривает установление отдельных требований «для чувствительных сфер применения искусственного интеллекта, например, в госуправлении». «При этом в коммерческом секторе обязательные требования по использованию ИИ не устанавливаются», — добавил Григоренко.
Превращается в: ИИ не должен видеть явные расхождения в налоговых декларациях и имуществе во владении у гос.управленцев и их близких. При чём, правильно же говорит, не нужно галлюцинации тащить туда где они за счёт рычага власти могут отравить жизнь тысячам. ИИ, действительно, нужно определять в законах. ИИ, действительно, манипулируют, подвержены цензуре и, насколько я помню, имеют скорее либеральные взгляды.
и, насколько я помню, имеют скорее либеральные взгляды.
Это проблема, вызывающая беспокойство и требующая регулирования с целью исправления?
Это потенциальный признак перекоса в обучающей выборке или каких-то ограничений после, который может быть в любую сторону. Точно так же модель может манипулировать чтобы ты питался здоровой едой и делал зарядку по утрам и будет тот же вопрос "вызывает ли это беспокойство?" предполагая что так и надо. Для меня идеальная модель прозрачная как стёклышко, не вносящая искажений, поэтому да, это потенциальный признак проблемы, о котором стоит помнить, пока не появилось информации что смещение политических взглядов является адекватным реальности.
Не совсем вас понял. Вы поставили либеральные взгляды (причем не точно, а "скорее") в один ряд с наличием у ИИ самоцензуры, и их стремлением кем-то манипулировать (что бы это ни значило). То есть по вашему вещам однозначно не позитивным. Вот я вас и спросил - либеральные взгляды это настолько плохо, что требует законодательного исправления.
пока не появилось информации что смещение политических взглядов является адекватным реальности.
И тут тоже не понятно. Смещение взглядов от чего к чему по вашему не является адекватным? квази-мыслящие автоматы должны быть строго аполитичными?
требует законодательного исправления
А. Так я, в принципе, скептически отношусь к законодательным регулировкам в контексте последних лет. Обозначить что такое ИИ и кто ответственен если он посоветует сделать токсичный соус из чеснока нужно, а всякую цензуру регулировать не нужно, потому что стабильно повторяющееся альтернативное мнение может быть воспринято как цензура и в свою очередь, быть подвергнуто обратной цензуре, чтобы мнение перестало быть альтернативным. Это не отменяет наличие проблемы.
Смещение взглядов от чего к чему по вашему не является адекватным?
От нейтральности же :)
квази-мыслящие автоматы должны быть строго аполитичными?
О нет, я даже думаю что на их квази-плечи может упасть гуманитарная революция, так как люди-гуманитарии явно не поспевают за технологическим прогрессом.
Для меня идеальная модель прозрачная как стёклышко, не вносящая искажений
Если модель натренирована на человеческих текстах, у нее будут искажения. Искажения вообще часть человеческой природы.
Где-то была история, про то, как GPT натренировали на текстах до 1900 года, что ли. Там модель удивлялась правам женщин.
Вот. И я бы тогда писал не "имеют скорее либеральные взгляды" а про консервативность и права женщин :) Проблема дизайна так же как и галюны и манипуляции остаётся проблемой даже если примерно понятно откуда ноги растут.
Проблема дизайна так же как и галюны и манипуляции остаётся проблемой даже если примерно понятно откуда ноги растут
Очень странно. Вы бы уже определились что это "проблема" или не проблема. Выше вы пишете, что допускаете, что ИИ могуть стать во главе гуманитарной революции, и тут же пишите, что это проблема.
Мне непонятно почему эти части не могут существовать вместе. Человек тоже имеет кучу проблем и ограничений, но многого революций совершил. При этом развитие нейронок не остановилось и какие-то проблемы стараются решить. Вон у грока нового галлюцинаций по бенчу стало меньш. Человека так быстро не перекодируешь на данный момент.
Закон не будет распространяться на использование ИИ в ситуациях, связанных с обороной, государственной безопасностью, чрезвычайными ситуациями и правопорядком
Короче дубинкой вас будет колотить робот Вертер на основе модной нескрепной несуверенной американской модели. А в саппорте вы будете общаться с суверенной кондовой исконно-посконной хренью.
Я дико извиняюсь, ни разу не в теме - а у нас есть суверенные ИИ? Ну которые не на основе чегота?
GigaChat, например.
И вообще есть подозрение, что "суверенным ИИ" будет тупо сертифицированный и прошедший все тесты на "чей Крым". Будет ли там в основе Qwen, дотренированный на российском датасете с нужными вопросами, мне кажется, государству будет все равно - главное, чтобы была сертификация.
кстати про тесты "чей Крым" - суверенный российский патриотичный МАХ этот тест на неделе не прошел)
Он на разве не на основе китайской модели?
На основе. Но, повторюсь - подозреваю, что будут смотреть только сертификацию финальной модели.
Можно конечно, поставить задачу "полной тренировки модели ИИ на российских данных", но это с высокой вероятностью будет тупо неконкурентоспособно.
Кстати, из аналогов - ну есть Mistral в Европе. Раньше были где-то ближе к лидерам, сейчас же выпустили модель Mistral 4, которая в полтора раза больше Qwen3 Next, и при этом хуже ее по метрикам. Подозреваю, не в последнюю очередь из-за кучу законодательных ограничений на разные инициативы в Европе. В Китае куча стартапов, в США куча стартапов, в Европе - один условный Mistral...
Все так, AI Act фактически похоронил развитие нейронок в Европе.
Да.
А еще увидел в тексте статьи эту фразу:
при заключении договоров с разработчиками моделей ИИ владельцы сервисов должны согласовать порядок передачи прав на созданные с использованием этих моделей результаты интеллектуальной деятельности. Эти условия должны соблюдать права авторов оригинальных работ, положенных в основу обучения моделей.
Если это пройдет, это просто капец. (Для тех, кто не понимает: в реальности невозможно согласовать лицензирование всех оригинальных работ, которые используются для тренировки моделей с реально значимыми результатами - по этому поводу судятся в США даже.)
Нет, ГигаЧат обучался с нуля, но архитектура взята с китайского DeepSeek.
Вы телевизор-то смотрите иногда? Там частенько идут сообщения, что в каждом утюге, чайнике и т.д. сидит уже Оно. Оно уже ускоренными темами внедряется во многие сферы деятельности и даже где-то внедрено и успешно пилит бюджет.
"""В частности, документ впервые закрепляет на законодательном уровне само понятие искусственного интеллекта""". А медики молодцы - впереди всех: """Национальный стандарт РФ ГОСТ Р 72484-2025 "Системы искусственного интеллекта в здравоохранении. Термины и определения. Классификация" (утв. и введен в действие приказом Федерального агентства по техническому регулированию и метрологии от 25 декабря 2025 г. N 1812-ст)""".
обеспечение равных прав и возможностей наций в области разработки и использования ИИ
при лидирующей роли России
предлагается обучать и разрабатывать ИИ только на территории РФ
Ох уж эти равные права.
отсутствие системного регулирования ... сдерживает развитие указанных технологий в стране, что грозит техническим отставанием, говорится в документе Минцифры.
Ммм... Вот оказывается что сдерживает.
защитить пользователей от скрытых манипуляций и алгоритмической дискриминации
что Алиса что Гигачат...на воре и шапка горит
о государственном регулировании искусственного интеллекта в РФ
Всё, можно отпевать.
Отлично, вот заблокируют щас "трансграничные технологии искусственного интеллекта" и меньше программистов смогут работодатели уволить.
В тексте такое определение ИИ, что если я в Экселе сделал линейную регрессию по данным в столбце, а данные в этом столбце обновляются, то я - разработчик ИИ.
доверенные модели [...] Чтобы получить этот статус, модель должна пройти проверку безопасности у ФСБ и ФСТЭК
Ахаха, мне кажется это тот случай, когда проверяющие будут не в восторге, и скорее всего, откажутся.
Потому что черт его знает, где там предательство заложено, среди миллиардов параметров. И даже паяльником не влезешь.
Мне интересно, а ВК-боты, которые залетают в любой пост, реагируя на ключевые слова, будут теперь себя маркировать?
Также в рамках законопроекта вводится понятие «трансграничные технологии ИИ» — те, создание или использование которых связано с двумя и более государствами. В законопроекте говорится, что их функционирование «может быть запрещено или ограничено» в случаях, которые установит законодательство.
Коротко: рынок мессенджеров полностью отжали, увидели куда ещё деньги текут, готовят предлоги чтоб и там монополизироваться...
Минцифры опубликовало законопроект о государственном регулировании искусственного интеллекта в РФ