Комментарии 24
Очень странное решение. Например, берём какую-то модель или код с GitHub. А там автор под псевдонимом, ну или под какой-то правдоподобной фамилией, но никто не даст гарантии, что она настоящая. И что с этим делать? Запретить использовать open-source?
Если ты должен раскрыть свою фамилию, но не раскрыл - результатом будет не запрет опенсорса, а уголовное преследование (если тебя найдут).
Тут надо смотреть, к чему применяется закон.
Только ли к законченным продуктам, продаваемым как ИИ, или также к библиотекам.
Если я сделал библиотечку типа tensorflow, выложил на GitHub и не подписался, это статья или нет? А если numpy, или opencv? А если просто libc? Пахнет запретом на любой анонимный open-source, ведь его могут использовать в ИИ-проектах.
Если запрет не касается библиотек и компонент, это большая дыра: дробишь проект на компоненты, разработчиков компонент не указываешь, а собирает всё какой-то один человек, который согласился засветиться.
Если я сделал библиотечку типа tensorflow, выложил на GitHub и не подписался, это статья или нет? А если numpy, или opencv? А если просто libc?
Опытным судьям, виртуозно смешивающие теплое с мягким, достаточно будет трехдневных курсов повышения квалификации → чтобы разобраться со всем этим.
(сарказм)
Никогда не вводи законы для которых не сможешь обеспечить исполнение.
С фирмами, конечно это пройдет… частично, может быть. А с независимыми разработчиками свободного ИИ?
То же самое можно про крипту сказать: вы никогда не поймаете анонимов, которые что-то там между собой переводят. И вы не имеете права регулировать, это же наши собственные деньги, а не ваши государственные. Но нет — ловят, запрещают, регулируют. Точнее, пытаются. Часто получается.
Забавно. Раньше маркетинг был "у нас используется ИИ" даже если внутри был простейший алгоритм. А теперь будет наоборот (сарказм)
Батлерианский джихад, известный также как Великое Восстание, Джихад Слуг и Великий джихад ( 201 ДГ - 108 ДГ) — «крестовый поход» против компьютеров, мыслящих машин и наделённых разумом роботов. Два века хаоса. В результате был свергнут бог машинного разума и поднята новая концепция: «Человек не может быть заменён». Это время стало таламической паузой для всего человечества. Люди увидели, что их Боги наполнены страхом их амбиций. Лидеры многих религий начали встречаться для обмена мнениями.
Один из пунктов предполагает идентификацию тех, кто обучал алгоритмы.
Сервисы типа Толоки и UHRS задумчиво чешут голову.
Он только создал и уже не выходит?
Маск создал Опен.Аи и во второй раз сможет создать
Это так не работает. Можно даже на примере GSC (разработчики сталкера). Был крутой дяденька с деньгами и были основные разработчики. Пока все было хорошо, разработка шла нормально. Как только дяденька с деньгами послал на йух основных разработчиков, решив, что незаменимых нет, все пошло по одному месту. Те самые разработчики кстати хорошо себя чувствуют, в отличии от gsc.
Хочешь скачать tensorflow — приложи селфи с паспортом.
В США, как я понимаю, речь идёт не о разработчиках вообще, а именно о "тех, кто обучал алгоритмы". Т.е. это специальные люди, которые потом будут отвечать в суде за "плохо обученный" алгоритм.
Хотя начинать надо с другого - с обозначения произведений, созданных нейросетями. "Эта реалистичная картинка создана нейросетью, тут изображена не настоящая реальность". А журналисты, наверное, будут обязаны делать фото только на плёночные камеры и хранить оригинал плёнки как доказательство реальности фото.
""". Т.е. это специальные люди, которые потом будут отвечать в суде за "плохо обученный" алгоритм """
о первый здравый камент, речь конечно об этом, даже не просто плохо обученный, а намеренно "плохо обученный" или намеренно испорченный. Т е скоро нужны будут спецы аудиту коммерческих моделей.
Да и это еще что, вот в будущем видимо появится нужна в психологе для андроидоф и виртуальных личностей.
На плёночную камеру можно фотографировать с экрана компьютера, например. Или с распечатанных в фотосалоне фоток.
Вы читали SNAFF Пелевина? Если нет - почитайте. Храмовый целлулоид что-то напомнил.
Сторонники такого решения утверждают, что оно способствует прозрачности: предоставляя информацию о том, кто создаёт программное обеспечение, компании помогут выявлять потенциальные баги.
По-моему, сторонники такого решения покорили вершину логики.
Если будет разработано что-то значимое, власти хотят иметь способ добраться до создателей, чтобы через них контролировать процесс.
Я должен запостить что я все это предсказывал еще в 2019м году в своем докладе на ИИ конфе DataStart, прям на первых минутах доклада: Прозрачный и безопасный искусственный интеллект: подходы к технологическому решению.
И далее весь доклад предлагались решения этой проблемы.
Ну вот этот час и настал.
https://www.youtube.com/watch?v=3WAVQ4ABaPo
В ЕС, Китае и США рассматривают законы, обязывающие компании раскрывать личности AI-разработчиков