Давать какую-то оценку применению технологий - не задача ML-щика
Don't say that he's hypocritical Say rather that he's apolitical "Once the rockets are up, who cares where they come down? That's not my department!" says Wernher von Braun
Нет. Я констатирую наблюдения. ML-щики дали "толпе" говномёт. "Толпа" радостно им воспользовалась. Теперь всё в говне. При этом говномёт может и полезный, если применять ограниченно или в нужных местах. Но толпе-то что до этого? Каждый в ней преследовал свои цели.
Классическая трагедия общин.
Давайте еще повесим бытовые убийства на производителей ножей
Сову тянете. А вот я ещё не забыл время, когда рекламщики открыли для себя смс с рекламой с рандомных одноразовых номеров. А потом ещё и звонки так же. Первое кое-как зарегулировали, второе - нет. И теперь соотношение сигнал-шум по звонкам не в пользу нужных.
мы в тупике. мы уже настолько глубоко в этой войне, что если заставить тегировать, то, из-за ассоциаций, это убьет абсолютно любое нейротворчество, даже совершенно безобидные вещи вроде озвучки видео на английском через TTS для неносителей
Ну да. Вы сами это признали. Это называется "засрать поляну" (что собственно и произошло, и о чём текущая статья).
и против этого не было ни публичных протестов, ни юридических ограничений.
Потому что массово не афишировалось вне специфических кругов. Fair use и их применимость никто не отменял.
И тут неожиданно это стало "неэтично" просто потому что это теперь угрожает работе художников
Ну как минимум - это ещё вопрос лицензии под которой данные были выложены. Как максимум - ещё и копирайта.
PS. Учитывая то, что LLM нередко выдавали куски кода с точностью до... подозрительно похожие на уже имеющиеся - закончится это скорее всего тем, что любой генерированный текст/изображение невозможно будет закопирайтить как минимум.
Моя претензия к ним в том, что они так пишут под любыми нейрокартинками, а не только под плохими. Если бы они критиковали конструктивно, то мы бы с ними не были в состоянии войны
Я даже понимаю, почему так пишут. На некоторых ресурсах AI-"художники" наглухо засрали их тем самым AI Slop, тегировать естественно отказываются, ведь иначе их 'творчество' никто не смотрит и ещё и обзывают тех, кто недоволен в лучшем случае луддитами.
(И это я не трогаю ещё этический вопрос обучения коммерческой нейросетки на доступных ресурсах).
После такого, естественно что часть людей любой генерированный контент триггерит.
Пальмовцы не стали морочить себе голову, как отличать U от V, и сделали для своей распознавалки новый, более удобный для идентификации букв алфавит. И это сработало.
Ну правильно - проще обучать ту нейросетку, которая больше (в голове пользователя). Я тут задумался после вашего комментария и понял, что эти печатные буквы я пишу в том же направлении, как на palm. Palm у меня был, и рукописный ввод на нём был настолько интуитивный, что я с него на 5-й версии ОС мог админить железо по ssh. (ввод текста не вызывал ощущения "что так медленно-то?!", за счёт того что почти всё, что требовалось вводить из спецсимволов можно было ввести с рукописного ввода). На фоне этого более новая nokia n800 вызывала... удивление "качеством" системы ввода.
Оно все как-то да работало, кто спорит. Но тот же рукописный ввод до сих пор толком не осилили - без долгого обучения распознавание не работает с приемлемым результатом, а без него Newton отличался от конкурентов только воу-малфункцией. Воу! А, оно же не работает...
Ну вообще-то много чем отличался. И даже распознавалок к второй версии операционки там было две - обучаемая (словами целиком) и block printing, которая распознавала печатные буквы - вот та уже работала идеально. Но было поздно...
Впрочем, не будем забывать, что в конечном счете мы обсуждаем очередной высер нейросети в жанре "Х %sayname%, которые..."
Кстати спасибо за напоминание, что на 1024x768 на старых мониторах/картах с частотами было плохо (уже успел подзабыть всё). А не комфортно было как раз из-за того, что ниже где-то 70 Гц на CRT монитор неприятно смотреть - он мерцает. (Это было одной из причин,почему вытягивали частоту кадров по возможности выше. Поэтому же - я точно помню, что я пробовал на своём хорошем 17" мониторе вытянуть 1600x1200. И упёрся в частоту развёртки в 60Гц, мерцание и лёгкое 'мыло' по горизонтали. Покрутил, повертел и понял, что 1280x1024 на 75Гц смотрится в разы лучше ;-) ).
Для пруфа - можешь посмотреть характеристики ноутбуков на vcfed или по FCC-ID непосредственно на FCC.
Ноутбуки, где-то до конца 90-х воспринимались как "ну хоть как-то мобильно". С урезанием железа и производительности "до упора". Собственно я ещё помню прямую рекомендацию примерно того же периода - если можете обойтись без ноутбука - не берите, берите настольный. За те же деньги будет сильно выше производительность и качество картинки. Что-то приличное по графике/разрешению начало появляться примерно с эпохи Pentium 2 в них.
0.41 - это что-то телевизионное, по-моему. можете примерно посчитать: 14" диагональ (реальная видимая область - меньше). = 355 мм 355/0.41 = 867 чётких пикселей по диагонали. - как раз примерно 640x480 и не выше. Ни разу такого живьём не видел, хотя мониторов насмотрелся разных годов выпуска, с где-то середины 90-х.
Вообще забавно, что исходно так сильно делали упор на рукописном вводе, когда реализовать его на том слабом железе было очень сложно, в отличии от виртуальной клавиатуры, которая реализуется элементарно.
А всё просто - экран того времени - маленький. Клавиатура - ещё меньше получается (надо же видеть, куда пишешь). На некоторых КПК (palm) изначально зона рукописного ввода была отдельно от экрана и не занимала полезное место. Дальше - рукописный ввод, при вводе по буквам, не критичен к точности попадания, но критичен к качеству скольжения и непрерывности. Идеально для старых экранов (они как раз были достаточно гладкими). По результатам - на том же Palm экранная клавиатура проигрывала по скорости и удобству рукописному вводу в разы. (точно выцелить мелкую кнопочку, или махнуть стилусом в одно движение?). На winmobile, говорят было не настолько.
На емкостном же экране - я не представляю как хорошо сделать чёткий ввод мелких штрихов, даже со стилусом.
А что, информация об источниках данных в датасетах - открытая? И публичная?
Да примерно как и везде. По вашему нужно любой феномен зарегулировать сразу после появления? Вот станет заметным - тогда отрегулируют. Как и всегда.
Спам вот появился в 80-х, а зарегулирован был относительно недавно.
;-)
чей копирайт и откуда - сами найдёте.
Нет. Я констатирую наблюдения. ML-щики дали "толпе" говномёт. "Толпа" радостно им воспользовалась. Теперь всё в говне. При этом говномёт может и полезный, если применять ограниченно или в нужных местах. Но толпе-то что до этого? Каждый в ней преследовал свои цели.
Классическая трагедия общин.
Сову тянете. А вот я ещё не забыл время, когда рекламщики открыли для себя смс с рекламой с рандомных одноразовых номеров. А потом ещё и звонки так же. Первое кое-как зарегулировали, второе - нет. И теперь соотношение сигнал-шум по звонкам не в пользу нужных.
Ну да. Вы сами это признали. Это называется "засрать поляну" (что собственно и произошло, и о чём текущая статья).
Разницу между плагиатом и статистикой же не надо объяснять?
Не игнорирую.
Компании пытаются вытащить всё, до чего дотянутся. Бывает. Война щита и меча.
Вот собственно компании пытаясь дотянуться до любых данных начали "случайно" игнорировать robots.txt и класть сервера своими ботами. По итогу появились https://zadzmo.org/code/nepenthes/ и https://anubis.techaro.lol/ .
(и эту проблему признают многие: https://arstechnica.com/tech-policy/2025/01/ai-haters-build-tarpits-to-trap-and-trick-ai-scrapers-that-ignore-robots-txt/ )
Потому что массово не афишировалось вне специфических кругов. Fair use и их применимость никто не отменял.
Ну как минимум - это ещё вопрос лицензии под которой данные были выложены.
Как максимум - ещё и копирайта.
PS. Учитывая то, что LLM нередко выдавали куски кода с точностью до... подозрительно похожие на уже имеющиеся - закончится это скорее всего тем, что любой генерированный текст/изображение невозможно будет закопирайтить как минимум.
Я даже понимаю, почему так пишут. На некоторых ресурсах AI-"художники" наглухо засрали их тем самым AI Slop, тегировать естественно отказываются, ведь иначе их 'творчество' никто не смотрит и ещё и обзывают тех, кто недоволен в лучшем случае луддитами.
(И это я не трогаю ещё этический вопрос обучения коммерческой нейросетки на доступных ресурсах).
После такого, естественно что часть людей любой генерированный контент триггерит.
https://habr.com/en/companies/ispsystem/articles/736182/#comment_25563842 (собственно)
А что не так с их сайтами? Плотно, информативно, работает. Уж всяко лучше "плиточек" и "серое на сером".
И конечно же вас такое никогда коснуться не может, да?
За копипастные ответы без чего либо полезного.
У нас есть нерешённые вопросы - почему не работает YouTube в России.
А свой VK и Одноглазников засуньте подальше. Решайте проблему здесь.
Да, именно так. Запрос CAA записей будет делать именно Letsencrypt.
Ну правильно - проще обучать ту нейросетку, которая больше (в голове пользователя).
Я тут задумался после вашего комментария и понял, что эти печатные буквы я пишу в том же направлении, как на palm.
Palm у меня был, и рукописный ввод на нём был настолько интуитивный, что я с него на 5-й версии ОС мог админить железо по ssh. (ввод текста не вызывал ощущения "что так медленно-то?!", за счёт того что почти всё, что требовалось вводить из спецсимволов можно было ввести с рукописного ввода).
На фоне этого более новая nokia n800 вызывала... удивление "качеством" системы ввода.
Ну вообще-то много чем отличался. И даже распознавалок к второй версии операционки там было две - обучаемая (словами целиком) и block printing, которая распознавала печатные буквы - вот та уже работала идеально. Но было поздно...
Customer engagement über alles :-p
Кстати спасибо за напоминание, что на 1024x768 на старых мониторах/картах с частотами было плохо (уже успел подзабыть всё).
А не комфортно было как раз из-за того, что ниже где-то 70 Гц на CRT монитор неприятно смотреть - он мерцает.
(Это было одной из причин,почему вытягивали частоту кадров по возможности выше.
Поэтому же - я точно помню, что я пробовал на своём хорошем 17" мониторе вытянуть 1600x1200. И упёрся в частоту развёртки в 60Гц, мерцание и лёгкое 'мыло' по горизонтали. Покрутил, повертел и понял, что 1280x1024 на 75Гц смотрится в разы лучше ;-) ).
Ноутбуки, где-то до конца 90-х воспринимались как "ну хоть как-то мобильно". С урезанием железа и производительности "до упора". Собственно я ещё помню прямую рекомендацию примерно того же периода - если можете обойтись без ноутбука - не берите, берите настольный. За те же деньги будет сильно выше производительность и качество картинки.
Что-то приличное по графике/разрешению начало появляться примерно с эпохи Pentium 2 в них.
0.41 - это что-то телевизионное, по-моему. можете примерно посчитать:
14" диагональ (реальная видимая область - меньше). = 355 мм
355/0.41 = 867 чётких пикселей по диагонали. - как раз примерно 640x480 и не выше.
Ни разу такого живьём не видел, хотя мониторов насмотрелся разных годов выпуска, с где-то середины 90-х.
https://dmitry.gr/?r=05.Projects&proj=25. VMU Hacking ;-)
А всё просто - экран того времени - маленький. Клавиатура - ещё меньше получается (надо же видеть, куда пишешь). На некоторых КПК (palm) изначально зона рукописного ввода была отдельно от экрана и не занимала полезное место.
Дальше - рукописный ввод, при вводе по буквам, не критичен к точности попадания, но критичен к качеству скольжения и непрерывности. Идеально для старых экранов (они как раз были достаточно гладкими).
По результатам - на том же Palm экранная клавиатура проигрывала по скорости и удобству рукописному вводу в разы. (точно выцелить мелкую кнопочку, или махнуть стилусом в одно движение?).
На winmobile, говорят было не настолько.
На емкостном же экране - я не представляю как хорошо сделать чёткий ввод мелких штрихов, даже со стилусом.