Мошенничество с использованием мессенджеров, это такая обыденность,
Но в СКАМ то звонки блокировать не планируют. Почему? Считают что даже мошенники солидарны в этом вопросе и тоже побрезгруют пользоваться подобным? Или потому что там пользователей нет и не будет - некому звонить и некого защищать, так ведь?
Но покупать его, держать в квартире, заряжать, следить чтобы не стырили где-то, и думать что с ним делать если дождь начался или тебе внезапно надо в третью точку за 10 км - нее, тогда уж лучше машина.
Если не брать огромных тяжеленных монстров (для города они не нужны) - Kugoo S3 примитивный в сложенном виде 1м в длину, и весит всего 11.5 кг. Хранить легко, переносить легко (таскается одной рукой, а можно и вовсе сложенный взять за заденее колесо и передним катить без усилий). Лекго войти в лифт/метро/автобус для подскока при длинных дистанциях, заряжается 2.5ч, ездит 25км. Я свой вообще на работу в кабинет ношу (решает проблемы с дождем и холодом). Но так то пакет на голову (на бортовой компьютер) - достаточная защита от дождя если пришлось в него ехать.
5 лет девайсу с ездой 5/2 кргулый год (даже зимой), из доработок лишь замена колёс на 10" пневму от гироскутера (комфорт + накат) и вторая батарея на руль т.к раньше на нем на дачу ездил (17км в одну сторону) пока другой для дачи не приобрел.
Замечательный электрический "тормоз" с рекуперацией на бюджетных моделях. По мере роста скорости падает эффективность торможения (котроллер ограниченно может сбросить ток в батарею с больших скоростей), а по мере износа батаери и роста её внутренного сопротивления он вообше исчезает как таковой и самокат вместо торможения лишь замедляется.
Опять же - "священные коровы" велосипеды так примерно и ездят.
Я на дачу езжу вместо используемого в городе компантного стоячего самоката на сидячей кибитке уровня мини-электровела. Разгоняющейся до 35км/ч. Некоторые (многие) велосипедисты при этом меня играюче обгоняют. Страшные люди. А ведь им чуть что и падать выше, и лететь дальше...
Владельцы личных обычно и сами жить хотят, и самокат не перебирать полностью раз в 2 месяца, и батарею менять несколько реже чем раз в год.
В городе нет смысла ехать быстрее 20 по не пустым дорогам. Бордюры, ямы, светофоры, пешеходные переходы, люди в конце концов. На дистанции в 5-7 км по городской среде время в пути между 20 и 25 км/ч будет отличаться максимум в минуту. И средняя скорость все равно около 20 будет т.к большая часть пути будет торможение или разгон, сжирающий батарею.
Поэтому кстати обычно владельцев самоката сразу легко отличить от ездунов на арендных. И стоят правильнее, и едут грамотнее, и знают где разогнаться/где тормозить, и в целом их чаще встретишь на тех дорогах, где нет машин-бордюров-пешеходов, даже если они длинее по километражу. Ибо даже так время и расход меньше =)
Ага. Давно уже мечтаю, чтобы на регулируемых переходах выезжали из под земли (и скрывались туда) бортики. Дабы на зеленый для пешехода проезд для машин был физически ограничен, а на красный - для пешехода.
Хотя бы там, где нет выездов с поворота/перекрестка. Очень бы помогло от любящих проскочить яндекс-таксистов, автобусов не укладывающихся в расписание (и едущих не сбавляя скорости чуть ли не по людям), "опаздывающих" домой с работы в час пик (ведь потом же не пустят в квартиру, да?) и шальных чертей выскакивающих на пешеходный переход еще на оранжевый не глядя есть ли рядом машины и видят ли их вообще водители... Ну и велосипедистов с самокатчиками заставило бы стартовать с места на низкой скорости, а не лететь не сбавляя.
Любой человек риск. Сегодня он исправный работник в регионе за 30к в месяц, а завтра его ребенку срочно потребовалась дорогущая операция, или его едиснтвенное жилье сгорело в пожаре со всем имуществом или еше чего, и он обнес компанию.
Это поведение платежный систем уже 3 месяца как душит CivitAi на тему NSFW-моделек для генерации картинок, а годом ранее душило всю Adult-интустрию Японии (что лишило многие японские площадки поддержки Visa и MC ибо японцы не прогнулсь).
Это их добровольное нормальное повелление. А активистки тут чисто под шумок затесались как удобные козлы отпущения. Неразумно думать, что небольшая крикливая группа нонеймов из одной страны способна заставить что-то сделать крупнейшие международные платежные системы, если те сами не планировали делать подобное.
Если выйти из инфопузыря ИТ и применить утверждение к другой сфере, то его идиотизм начинает сиять новыми красками.
Гитары или синты сегодня стоят копейки. Каждый стал музыкантом?
DAW можно в 2 клика скачать. Каждый стал музыкантом?
Промпт в Suno можно за минуту набить. Каждый стал музыкантом?
Примеры не очень. Наличие гитары не играет на ней за вас. DAW не пишет музыку за вас. В отличии от вайбкодин инструментов.
Суно ближе. Там пока что просто страдает качество и у LLM пока что страдают тексты для Suno. Но 1000 и 1 говновоз от Udio вполне развлекли народ и принесли денег владельцам каналов на ютубе (не разу не являющимся музыкантами).
Но вот вам более приемлемый пример:
Промт в SD/Dalle/Midjorney/Flux можно набить за минуту. Каждый стал художником артов для рекламы?
У меня в лифте 7 из 10 рекламеных объявлений с генками. Приложения Сбера забиты генками. На рынке куча постеров/значков/блокнотов/календарей/открыток с генками. Пинтерест весь забит генками и вместо артов пенсионеры в вайбере друг другу теперь открытки от нейронки кидают. Так что таки не каждый, но многие стали стоковыми "художниками" и "художниками" для рекламы, просто скачав SD или зарегавшись в MJ.
Пока разработчик оптимизирует софт по памяти и процессорному времени - железо так дешевеет, что это уже никому не нужно.
Не везде и не всегда. Что-то RTX 3080 в требованиях к играм появилась раньше, чем железо такого уровня подешевело до приемлемых масштабов.
Статистика стима по видеокартам и цена в 2500-3000$ за б/у 4090 (про 5090 лучше вообще не вспоминать) говорят, что некоторым разработчиками лучше всё же заниматься оптимизацией своих кусков программного обеспечения. Хотя бы до тех пор, пока железо для их запуска не вернется к вилке 150-800$ за Low end - High end, а не к росту цен в геометрической прогрессии...
Судя по массовой истерии с законодательным запретом баллончиков и отверток с ножами в самых даже, казалось бы, адекватных юрисдикциях мира
Понимаете, в чем дело, запретить людей в принципе - это было бы конечно гораздо надежнее, и точно решило бы все связанные с человеками проблемы и угрозы, вот только не имело бы уже никакого смысла =)
любом малом шансе способна выдать 100% чужой код, стих, картину, фильм и все остальное
Предлагаю сразу заодно осудить математиков, открывших число Пи. В его составе всякое можно найти. ГПСЧ тоже осудить за плагиат - там тоже всякое может содержаться, и с некоторым шансом сложиться в фрагмент чего-либо 100% чужого и закопирайченного. А заодно заливку черным в пейнте равносторонних прямоугольников, тоже, знаете ли, чужое произведение.
Да и в целом запретить детям случайным образом по клавишам пианино бряцать, могут запатентованные нотные комбинации воспроизвести, а это плагиат. Мне продолжать?
Если можно математически описать функцию, которая при определенном (бессмысленном!) входе будет порождать (в результате честных математических операций над изначально случайными бессмысленными данными!) первый том Войны и Мира - сама функция не будет плагиатом и не будет содержать закопирайченных данных. И входной шум не будет.
LLM не возспроизведет вам полный код чужой на 100%, или стих, или картину. Лишь схожее в некоторых фрагментах. Она сгенерирует ПОХОЖЕЕ - но в деталях и т.д отличное. Диффузионки расшумляют случайный шум, а не воспроизводят чьи-то картины. И результат НАПРЯМУЮ зависит от входного шума. LLM пишут текст на основе вероятности токен за токеном, с солидной долей случайного шума.
И если последовательность токенов сложилась в какую-то уже существующую - то это не потому, что LLM злостно воспроизводит копирайченное, а потому что мы старались сделать функцию вероятности собирающую токены в осмысленный текст вместо совсем уж случайного набора. И так уж получилось, что осмысленных комбинаций не бесконечное множется, они ограничены правилами конкретного языка, состоят, о боже, из уже кем-то ранее придуманных слов, которые складываются в уже кем-то полностью или частично сказанные предложения и словосочетания.
И вот знаете, так получается, что если случайным образом перебирать и комбинировать существующие слова и словосочетания в осмысленные предложения - рано или поздно вы случайным образом соберете их в фрагменты текста, который кто-то уже собирал. И чем меньше фрагмент - тем раньше это случится. А для программирования, в котором язык сильно ограничен в сравнении с естественным как по словарному запасу, так и по правилам построения корреткных коснтрукций - эта вероятность еще выше. Я на 100% уверен, что изучая программирование даже без подсматривания в чужой код вы писали присвоения переменных, сортировки и циклы, которые на 100% являются чьим-то чужим кодом, а не вашим уникальным творением.
А зацитировать целую книгу (или даже целую главу), воспроизвести целую картину, выдать (пусть даже простейший) цельный чужой проект даже на популярном языке - и LLM не сможет. Лишь выдать какие-то млекие фрагменты, которые с большой долей вероятности могли быть собраны если собирались не совсем уж броском кубика, а по определенным правилам.
Она даже результаты поиска, находящиеся напрямую в её текущем контексте, на 100% зацитировать не сможет если они больше чем 2-3 предложения. Ибо часть уже зацитированных токенов повлияют на вероятность новых, отклоняя её от повторения в сторону случайности.
Оно создаст схожий до степени смешения (если оверфитнуто), но оно не хранит, а потому не копирует. Оно именно создаст (с нуля, токен за токеном из списка наиболее вероятных * рандом семплера). А если вы поменяете seed - повторно уже можнет и не воспроизвести, при всё том же запросе и остальных параметрах.
Если бы оно хранило и был надежный, стабильный порядок дейтсвий для получения "хранимых" данных - уже давно умерли бы все архиваторы и у нас был волшебный LLM-архиватор (или дифуззионный архиватор), способный сжимать петабайты любой информации до размеров флешки. А потом копировать с флешки на диск нужные вам куски (раз уж он берет и копирует).
Да вот только что-то не видать таких архиваторов. Угадаете почему?
1) Работал поиск. 2) Страницы (даже тяжелые, со скриптами и флешем, насышенные картинками и элементами интерфейса) не весили по 150+мб. Столько весил альбом музыки в mp3 целиком. А теперь столько весят одни лишь скрипты аналитики gmail...
3) Раньше, ВНЕЗАПНО, для передачи текстового сообщения на 2 строчки весом в несколько Кб (а то и несколько байт) не требовался 4G канал. Более того, по 2G (edge) грузились сайты. С Картиками, КАРЛ!!! А сейчас EDGE не достаточно даже чтобы телега показала сообщение или обновила статус "онлайн" (при том что в пуш то же сообщение вполне прилетает).
В итоге сегодня, с 200-500 мбит/с GPON каналом интернет работает медленее и хуже, чем раньше с 5 мбит/с ADSL.
Ага. Также можно и про OpenAI сказать. Ну обучить сеть на больших объемах чатов и переписок они обучили. Однако трансформер то так и не осили придумать. Только взяли уже созданное у гугла и доработали. Как обычно.
И что, это уменьшит их заслугу?
Наработки китайцев достаточно прорывные и много чего изменившие. Без них вполне возможно нам бы всё еще суперкластеры для моделей уровня GPT 3.5 требовались. А благодаря им мы имеем полноценный DeepSeek, запускающийся на 1 потребительской видяхе и 128гб RAM.
Технологически это огромный пласт исследовательской работы. Возможно даже больший (и более наукоемкий) чем банально обучить большой трансформер (не собственного изобретения) на переписках из интернета.
Видеогенераторы. OpenAI показали Sora но не релизили. И пейперов по архитектуре не релизили. Т.е просто показали идею "ну видео тоже можно генерить" и всё. Все китайские видеогенераторы создавались с нуля абсолютно независимо, имеют разные архитектуры, и почти все из них превосходят Sora на голову, а то и на две. И почти все они Open Source с кучей пейперов. Да, уже после них (после!!) вышел Google Veo, который еще лушче. Но я с большой долей вероятности готов поставить, что в его основе лежат наработки с китайских пейперов, и далеко не с одного.
А если вы в целом подымите публикации по ML за последние несколько лет, вам вполне очевидно будет, что там большинство китайцы.
Человек рекомбинирует уже виденное/слышанное/иным образом ранее поданное на вход. Поместите человека с рождения в свето-звук-изолированную камеру без тактильного отклика - и он вам не создаст ничего из описанного - нет датасета.
И в мозгу человека это только один из входных потоков
Одна модальности сети - это временное искуственное ограничение. Уже вполне себе (пусть и на костылях) делают мультимодальные решения. Я ж не написал, что текущие нейронки == мозг. Я написал что они делаются по образцу и являются очень грубым, ограниченным и костыльным подобием, перенесенным на совершенно иную архитектуру (что накладывает определенные особенности и ограничения). Причем разные нейронки - подобие разных фукнций мозга. Но базовые общие идеи, которые в них закладывались при создании их архитектур - черпались из природного образца в виде нашего мозга и органов чувств.
Смыслом вы назвали тэги, которые назначил категоризатор выборки? Других хоть сколько натягиваемых на "смысл" штук в сетке попросту нету.
Ну уж извините, ущербные человеки пока что не придумали лучших способов описывать смысл разсположенных на изображении пикселей, кроме как человеческой речью и письменностью. Как только придумают, как передавать в разметку что-то еще - уверен, сразу же добавят.
Но вот вы, будучи не ИИ, а живым белковым разумом, способны ли передать смысл изображенитя, допустим арт с условной Хатсуне Мику, другому человеку, не банально описывая его словами? Потому что пока что люди передают друг другу информацию именно там. И если для передачи другому человеку этого +/- достаточно, то и для нейронки сгодится, ИМХО. Другой вопрос к красноречивости учителя/передающего информацию, и к ограничению вычислительных мощностей, ибо можно описать картинку на 3 абзаца текста, а можно "1girl, wide hips, blue hair".
Ну и да, латент можно покрутить и в отрыве от текстового описания, к которому он привязан. и получить много интересных и необычных вещей, которые ну явно никак в таком виде в датасете не фигурировали, но при этом и просто шумом не являются.
Неевклидово придумал человек, и вообразил человек же. И возможность это вообразить хоть и сложнотренируемая - но возможность существующая.
Ага. Несколько видов. Как и сам термин "Эвклидово". А их может быть и еще несколько видов, которые мы вообразить не можем. Тут и описание придуманных то состоит из пригодных к воображению известных нам понятий. Как и развернутый тессеракт - лишь рисунок из понятным нам компонентов, а не сам тессеракт. Его мы как раз вообразить номрально, т.к он должен выглядеть, не можем - ограничены 3-мерным пространством восприятия. Имеем лишь математическую абстракцию (опять же - известный и понятный нам язык) для описания непонятных нам многомерных понятий. Мы не представляем новое. Мы проедставляем комбинацию старого, описывающего новое.
Всё что вы сможете написать или нарисовать, при разборе на мелкие компоненты будет так или иначе состоять из тех вещей, которые вы уже знаете (по сути из вашего датасета), а не из чего-то нового. Вы порождаете что-то составное из этих компонентов, собирая их в тот набор, которого ранее не встречали, и называете это новым. Но вы не привносите новых базовых компонентов в этот конструктор. Для других это выглдит новым потому что они либо не владели частью известных вам базовых компонентов (иной датасет), либо не комбинировали в том же виде (иной seed).
Генеративные нейросети делают то же самое. В чистом виде они вам могут из датасета породить кучу новой хтонической дичи. Не столь разнообразной как человек - но, будем честны, в сравнении с человеком у них и датасет, и модельность, и размерности модели сильно ограничены. Однако суть схожа. И лишь люди уже принудительно загоняют их в рамки известного с помщью привязки к конкретным понятиям при разметке.
А т.к у искуственных моделей, в отличии от человека, (пока что) нет свободы воли и сознания - модель порождает то, что её заставили порождать и что от неё просят, а не то, что потенциально могла бы.
Сдается мне что рост трафика реддита обоснован не подсказками реддита в гугле, а тем, что поиск гугла настолько скурвился, что кроме SEO-буллщита ничего не выдает.
И если раньше надо было искать любую инфу с inurl:forum, то со смертью форумов это превратилось в inurl:reddit, ибо иначе живых обсуждений и отзвывов от людей попросту не найти.
Так что алгоритмы гугла мб и виноваты в росте реддита, но уж явно не тем образом, каким тут описано.
Вы не поверите, но сетка тоже не копирует. Нельзя вместить сотни терабайт информации в 5гб веса модели. Нет такого алгоритма сжатия, даже с потерями. Оно не может хранить и рекомбинировать пиксели по тегам. Это бы нарушало законы известной нам физики.
ИИ видит как раз те самые зависимости и связи между изображением и его смыслом. Алгоритм того, как это было нарисовано.
Насмотревшийся художник не копирует комбинации пикселей с пометкой на какие токены/тэги они это наанализировали.
Художник в просматриваемом им понимает...композицию... что в тех пикселях есть рука, а что волосы.
Ну т.е художник буквально связывает увиденные пиксели с хранящимися в голове токенами. Глядя на картину, вы запомните как выглядит "рука", но если вас попросят нарисовать “手” или כף יד или हाथ - вы врядли сможете нарисовать это, не сконвертировав запрос в понятные вам "теги". Ибо вы не видите там 手 и हाथ. Вы видите там уже известную вам ассоциацию, которой обучились (подобно ИИ) с момента рождения, наблюдая набор пикселей IRL и слыша от окружающих слово "Рука", а затем, примерно после 4-х лет связали его с набором букв Р, У, К, А, расставленным в нужном порядке.
А если я дам вам изображение не антропоморфного (и не похожего на известных животных структурно) пришельца в не-трехмерном не-евклидовом пространстве и попрошу нарисовать его с иного ракурса - вы его и не нарисуете. В лучшем случае попытаетесь +/- повторить части увиденного. Ибо для вас это будет по большей части мешанина пикселей, ни с чем не связанная. И всё ваше "художник в просматриваемом им понимает" уйдет лесом, ибо не понимает. Сеть еще не обучена понимать.
Опишите пожалуйста мне руку, не используя известные вам слова (теги с которыми связано понятие) или референсные изображения. А мыслеобраз у вас в голове - это по сути латент, из которого декодер делает вам изображение/слово/и т.д.
Когда человек начинает изучать новые языки - он даже с ходу не может на заученные слова вызывать нужный мыслеобраз (и наоброт), ибо изначально иностранные токены связывает токенами знакомого языка и лишь из них он извлекает смысл. А "думать" незнакомыми словами вы начинаете сильно позже с практикой, когда ваша внутренняя нейронка научится связывать знакомое "латентное пространство" с новыми для вас "токенами" и "тегами", и лишь после этого вы перестаете переводить в голове и начинаете понимать сразу смысл иностранной речи.
Нейронки делались по образу и подобию нашего разума. Очень упрощенному и схематичному подобию, с горой временных и очень грубо иммитирующих различные функции костылей, с поправкой на иную аппаратную архитектуру, но тем не мнеее...
Суд припомнил нейрохудожнику Закон об авторских правах 1976-го года. Согласно ему, творение должно быть создано человеком.
Тупое крысятничество.
Созданное в Photoshop не должно защиаться - оно создано цифровым инструментом, художник просто кнопки нажимал. То, что сейчас интсрумент стал более совершенным - не делает инструмент создателем т.к инструмент сам не запускается и сам ничего не создает.
Для любителей говорить "это другое" - не другое.
Если условно абстракционист или Артемий Лебедев херакнет хитрый градиет из стандарных инструментов фотошопа (т.е полностью алгоримическую вещь), а дальше кликнет в паре мест готовой скачанной текстурной кистью (тоже полностью алгоримическую вещь) - его авторского вклада еще меньше, чем в написании достаточно креативного промта (я уж молчу про инпейнтинг, подключение рефов, контролнетов, масок, и прочего более сложного добра для ИИ генерации).
У фотографов природы зачада еще проще - просто навести аппаратуру (компьютер с оптикой) в нужном направлении и кнопку нажать. Участие человека еще меньше чем в ИИ. И кто-то скажет "ну так надо же знать куда навести, когда навести и как навести! Азаза искуство!!!". Да, надо, иначе посредственная хреньв качестве фото будет. НО!! Промт тоже надо знать как ввести, какой ввести, как грамотно развесовку по токенам раскидать и как еще кучу всякой херни к этому наподключать. Иначе тоже не шедевр будет, а шляпа никому не нужная. Ну а дальше нажать кнопку и комп сделает "бррр". Прям как у фотографов - тоже нажать кнопку и мини-комп с оптикой сделает "Бррр".
Но в СКАМ то звонки блокировать не планируют. Почему? Считают что даже мошенники солидарны в этом вопросе и тоже побрезгруют пользоваться подобным? Или потому что там пользователей нет и не будет - некому звонить и некого защищать, так ведь?
Если не брать огромных тяжеленных монстров (для города они не нужны) - Kugoo S3 примитивный в сложенном виде 1м в длину, и весит всего 11.5 кг. Хранить легко, переносить легко (таскается одной рукой, а можно и вовсе сложенный взять за заденее колесо и передним катить без усилий). Лекго войти в лифт/метро/автобус для подскока при длинных дистанциях, заряжается 2.5ч, ездит 25км. Я свой вообще на работу в кабинет ношу (решает проблемы с дождем и холодом). Но так то пакет на голову (на бортовой компьютер) - достаточная защита от дождя если пришлось в него ехать.
5 лет девайсу с ездой 5/2 кргулый год (даже зимой), из доработок лишь замена колёс на 10" пневму от гироскутера (комфорт + накат) и вторая батарея на руль т.к раньше на нем на дачу ездил (17км в одну сторону) пока другой для дачи не приобрел.
Замечательный электрический "тормоз" с рекуперацией на бюджетных моделях. По мере роста скорости падает эффективность торможения (котроллер ограниченно может сбросить ток в батарею с больших скоростей), а по мере износа батаери и роста её внутренного сопротивления он вообше исчезает как таковой и самокат вместо торможения лишь замедляется.
Я на дачу езжу вместо используемого в городе компантного стоячего самоката на сидячей кибитке уровня мини-электровела. Разгоняющейся до 35км/ч. Некоторые (многие) велосипедисты при этом меня играюче обгоняют. Страшные люди. А ведь им чуть что и падать выше, и лететь дальше...
Владельцы личных обычно и сами жить хотят, и самокат не перебирать полностью раз в 2 месяца, и батарею менять несколько реже чем раз в год.
В городе нет смысла ехать быстрее 20 по не пустым дорогам. Бордюры, ямы, светофоры, пешеходные переходы, люди в конце концов. На дистанции в 5-7 км по городской среде время в пути между 20 и 25 км/ч будет отличаться максимум в минуту. И средняя скорость все равно около 20 будет т.к большая часть пути будет торможение или разгон, сжирающий батарею.
Поэтому кстати обычно владельцев самоката сразу легко отличить от ездунов на арендных. И стоят правильнее, и едут грамотнее, и знают где разогнаться/где тормозить, и в целом их чаще встретишь на тех дорогах, где нет машин-бордюров-пешеходов, даже если они длинее по километражу. Ибо даже так время и расход меньше =)
Ага. Давно уже мечтаю, чтобы на регулируемых переходах выезжали из под земли (и скрывались туда) бортики. Дабы на зеленый для пешехода проезд для машин был физически ограничен, а на красный - для пешехода.
Хотя бы там, где нет выездов с поворота/перекрестка. Очень бы помогло от любящих проскочить яндекс-таксистов, автобусов не укладывающихся в расписание (и едущих не сбавляя скорости чуть ли не по людям), "опаздывающих" домой с работы в час пик (ведь потом же не пустят в квартиру, да?) и шальных чертей выскакивающих на пешеходный переход еще на оранжевый не глядя есть ли рядом машины и видят ли их вообще водители... Ну и велосипедистов с самокатчиками заставило бы стартовать с места на низкой скорости, а не лететь не сбавляя.
Любой человек риск. Сегодня он исправный работник в регионе за 30к в месяц, а завтра его ребенку срочно потребовалась дорогущая операция, или его едиснтвенное жилье сгорело в пожаре со всем имуществом или еше чего, и он обнес компанию.
Это поведение платежный систем уже 3 месяца как душит CivitAi на тему NSFW-моделек для генерации картинок, а годом ранее душило всю Adult-интустрию Японии (что лишило многие японские площадки поддержки Visa и MC ибо японцы не прогнулсь).
Это их добровольное нормальное повелление. А активистки тут чисто под шумок затесались как удобные козлы отпущения. Неразумно думать, что небольшая крикливая группа нонеймов из одной страны способна заставить что-то сделать крупнейшие международные платежные системы, если те сами не планировали делать подобное.
Примеры не очень. Наличие гитары не играет на ней за вас. DAW не пишет музыку за вас. В отличии от вайбкодин инструментов.
Суно ближе. Там пока что просто страдает качество и у LLM пока что страдают тексты для Suno. Но 1000 и 1 говновоз от Udio вполне развлекли народ и принесли денег владельцам каналов на ютубе (не разу не являющимся музыкантами).
Но вот вам более приемлемый пример:
Промт в SD/Dalle/Midjorney/Flux можно набить за минуту. Каждый стал художником артов для рекламы?
У меня в лифте 7 из 10 рекламеных объявлений с генками. Приложения Сбера забиты генками. На рынке куча постеров/значков/блокнотов/календарей/открыток с генками. Пинтерест весь забит генками и вместо артов пенсионеры в вайбере друг другу теперь открытки от нейронки кидают. Так что таки не каждый, но многие стали стоковыми "художниками" и "художниками" для рекламы, просто скачав SD или зарегавшись в MJ.
Не везде и не всегда. Что-то RTX 3080 в требованиях к играм появилась раньше, чем железо такого уровня подешевело до приемлемых масштабов.
Статистика стима по видеокартам и цена в 2500-3000$ за б/у 4090 (про 5090 лучше вообще не вспоминать) говорят, что некоторым разработчиками лучше всё же заниматься оптимизацией своих кусков программного обеспечения. Хотя бы до тех пор, пока железо для их запуска не вернется к вилке 150-800$ за Low end - High end, а не к росту цен в геометрической прогрессии...
Понимаете, в чем дело, запретить людей в принципе - это было бы конечно гораздо надежнее, и точно решило бы все связанные с человеками проблемы и угрозы, вот только не имело бы уже никакого смысла =)
Предлагаю сразу заодно осудить математиков, открывших число Пи. В его составе всякое можно найти. ГПСЧ тоже осудить за плагиат - там тоже всякое может содержаться, и с некоторым шансом сложиться в фрагмент чего-либо 100% чужого и закопирайченного. А заодно заливку черным в пейнте равносторонних прямоугольников, тоже, знаете ли, чужое произведение.
Да и в целом запретить детям случайным образом по клавишам пианино бряцать, могут запатентованные нотные комбинации воспроизвести, а это плагиат. Мне продолжать?
Если можно математически описать функцию, которая при определенном (бессмысленном!) входе будет порождать (в результате честных математических операций над изначально случайными бессмысленными данными!) первый том Войны и Мира - сама функция не будет плагиатом и не будет содержать закопирайченных данных. И входной шум не будет.
LLM не возспроизведет вам полный код чужой на 100%, или стих, или картину. Лишь схожее в некоторых фрагментах. Она сгенерирует ПОХОЖЕЕ - но в деталях и т.д отличное. Диффузионки расшумляют случайный шум, а не воспроизводят чьи-то картины. И результат НАПРЯМУЮ зависит от входного шума. LLM пишут текст на основе вероятности токен за токеном, с солидной долей случайного шума.
И если последовательность токенов сложилась в какую-то уже существующую - то это не потому, что LLM злостно воспроизводит копирайченное, а потому что мы старались сделать функцию вероятности собирающую токены в осмысленный текст вместо совсем уж случайного набора. И так уж получилось, что осмысленных комбинаций не бесконечное множется, они ограничены правилами конкретного языка, состоят, о боже, из уже кем-то ранее придуманных слов, которые складываются в уже кем-то полностью или частично сказанные предложения и словосочетания.
И вот знаете, так получается, что если случайным образом перебирать и комбинировать существующие слова и словосочетания в осмысленные предложения - рано или поздно вы случайным образом соберете их в фрагменты текста, который кто-то уже собирал. И чем меньше фрагмент - тем раньше это случится. А для программирования, в котором язык сильно ограничен в сравнении с естественным как по словарному запасу, так и по правилам построения корреткных коснтрукций - эта вероятность еще выше. Я на 100% уверен, что изучая программирование даже без подсматривания в чужой код вы писали присвоения переменных, сортировки и циклы, которые на 100% являются чьим-то чужим кодом, а не вашим уникальным творением.
А зацитировать целую книгу (или даже целую главу), воспроизвести целую картину, выдать (пусть даже простейший) цельный чужой проект даже на популярном языке - и LLM не сможет. Лишь выдать какие-то млекие фрагменты, которые с большой долей вероятности могли быть собраны если собирались не совсем уж броском кубика, а по определенным правилам.
Она даже результаты поиска, находящиеся напрямую в её текущем контексте, на 100% зацитировать не сможет если они больше чем 2-3 предложения. Ибо часть уже зацитированных токенов повлияют на вероятность новых, отклоняя её от повторения в сторону случайности.
Оно создаст схожий до степени смешения (если оверфитнуто), но оно не хранит, а потому не копирует. Оно именно создаст (с нуля, токен за токеном из списка наиболее вероятных * рандом семплера). А если вы поменяете seed - повторно уже можнет и не воспроизвести, при всё том же запросе и остальных параметрах.
Если бы оно хранило и был надежный, стабильный порядок дейтсвий для получения "хранимых" данных - уже давно умерли бы все архиваторы и у нас был волшебный LLM-архиватор (или дифуззионный архиватор), способный сжимать петабайты любой информации до размеров флешки. А потом копировать с флешки на диск нужные вам куски (раз уж он берет и копирует).
Да вот только что-то не видать таких архиваторов. Угадаете почему?
Раньше:
1) Работал поиск.
2) Страницы (даже тяжелые, со скриптами и флешем, насышенные картинками и элементами интерфейса) не весили по 150+мб. Столько весил альбом музыки в mp3 целиком. А теперь столько весят одни лишь скрипты аналитики gmail...
3) Раньше, ВНЕЗАПНО, для передачи текстового сообщения на 2 строчки весом в несколько Кб (а то и несколько байт) не требовался 4G канал. Более того, по 2G (edge) грузились сайты. С Картиками, КАРЛ!!! А сейчас EDGE не достаточно даже чтобы телега показала сообщение или обновила статус "онлайн" (при том что в пуш то же сообщение вполне прилетает).
В итоге сегодня, с 200-500 мбит/с GPON каналом интернет работает медленее и хуже, чем раньше с 5 мбит/с ADSL.
Ага. Также можно и про OpenAI сказать. Ну обучить сеть на больших объемах чатов и переписок они обучили. Однако трансформер то так и не осили придумать. Только взяли уже созданное у гугла и доработали. Как обычно.
И что, это уменьшит их заслугу?
Наработки китайцев достаточно прорывные и много чего изменившие. Без них вполне возможно нам бы всё еще суперкластеры для моделей уровня GPT 3.5 требовались. А благодаря им мы имеем полноценный DeepSeek, запускающийся на 1 потребительской видяхе и 128гб RAM.
Технологически это огромный пласт исследовательской работы. Возможно даже больший (и более наукоемкий) чем банально обучить большой трансформер (не собственного изобретения) на переписках из интернета.
Видеогенераторы. OpenAI показали Sora но не релизили. И пейперов по архитектуре не релизили. Т.е просто показали идею "ну видео тоже можно генерить" и всё. Все китайские видеогенераторы создавались с нуля абсолютно независимо, имеют разные архитектуры, и почти все из них превосходят Sora на голову, а то и на две. И почти все они Open Source с кучей пейперов. Да, уже после них (после!!) вышел Google Veo, который еще лушче. Но я с большой долей вероятности готов поставить, что в его основе лежат наработки с китайских пейперов, и далеко не с одного.
А если вы в целом подымите публикации по ML за последние несколько лет, вам вполне очевидно будет, что там большинство китайцы.
Человек рекомбинирует уже виденное/слышанное/иным образом ранее поданное на вход. Поместите человека с рождения в свето-звук-изолированную камеру без тактильного отклика - и он вам не создаст ничего из описанного - нет датасета.
Одна модальности сети - это временное искуственное ограничение. Уже вполне себе (пусть и на костылях) делают мультимодальные решения. Я ж не написал, что текущие нейронки == мозг. Я написал что они делаются по образцу и являются очень грубым, ограниченным и костыльным подобием, перенесенным на совершенно иную архитектуру (что накладывает определенные особенности и ограничения). Причем разные нейронки - подобие разных фукнций мозга. Но базовые общие идеи, которые в них закладывались при создании их архитектур - черпались из природного образца в виде нашего мозга и органов чувств.
Ну уж извините, ущербные человеки пока что не придумали лучших способов описывать смысл разсположенных на изображении пикселей, кроме как человеческой речью и письменностью. Как только придумают, как передавать в разметку что-то еще - уверен, сразу же добавят.
Но вот вы, будучи не ИИ, а живым белковым разумом, способны ли передать смысл изображенитя, допустим арт с условной Хатсуне Мику, другому человеку, не банально описывая его словами? Потому что пока что люди передают друг другу информацию именно там. И если для передачи другому человеку этого +/- достаточно, то и для нейронки сгодится, ИМХО. Другой вопрос к красноречивости учителя/передающего информацию, и к ограничению вычислительных мощностей, ибо можно описать картинку на 3 абзаца текста, а можно "1girl, wide hips, blue hair".
Ну и да, латент можно покрутить и в отрыве от текстового описания, к которому он привязан. и получить много интересных и необычных вещей, которые ну явно никак в таком виде в датасете не фигурировали, но при этом и просто шумом не являются.
Ага. Несколько видов. Как и сам термин "Эвклидово". А их может быть и еще несколько видов, которые мы вообразить не можем. Тут и описание придуманных то состоит из пригодных к воображению известных нам понятий. Как и развернутый тессеракт - лишь рисунок из понятным нам компонентов, а не сам тессеракт. Его мы как раз вообразить номрально, т.к он должен выглядеть, не можем - ограничены 3-мерным пространством восприятия. Имеем лишь математическую абстракцию (опять же - известный и понятный нам язык) для описания непонятных нам многомерных понятий. Мы не представляем новое. Мы проедставляем комбинацию старого, описывающего новое.
Всё что вы сможете написать или нарисовать, при разборе на мелкие компоненты будет так или иначе состоять из тех вещей, которые вы уже знаете (по сути из вашего датасета), а не из чего-то нового. Вы порождаете что-то составное из этих компонентов, собирая их в тот набор, которого ранее не встречали, и называете это новым. Но вы не привносите новых базовых компонентов в этот конструктор. Для других это выглдит новым потому что они либо не владели частью известных вам базовых компонентов (иной датасет), либо не комбинировали в том же виде (иной seed).
Генеративные нейросети делают то же самое. В чистом виде они вам могут из датасета породить кучу новой хтонической дичи. Не столь разнообразной как человек - но, будем честны, в сравнении с человеком у них и датасет, и модельность, и размерности модели сильно ограничены. Однако суть схожа. И лишь люди уже принудительно загоняют их в рамки известного с помщью привязки к конкретным понятиям при разметке.
А т.к у искуственных моделей, в отличии от человека, (пока что) нет свободы воли и сознания - модель порождает то, что её заставили порождать и что от неё просят, а не то, что потенциально могла бы.
Архитектурно тот же Deepseek в LLM очень много нового принес например. Того, что остальные потом растащили и раскопировали.
Сдается мне что рост трафика реддита обоснован не подсказками реддита в гугле, а тем, что поиск гугла настолько скурвился, что кроме SEO-буллщита ничего не выдает.
И если раньше надо было искать любую инфу с inurl:forum, то со смертью форумов это превратилось в inurl:reddit, ибо иначе живых обсуждений и отзвывов от людей попросту не найти.
Так что алгоритмы гугла мб и виноваты в росте реддита, но уж явно не тем образом, каким тут описано.
Вы не поверите, но сетка тоже не копирует. Нельзя вместить сотни терабайт информации в 5гб веса модели. Нет такого алгоритма сжатия, даже с потерями. Оно не может хранить и рекомбинировать пиксели по тегам. Это бы нарушало законы известной нам физики.
ИИ видит как раз те самые зависимости и связи между изображением и его смыслом. Алгоритм того, как это было нарисовано.
Ну т.е художник буквально связывает увиденные пиксели с хранящимися в голове токенами.
Глядя на картину, вы запомните как выглядит "рука", но если вас попросят нарисовать “手” или כף יד или हाथ - вы врядли сможете нарисовать это, не сконвертировав запрос в понятные вам "теги". Ибо вы не видите там 手 и हाथ. Вы видите там уже известную вам ассоциацию, которой обучились (подобно ИИ) с момента рождения, наблюдая набор пикселей IRL и слыша от окружающих слово "Рука", а затем, примерно после 4-х лет связали его с набором букв Р, У, К, А, расставленным в нужном порядке.
А если я дам вам изображение не антропоморфного (и не похожего на известных животных структурно) пришельца в не-трехмерном не-евклидовом пространстве и попрошу нарисовать его с иного ракурса - вы его и не нарисуете. В лучшем случае попытаетесь +/- повторить части увиденного. Ибо для вас это будет по большей части мешанина пикселей, ни с чем не связанная. И всё ваше "художник в просматриваемом им понимает" уйдет лесом, ибо не понимает. Сеть еще не обучена понимать.
Опишите пожалуйста мне руку, не используя известные вам слова (теги с которыми связано понятие) или референсные изображения. А мыслеобраз у вас в голове - это по сути латент, из которого декодер делает вам изображение/слово/и т.д.
Когда человек начинает изучать новые языки - он даже с ходу не может на заученные слова вызывать нужный мыслеобраз (и наоброт), ибо изначально иностранные токены связывает токенами знакомого языка и лишь из них он извлекает смысл. А "думать" незнакомыми словами вы начинаете сильно позже с практикой, когда ваша внутренняя нейронка научится связывать знакомое "латентное пространство" с новыми для вас "токенами" и "тегами", и лишь после этого вы перестаете переводить в голове и начинаете понимать сразу смысл иностранной речи.
Нейронки делались по образу и подобию нашего разума. Очень упрощенному и схематичному подобию, с горой временных и очень грубо иммитирующих различные функции костылей, с поправкой на иную аппаратную архитектуру, но тем не мнеее...
Тупое крысятничество.
Созданное в Photoshop не должно защиаться - оно создано цифровым инструментом, художник просто кнопки нажимал. То, что сейчас интсрумент стал более совершенным - не делает инструмент создателем т.к инструмент сам не запускается и сам ничего не создает.
Для любителей говорить "это другое" - не другое.
Если условно абстракционист или Артемий Лебедев херакнет хитрый градиет из стандарных инструментов фотошопа (т.е полностью алгоримическую вещь), а дальше кликнет в паре мест готовой скачанной текстурной кистью (тоже полностью алгоримическую вещь) - его авторского вклада еще меньше, чем в написании достаточно креативного промта (я уж молчу про инпейнтинг, подключение рефов, контролнетов, масок, и прочего более сложного добра для ИИ генерации).
У фотографов природы зачада еще проще - просто навести аппаратуру (компьютер с оптикой) в нужном направлении и кнопку нажать. Участие человека еще меньше чем в ИИ. И кто-то скажет "ну так надо же знать куда навести, когда навести и как навести! Азаза искуство!!!". Да, надо, иначе посредственная хреньв качестве фото будет. НО!! Промт тоже надо знать как ввести, какой ввести, как грамотно развесовку по токенам раскидать и как еще кучу всякой херни к этому наподключать. Иначе тоже не шедевр будет, а шляпа никому не нужная. Ну а дальше нажать кнопку и комп сделает "бррр". Прям как у фотографов - тоже нажать кнопку и мини-комп с оптикой сделает "Бррр".