All streams
Search
Write a publication
Pull to refresh
6
0.1
Константин @logran

Пользователь

Send message

UI и на китайских "ноутбуках" на селероне быстрее работает… До тех пор пока не надо поработать в любом графическом приложении (даже банальном paint.net) или с графическим планшетом. Тогда каждое движение планшетом или тачпадом вызывает каскадные микро-фризы "не отвечает" на рабочее окно на 0.3с с мерцанием и переключением на другие окна. Неизлечимо.


А вин10 тем временем пашет как часы.

Работа с нейросеткой мне видится похожей на работу с очень навороченным и сложным, но все же техническим приспособлением по перемешиванию чужих изображений, схожим по объему вклада чего-то нового в творчество.

Тогда фотография — не искусство. Причем любая. Это просто работа с навороченным и сложным техническим приспособлением. Задал настройки, ракурс, свет, нажал кнопку — и дальше оно само запечатлело реальный (не созданный автором) уже существовавший объект, само его фильтром байера свело и в RAW/JPG сохранило. Творческой деятельности не больше чем с нейронкой, в основном тупо технические навыки.


А если таки установка ракурса/настроек/света для получения хорошего результата — это искусство, то и установка гиперпараметров, настроек, модулей, обучение и использование подключаемых эмбедингков/лор/гиперсетей и, самое главное, составление корректного позитивного и негативного промта с корректной развесовкой — тоже искусство.


Без всего этого сеть сделает "бррр" и выдаст мешанину инсульто-подобной трехголово-восьмирукой фигни покрытой пальцами, на каких бы шедеврах она не училась.

2) результат сети очень похож на это изображение.

Причем критично чтобы он буквально был похож (т.е изображал тот же объект в ± том же ракурсе и т.д). Т.к если похож стиль, но нарисовано то чего исходный автор ни разу не рисовал — то это уже не плагиат (а стиль авторским правом не охраняется, только конкретные изображения).

Студенты при просмотре тоже в мозг фотки загружают. И рисуют не из жизненного опыта, а перетасовывая загруженные фотки и изображения реального мира, загруженные из зрительного аппарата. И творят не своё искусство, а коллаж из увиденного ранее по жизни. Слепой вам ничего подобного не нарисует — не из чего коллаж делать.


Норм упрощение.

Если вы в РФ, то к вам придёт музей, и выкатит вам нехреновый счёт.

И уже наверняка выкатил всем кто с Мона Лизой рисует комиксы, мемасы, картинки с другими персонажами по мотивам и т.д? И публикующим площадкам (реактор, пикабу, акомикс) тоже наверняка? Не похоже.

Любой более-менее скиловый художник большинство бытовых стилей повторить может куда точнее чем нейросети. Например, человек рисующий аниме-фанарты высокого качества повторит без напряга почти любой современный аниме-стиль и половину стилей фан-артеров из инстаграма. Быстрее, лучше и точнее нейросети, которая даже обучаясь на тысячах артов чисто 1 персонажа не может точно его элементы одежды повторить...


Люди в целом учатся быстрее и качественнее, просто нейросеть не ограничена одним мозгом и может параллелиться на сотни и тысячи устройств (но при этом учится всё равно люто неэффективно).

Приближенную апроксимацию любых данных при должном успехе и из числа Пи (или из любого генератора случайных последовательностей) с некоторой вероятностью при определенном старании извлечь можно. Означает ли это, что генераторы случайных последовательностей являются производными от этих данных?


JPG яляется математическим (пусть и не точным) описанием конкретного bitmap-изображения, а не случайным набором шума, которое при некотором старании с некоторой вероятностью может сложиться во что-то похожее.
Код нейронной сети таковыим не является — он вообще не для картинок, его задача оперировать коэффициентами весов модели. Любой совместимой модели, а не от конкретной картинки. Веса модели нейронной сети тоже таковыми не являются — они создаются без всяких картинок, иницализируясь рандомом или нулями, и в дальнейшем туда никакой информации о картинках не пишется ни в каком виде (как и вообще какая-либо новая информация) — там только меняются уже существовавшие (до всяких картинок) коэффициенты. Так что веса тоже не производная от картинки — они созданы из рандома, и картинка на их коэффициенты имеет весьма опосредованное значение. Примерно как цветовой профиль монитора имеет отношение к нарушению патента на цвет если вы случайно выберете не патентованный оттенок, а на мониторе увидите патентованный...

то в чем непонятность требования не ходить за его картинками?

В том что он требует "не ходить" не у Stability.AI/OpenAI/Google которые ходят и смотрят, а у каталога ссылок, который никуда ни за чем не ходит и ничего не учит.

Но ваша нейросеть — просто инструмент для зарабатывания бабок.
Бабки просто отдайте за использование чужого "труда".

Коммерческий художник, обучившийся на трудах и работах других художников и фотографов — просто инструмент для зарабатывания бабок. Пусть тоже отдаст бабки всем, чьими работами он вдохновлялся при обучении, чьи работы использовал как референсы, на чьих персонажей фан-арты на патреоне рисовал и т.д и т.п. Ибо этого художника от нейронки радикально отличает только белковый носитель вместо кремниевого.


Разрешить рисовать только слепым или запертым в одиночной камере с рождения и чужих работ точно не видевшим. Чтобы точно на чужом не обучались и чужой труд в своих работах не использовали.

о-вторых, в программировании важен функционал кода, а не имитация чьей-то манеры.

Именно по-этому наверно вместо нечитаемого (но обладающего нужным функционалом) спагетти-кода примудано ООП, паттерны проектирования и прочие веселые шаблоны, по сути являющиеся иммитацией конкретного стиля, кем-то когда-то придумаенного.


стиль написания кода выявить — сложнее, чем в визуальном искусстве.

Ничуть. Лингивстический анализ для текстовой информации имеется, и характерные для человека вещи выявить может и в коде.


В-четвертых, нейросеть — не человек, это продукт с настройками.

Мозг человека — нейросеть с настройками. Модели нейросети — не продукт с настройками. Есть алгоритм их обучения и их применения — это код, с настройками. Но сами модели — черный ящик, и что творится внутри него понятно весьма смутно (хоть и понятнее мозга, ибо тут хотя бы архитектуру мы сами проектируем)

Да не вопрос. Но смотреть она может только на JPG файлы, полученные через камеру и записанные на носитель, ибо это генеративная сеть, а не робот общего назначения, способный прийти самостоятельно к горам. Считайте что инвалид. Но таки да, авторы модели могут ей нафоткать сами и скормить.


Вот только давайте догда вы при выборе курорта или страны для переезда будете не чужие фото/видео/обзоры нужного места смотреть и читать, а сами поедете смотреть своими глазами. Ибо зачем вы на чьи-то фотки интересущего объекта смотрите для получения информации? Свои сделайте.

У Вас видимо пруфы есть на это.

Зайдите на их сайт, посмотрите их проекты. У них нет ни одной генеративной text2image модели. Они не этим занимаются. С таким же успехом у меня нет пруфов, что яндекс и гугл не учат генеративные модели на своей выдаче.


И в котором есть условия использования, с которыми Вы согласились на его использование другими.

Могу показать вам 1000 и 1 реп без каких-либо условий и лицензий (т.е по-умолчанию условия площадки). Художник свои работы на публичный доступ тоже на площадках выкладывает. И я очень глубоко сомневаюсь что в их условиях сказано, что смотреть на изображения имеет право только белковый интеллект/человек и что выводы из просмотренного может делать только белковый интеллект/человек. Они запрещают копирование и переиспользование, но ничем из этого обучающаяся модель не занимается. Она буквально "смотрит и делает выводы", меняя лишь коэфициенты своих весов, причем заранее созданных при инициализации модели, еще до увиденной первой картинки. Она даже новых весов внутри себя она не создает, в отличии от человека, новые нейронные связи формируюещего (т.е по сути куда больше выносящего из увиденного).

На это он вроде согласен. И на просмотр человеком согласен. А на именно "использование в коммерческих целях" не согласен.

Претензии у него к LAION. Laion учит на датасете? Нет. Laion просто аггрегирует ссылки. И выгладывает их (а не фото) на некоммерческой основе для всех (в отличии от гугла, который делает это на коммерческой основе, монетизируя рекламой). А кто по ним уже пройдет и посмотрит — от них не зависит.


Это как предъявлять претензии к гуглу за то, что кто-то учит сеть на результатах запроса к google image search.


Напишите код. Его просмотрит нейросеть, а вам потом денег не даст. Патамушта она сама код написала, а вы тут ни при чём.

Напишите код, залейте его в публичный гитхаб-реп, который виден всем, под лицезией не запрещающий его просмотр, изучение и формирование определенных выводов по результату изучения. Кто-то пройдет и посмотрит, освоит на примере вашего кода какие-то годные ООП-практики (не заучивая сам код и сам код никак напрямую и косвенно не используя) и потом пойдет писать свой код на работе (т.е за деньги), используя освоенные практики. И вам, внезапно, не заплатит. Есть в этом что-нибудь странное? Вроде нет. А нейронки именно так и делают.

Просмотр людьми и использование в программном мега-продукте - разные юридические категории. Тем более, что мега-продукт нацелен на извлечения прибыли, а просмотр разрешен ради рекламы способностей фотографа.

Ну значит удалить фотографа из всех поисковых систем. Ибо хранят ссылки? Хранят. Просматривает (и индексирует) их робот? Робот. Корпорации владеющие поисковыми системами являются мега-корпорациями? Да. Делают это ради получения прибыли (в отличии от некоммерческой laion) ?- делают. Вывод? Нафиг из выдачи ссылки на фото (а из поиска по картинкам - и сами фото в виде кэшированных превью). Пусть через сарафанное радио ищут.

Если продавец продает себе в минус или 0, то в чем его выгода от такого развода?

А давайте действительно проверим. Только цену роутера гляньте не на али, а на таобао. И после этого сравните, остается ли продавец в плюсе после 20$ возврата от весьма солидной наценки на али или нет. Вангую что остается.

Оказалось — в тёплой воде рыбкам живётся лучше.

От рыбок зависит. Нашим местным рыбкам (не карасю и ротану — этим на всё пофиг) в теплой воде так-то вообще не очень живется ибо кислород в теплой воде не очень задерживается. Окуни летом прям у берега на пляжах каматозные от нехватки кислорода периодически, можно ходить руками ловить… (летом вечно беда аквариум для них охлаждать)


А вот всякие инвазивные полу-тропические виды, закинутые не очень сознательными аквариумистами, и пресноводные креветки вроде макробрахиумов — вполне будут жить и процветать.

Реальные кейсы? Их есть у меня. Тривиальный дуал-контуринг для реконструкции меша в stl по слайсами GPT не смогла за неделю мучений. В тех случаях, когда её код был вообще работоспособен и не дергал не существующие либы и методы — он в лучшем случае делал кривую рандомную 2D STL. Делал он её 3 раза (из примерно 140+ попыток) и 2 из них были марширующими кубами.
Очень заслуживающие доверия решения, точно надо вставлять в свой код...


Единственное, для чего оно годится прям хорошо — простенькие bash/powershell скрипты для домашнего использования генерить, и то лишь если лень в синтаксис вникнуть.


P.S. А вообще ваши юзкейсы мне мой опыт рисования фан.арта со Stable Diffusion очень напоминают. Пока просишь "нарисовать что-то" — всё шикарно, красиво, радует глаз и кажется норм. До тех пор пока не оказывается что надо нарисовать что-то конкретное. И тогда ни файнтюн модели, ни Lora оверфитнутая на конкретного персонажа (чтобы наверняка) не дают сгенерить фан-арт на конкретного персонажа. И по факту — час генерим (чтобы получить из кучи УГ хоть одну нормальную базу) и еще 2-3 дня дорисовываем/перерисовываем/дорабатываем руками, возращаясь к нейронке лишь чтобы сгладить покрас в img2img. Умей я рисовать хоть немного (реально — хотя бы чуть-чуть) — и быстрее было бы рисовать с нуля, попросив у SD лишь скетч для идеи. С GPT точно так же.

А с поддержкой кучи расширений, которые есть для автоматика, как там?

Ибо он конечно кривулина та еще и автоматик кодит как рандом на душу положит, но он де-факто стандарт и всё в первую очередь пилится под него.

Но с выходом MS Teams Work preview убедился, что это не совсем так. Летает, память не жрёт как не в себя. А он, внезапно, тоже на web!
На сегодня, скорее всего, скорость работы больше зависит от прямых рук кодеров.

Да. Вот только разница в том, что та производительность, которая в Electron будет достигаться болью и страданием ради оптимизаций на каждом шагу, в условных Delphi/C++/Net.core будет из коробки. Т.е прям сразу. На нормальных компилируемых языках для десктопа можно писать лютый говнокод, который по потреблению ресурсов будет ± таким же как насмерть заоптимизированный JS. А представьте, что будет если этот говнокод еще и оптимизировать?)

Можно упираться и плеваться, но для конечного пользователя важно, чтобы было в первую очередь красиво, а уже во вторую — быстро.

Серьезно?
Проведите простой, но очень (максимально) наглядный эксперимент. Возьмите старенький нетбук с Atom N455 и 2gb ddr2 RAM (MSI Wind U135 например).
В одном из вариантов отсавьте идущую в комплекте WinXP и офис 2003. Во втором варианте накатите Win7 + Office 2019.


Дайте пользователям открыть большой перегруженный doc-файл. И узнайте, что им понравится больше — старая XP с древним дубовым 2003 офисом, который стартанет там примерно за 2-3с и еще за 10 прогрузит весь документ, или красивая Win7 с загрузкой в 8 минут, открытием 2019 офиса (стильно-модно молодежного) еще в почти минуту и парой минут на загрузку документа.


Что-то мне подсказывает, что выбор будет отнюдь не в пользу блестящих свисто-перделок, а в пользу страшного но нормально работающего.


У меня так провайдер A1 родителям на древнем выдаваемом им TV-боксе (который и без того был древней дохлой тормозной дичью) нобновил 2 раза андроид и накатил вместо старого ПО своё новое, и задержа в переключении пунктов меню сменилась с терпимых 1-3с до 12-40с (почти до минуты! переключение пунктов в меню чтоб фильм найти!!). Зато красиво, да...

Information

Rating
3,302-nd
Location
Гомель, Гомельская обл., Беларусь
Date of birth
Registered
Activity