Согласен. Надо с гугла требовать % от просмотренной мною на их ресурсах рекламы. А то зарабатывают на мне и не делятся. И с Адоба кэшбэк за покупку ФШ - тоже же на мне зарабатывают :)
На фулл прокачке — полезнейший. Шушеру ломает за пару подбросов с расшибанием о землю, а боссам чудесно сбивает каст ульты и прочих противных вещей, от которых сложно увернуться.
Гарнитура на самом деле годная… если забыть про цену :)
Способна частично заменять и комп и телик, но сидеть долго в водолазной маске тяжко (и лицу жарко, и шея страдает), а для устройства временного пользования — ну слишком уж догхыра просят...
запрещают любые денежные переводы в "такую-растакую эту самую" страну.
Ага. Только тут не денежный перевод. А посылать вещи (как физические, так и цифровые) никто вроде не запрещал (иначе бы закрыли почтовое сообщение). Человеком из США товар честно куплен за деньги в США. А потом он просто свою собственность решает передать.
На личном опыте, проворачиваю регулярно. На русском, понятное дело, не работает, но на наглийском воду льет и переусложняет текст замечательно (студентам для увеличения объема текста в 1 главе диплома и расширения введения димплома прям вообще на ура заходит)
Только если вы ей изначально на вход дичь подали. Если вы подали на вход вручную набранную верную информацию в размере 1 абзаца, а просите переписать развернуто в 3 абзаца c SEO/Дипломной водой и красивыми вводными конструкциями/зубодробительным канцеляритом — она вам перепишет вашу же информацию, просто налив воды и приведя её в идеальный для диплома сложночитаемый вид.
Нормальный ассистент. Ассистент-человек вам точно так же и факты наискажает, и личное предвзятое восприятие принесет, и просто кучу ошибок навали.
Весь профит ChatGPT в том, что она заменяет не одного ассистента в подчинении, а целый табор таких ассистентов загрузивших в голову всю выдачу гугла, которые толпой решают задачу быстрее и эффективнее.
Да — как и эта толпа ассистентов, ГПТ может имеющуюся информацию путать, неверно инетрпретировать и т.д. Ибо она не справочник. Весь профит в том, что она позволяет вам решать задачи не точнее, но быстрее. Там где вы раньше тратили 3 дня на продумывание, гугление и написание + еще 2 дня на перепроверку и поиск ошибок — теперь вы тратите 1 день на написание + всё те же 2 дня на перепроверку при том же итоговом результате, имея в итоге сэкономленные 2 дня времени, которые можно потратить на что-то более полезное.
Среди ремонтников существует мнение, что AMD уступает в качестве NVIDIA, а некоторые модели красных, так вообще сыпятся.
Надежность несомненно стоит учитывать. Особенно 3060Ti на памяти Hunix от Palit, MSI и Gigabyte. Эти точно могут рейтинг сдвинуть, причем не в пользу НеВидео...
(но увы, CUDA есть только на них, и пока ML-сообщество не пересядет на ROCm — красные только для игрушек)
ейчас происходит в обратном направлении. АТТ утверждает что будут помехи, и что СпейсЭкс это РЭБ для их существующих технологий использующих G-Block. СпейсЭкс утверждает что не будет.
В только Space-X использует частоты, которые уже принадлежат T-Mobile и уже спользуются и что-то никаких помех AT&T не доставляют. Или может AT&T попросту остуствует в регионах, где мобильное покрытие предоставляет T-Mobile и не пересекается с ними? Сомневаюсь.
сеть понимает пользователя, если после нескольких уточнений задачи полученный рисунок удовлетворяет пользователя по всем критериям (стилистика, композиция, детали), чем меньше требуется уточнений, тем лучше сеть понимает.
Я скажу больше — практически все живые художники понимают заказчика лишь после нескольких (многих) уточнений, и при этом все равно рисуют не совсем то, что видел в своей голове заказчик. Даже если им предоставить черновые наброски, референсы и палитру цветов (но это буквально то же самое, что подсунуть позу, контур и эскиз в ControlNet для SD).
Тут проблема скорее в другом — мы не можем описать свои пожелания в форме, допускающей лишь единственно верное однозначное толкование. Ни для человека, ни для нейронки. Если бы мы могли выдать ей на вход не абстрактное и неточное текстовое описание, а например параметры начального шума (весьма однозначное описание желаемого) для дальнейшей работы — мы бы получили ровно то что просили с мелкими отличиями. Собственно фиксация сида именно так и работает =)
можно было установить чистую XP, активировать, а затем накатить SP1. В последующих редакциях Windows естественно подобного бага уже не было (во всяком случае известного мне).
Накатить чистую Win7, применить Loader by DAZ и обновить до Win10 — тоже было популярным путем получения "лицензионной" win10 :)
Точно не в этом. При таком подходе картинка получается очень сильно более мыльной с цветными градиентами. У них ни градиентов, ни мыла, у них просто артефакты. Их артефакты не получатся даже если на первых шагах генерацию оборвать. Единственный момент когда там есть квадраты — это 1 шаг денойза, когда формируется шум. Но тогда там нет картинки.
Я ознакомился с работой. И даже попытался воспроизвести. И за 16000 генераций не было ничего даже отдаленно похожего.
Причем хрен с ней, с композиционной похожестью. Модель Stable Diffusion в принципе не способна генерировать тот вид артефактов, который приведен на их изображениях, полученных якобы от SD. Были бы они просто мыльными по нехватке детализации или с характерными нейроночными завитками артефактов - другое дело. Но там банальные кубы jpeg-а, что дает основание не только усомниться в методике, но и предположить умышленный подлог результатов ради хайпа. Что в принципе в современной "науке" не ново и не редкий случай. Как я уже упомянул, у меня подобным образом почти релизнулась мед.журнале статья о влиянии кротовухи на иммунитет, написанная GPT. И рецензентов содержимое не смутило, пока я им не сообщил что они одобрили дичь, чисто по фану для эксперимента сделанную и отправленную.
P.S. я учу модели и лоры для своих нужд. Порой на конкретного персонажа. Порой на 5-7 картинках, и с лютейшим оверфитом. И даже тогда sd не выдает той степени похожести какую показывают в статье. Это не считая прочих описанных выше странностей.
Согласен. Однако SD открыта и бесплатна, MJ формально продает гпу-часы железа (но учитывая недоступность модели - можно считать что продает всё же нейронку) и лишь ClosedAI максимально коммерческой была с самого начала и в явном виде продает конкретно генерации, но почему-то к ним претензий было меньше всего :)
О, а вы их результаты пробовали на воспроизводимость проверить? А то у меня так chatGPT-статья про кротовуху почти релизнулась в качестве эксперимента =)
Там даже по приведенным фото видно, это это не генерации, а просто зашумление/пересжатие. Генерации не шумные, с артефактами, да, но не шумные и не на блоки бьющиеся. Ради эксперимента вбросил на ночь "Ann Graham Lotz" в 16000 генераций. Хотите скрины результатов? (ничего и близко похожего там нет, оно только криповую улыбку запомнило, и уж точно там нет таких jpg-шумов). Модель, способная выдать похожее на обучающую выборку — это люто оверфитнутая модель (у меня такие Лоры есть обученные), но она похожее чуть ли не каждой второй картинкой выдавать будет с минимумом почти незаметных вариаций, ибо её в таком случае буквально заставляют заучить наизусть пример, а не обучиться.
Сеть обвиняют именно в том что она может повторять части известных работ в своих произведениях.
Может — не значит делает. Иначе будет как анекдоте про "за изнасилование тоже сажайте — ведь аппарато то имеется".
Человек, насмотревшись чужих работ — тоже может повторять их части в своих произведениях. Будем штрафовать и осуждать его за принципиальную возможность?
Более того — сама модель ничего этого не может, она не живая. Могут люди, если умышленно захотят сделать плагиат. И вот тех, кто с помощью SD/MJ/Dalle воспроизводит чужие работы, и надо осуждать. А не ПО, через которое они это делают. Иначе тогда и Adobe надо судить за то, что они не блокируют возможность рисовать другими людьми плагат через ФШ. Пусть остлеживают и заменяют такие картины на черный квадрат при сохраненнии.
Но они так же вкладывают в творчество что-то свое. Если мы убираем этот "самостоятельный" компонент то получаем художника который копирует картину известного художника сидя перед ней и стараясь убрать все отличия
Я вам готов дать денег, если вы возьмете любую ванильную модель SD, опишите ей любую из имеющихся в обучающей выборке картин и сможете через генерацию добиться результата, который любым актуальным софтом для поиска дубликатов среди картинок покажет хотя бы 90% сходство (99% даже не прошу). В лучшем случае вы получите схожую цветовую палитру, подобие мазков и частично идею/атмосферу композиции. Т.е подобие стиля. Но кокретно сам желаемый объект или композиция будут отличаться от любой из имеющихся работ. Ибо нейросеть таки тоже вносит своё (и не только артефакты). Более того — у разных сеток это "своё" разное, так что Dall-e вы не спутаете с MJ, а MJ до v5 практически не реально было спутать с SD (да и вообще с чем либо — она сразу палилась).
У меня инстаграмм с артами, которые на ~40% руками доделаны/перерисованы после SD. И знали бы вы какая боль заставить её генерировать персонажей так, чтобы в первые 2 секунды взгляда не становилось ясно что это SD по позе/ракурсу/положению в кадре/свету и еще 5-7 признакам однозначно показывающим что это именно SD. Даже с LoRA'ми, призванными мимикрировать под конкретных художников и стили.
Изображение выдуманных существ является творческим продуктом автора
Запретить всех кто рисует фан-арт. И даже тех кто рисует исключительно по текстовому описанию — ведь сущетсво то принадлежит автору. А художники с фан-артом на этом зарабатывают популярность и внимание публики, которое затем монетизируют. Недопустимо!
в существующей правовой системе человек и продукт занимают очень разные позиции.
Fine. Веса нейронной сети — продукт. Вот только этот продукт — это не живое создание, тут нет свободы воли. Веса сами ничего не плагиатят, не генерируют и не рисуют. И авторы весов тоже.
И даже нейросеть (код, ПО), для которой эти веса лишь составной компонент, тоже ничего не генерирует, не ресует и не нарушает.
Генерируют люди. Сеть лишь инструмент. Как люди (якобы) делают плагиат чужих работ с использованием иснтрумента "Stable Diffusion", так могут делать и с помощью инструмента "Photoshop" и даже с помощью связки инструментов "Windows" + "Chrome".
Вы конечно можете сказать что авторы SD что-то нарушают когда позволяют модели смотреть на картинки (выложенные для свободного простмотра без органичений по чисто белковым формам интеллекта)…
НО! Вот вам вопрос. Если на картинку буду смотреть я (человек), а потом под впечатлением от картинки менять руками веса в модели (модель картинку не будет видеть — я введу коэффициенты исключительно руководствуясь своими белковыми впечатлениями от просмотра) — будет ли нарушение? Я ж просто посмотрел и "вдохновился", а потом пошел творить что-то новое, как и другие художники. А если вместо меня это сделает 1.5 млрд китайцев и столько же индусов (ну чтобы скорость правки коэффициентов в весах осмысленной сделать немного) — будут ли нарушения? И какие, если это просто живые люди пришли смотреть на картинку, выложенную для живых людей, а потом на основе собственного жизненного опыта коэффициенты весов правят?
P.S. А ведь такой проект даже был, где у GAN'а в качестве дискриминатора выступали люди и онлайн меню оценки прикручено было. И вполне ничего так NSFW пиксельарт-дама вырисовывалась...
Согласен. Надо с гугла требовать % от просмотренной мною на их ресурсах рекламы. А то зарабатывают на мне и не делятся. И с Адоба кэшбэк за покупку ФШ - тоже же на мне зарабатывают :)
На фулл прокачке — полезнейший. Шушеру ломает за пару подбросов с расшибанием о землю, а боссам чудесно сбивает каст ульты и прочих противных вещей, от которых сложно увернуться.
Гарнитура на самом деле годная… если забыть про цену :)
Способна частично заменять и комп и телик, но сидеть долго в водолазной маске тяжко (и лицу жарко, и шея страдает), а для устройства временного пользования — ну слишком уж догхыра просят...
Ага. Только тут не денежный перевод. А посылать вещи (как физические, так и цифровые) никто вроде не запрещал (иначе бы закрыли почтовое сообщение). Человеком из США товар честно куплен за деньги в США. А потом он просто свою собственность решает передать.
На личном опыте, проворачиваю регулярно. На русском, понятное дело, не работает, но на наглийском воду льет и переусложняет текст замечательно (студентам для увеличения объема текста в 1 главе диплома и расширения введения димплома прям вообще на ура заходит)
Только если вы ей изначально на вход дичь подали. Если вы подали на вход вручную набранную верную информацию в размере 1 абзаца, а просите переписать развернуто в 3 абзаца c SEO/Дипломной водой и красивыми вводными конструкциями/зубодробительным канцеляритом — она вам перепишет вашу же информацию, просто налив воды и приведя её в идеальный для диплома сложночитаемый вид.
Нормальный ассистент. Ассистент-человек вам точно так же и факты наискажает, и личное предвзятое восприятие принесет, и просто кучу ошибок навали.
Весь профит ChatGPT в том, что она заменяет не одного ассистента в подчинении, а целый табор таких ассистентов загрузивших в голову всю выдачу гугла, которые толпой решают задачу быстрее и эффективнее.
Да — как и эта толпа ассистентов, ГПТ может имеющуюся информацию путать, неверно инетрпретировать и т.д. Ибо она не справочник. Весь профит в том, что она позволяет вам решать задачи не точнее, но быстрее. Там где вы раньше тратили 3 дня на продумывание, гугление и написание + еще 2 дня на перепроверку и поиск ошибок — теперь вы тратите 1 день на написание + всё те же 2 дня на перепроверку при том же итоговом результате, имея в итоге сэкономленные 2 дня времени, которые можно потратить на что-то более полезное.
Надежность несомненно стоит учитывать. Особенно 3060Ti на памяти Hunix от Palit, MSI и Gigabyte. Эти точно могут рейтинг сдвинуть, причем не в пользу НеВидео...
(но увы, CUDA есть только на них, и пока ML-сообщество не пересядет на ROCm — красные только для игрушек)
В только Space-X использует частоты, которые уже принадлежат T-Mobile и уже спользуются и что-то никаких помех AT&T не доставляют. Или может AT&T попросту остуствует в регионах, где мобильное покрытие предоставляет T-Mobile и не пересекается с ними? Сомневаюсь.
Я скажу больше — практически все живые художники понимают заказчика лишь после нескольких (многих) уточнений, и при этом все равно рисуют не совсем то, что видел в своей голове заказчик. Даже если им предоставить черновые наброски, референсы и палитру цветов (но это буквально то же самое, что подсунуть позу, контур и эскиз в ControlNet для SD).
Тут проблема скорее в другом — мы не можем описать свои пожелания в форме, допускающей лишь единственно верное однозначное толкование. Ни для человека, ни для нейронки. Если бы мы могли выдать ей на вход не абстрактное и неточное текстовое описание, а например параметры начального шума (весьма однозначное описание желаемого) для дальнейшей работы — мы бы получили ровно то что просили с мелкими отличиями. Собственно фиксация сида именно так и работает =)
Убунта за это хотя бы денег не просит и обновления втихоря ночью в принудительном порядке ставить не пытается...
Мдя. Сомнительной полезности смартфон по цене 2х 3090. Дожили...
Накатить чистую Win7, применить Loader by DAZ и обновить до Win10 — тоже было популярным путем получения "лицензионной" win10 :)
Точно не в этом. При таком подходе картинка получается очень сильно более мыльной с цветными градиентами. У них ни градиентов, ни мыла, у них просто артефакты. Их артефакты не получатся даже если на первых шагах генерацию оборвать. Единственный момент когда там есть квадраты — это 1 шаг денойза, когда формируется шум. Но тогда там нет картинки.
Так что таки да, подождем.
Я ознакомился с работой. И даже попытался воспроизвести. И за 16000 генераций не было ничего даже отдаленно похожего.
Причем хрен с ней, с композиционной похожестью. Модель Stable Diffusion в принципе не способна генерировать тот вид артефактов, который приведен на их изображениях, полученных якобы от SD. Были бы они просто мыльными по нехватке детализации или с характерными нейроночными завитками артефактов - другое дело. Но там банальные кубы jpeg-а, что дает основание не только усомниться в методике, но и предположить умышленный подлог результатов ради хайпа. Что в принципе в современной "науке" не ново и не редкий случай. Как я уже упомянул, у меня подобным образом почти релизнулась мед.журнале статья о влиянии кротовухи на иммунитет, написанная GPT. И рецензентов содержимое не смутило, пока я им не сообщил что они одобрили дичь, чисто по фану для эксперимента сделанную и отправленную.
P.S. я учу модели и лоры для своих нужд. Порой на конкретного персонажа. Порой на 5-7 картинках, и с лютейшим оверфитом. И даже тогда sd не выдает той степени похожести какую показывают в статье. Это не считая прочих описанных выше странностей.
Согласен. Однако SD открыта и бесплатна, MJ формально продает гпу-часы железа (но учитывая недоступность модели - можно считать что продает всё же нейронку) и лишь ClosedAI максимально коммерческой была с самого начала и в явном виде продает конкретно генерации, но почему-то к ним претензий было меньше всего :)
О, а вы их результаты пробовали на воспроизводимость проверить? А то у меня так chatGPT-статья про кротовуху почти релизнулась в качестве эксперимента =)
Там даже по приведенным фото видно, это это не генерации, а просто зашумление/пересжатие. Генерации не шумные, с артефактами, да, но не шумные и не на блоки бьющиеся. Ради эксперимента вбросил на ночь "Ann Graham Lotz" в 16000 генераций. Хотите скрины результатов? (ничего и близко похожего там нет, оно только криповую улыбку запомнило, и уж точно там нет таких jpg-шумов). Модель, способная выдать похожее на обучающую выборку — это люто оверфитнутая модель (у меня такие Лоры есть обученные), но она похожее чуть ли не каждой второй картинкой выдавать будет с минимумом почти незаметных вариаций, ибо её в таком случае буквально заставляют заучить наизусть пример, а не обучиться.
Может — не значит делает. Иначе будет как анекдоте про "за изнасилование тоже сажайте — ведь аппарато то имеется".
Человек, насмотревшись чужих работ — тоже может повторять их части в своих произведениях. Будем штрафовать и осуждать его за принципиальную возможность?
Более того — сама модель ничего этого не может, она не живая. Могут люди, если умышленно захотят сделать плагиат. И вот тех, кто с помощью SD/MJ/Dalle воспроизводит чужие работы, и надо осуждать. А не ПО, через которое они это делают. Иначе тогда и Adobe надо судить за то, что они не блокируют возможность рисовать другими людьми плагат через ФШ. Пусть остлеживают и заменяют такие картины на черный квадрат при сохраненнии.
Я вам готов дать денег, если вы возьмете любую ванильную модель SD, опишите ей любую из имеющихся в обучающей выборке картин и сможете через генерацию добиться результата, который любым актуальным софтом для поиска дубликатов среди картинок покажет хотя бы 90% сходство (99% даже не прошу). В лучшем случае вы получите схожую цветовую палитру, подобие мазков и частично идею/атмосферу композиции. Т.е подобие стиля. Но кокретно сам желаемый объект или композиция будут отличаться от любой из имеющихся работ. Ибо нейросеть таки тоже вносит своё (и не только артефакты). Более того — у разных сеток это "своё" разное, так что Dall-e вы не спутаете с MJ, а MJ до v5 практически не реально было спутать с SD (да и вообще с чем либо — она сразу палилась).
У меня инстаграмм с артами, которые на ~40% руками доделаны/перерисованы после SD. И знали бы вы какая боль заставить её генерировать персонажей так, чтобы в первые 2 секунды взгляда не становилось ясно что это SD по позе/ракурсу/положению в кадре/свету и еще 5-7 признакам однозначно показывающим что это именно SD. Даже с LoRA'ми, призванными мимикрировать под конкретных художников и стили.
Запретить всех кто рисует фан-арт. И даже тех кто рисует исключительно по текстовому описанию — ведь сущетсво то принадлежит автору. А художники с фан-артом на этом зарабатывают популярность и внимание публики, которое затем монетизируют. Недопустимо!
Fine. Веса нейронной сети — продукт. Вот только этот продукт — это не живое создание, тут нет свободы воли. Веса сами ничего не плагиатят, не генерируют и не рисуют. И авторы весов тоже.
И даже нейросеть (код, ПО), для которой эти веса лишь составной компонент, тоже ничего не генерирует, не ресует и не нарушает.
Генерируют люди. Сеть лишь инструмент. Как люди (якобы) делают плагиат чужих работ с использованием иснтрумента "Stable Diffusion", так могут делать и с помощью инструмента "Photoshop" и даже с помощью связки инструментов "Windows" + "Chrome".
Вы конечно можете сказать что авторы SD что-то нарушают когда позволяют модели смотреть на картинки (выложенные для свободного простмотра без органичений по чисто белковым формам интеллекта)…
НО! Вот вам вопрос. Если на картинку буду смотреть я (человек), а потом под впечатлением от картинки менять руками веса в модели (модель картинку не будет видеть — я введу коэффициенты исключительно руководствуясь своими белковыми впечатлениями от просмотра) — будет ли нарушение? Я ж просто посмотрел и "вдохновился", а потом пошел творить что-то новое, как и другие художники. А если вместо меня это сделает 1.5 млрд китайцев и столько же индусов (ну чтобы скорость правки коэффициентов в весах осмысленной сделать немного) — будут ли нарушения? И какие, если это просто живые люди пришли смотреть на картинку, выложенную для живых людей, а потом на основе собственного жизненного опыта коэффициенты весов правят?
P.S. А ведь такой проект даже был, где у GAN'а в качестве дискриминатора выступали люди и онлайн меню оценки прикручено было. И вполне ничего так NSFW пиксельарт-дама вырисовывалась...