Comments 24
Уверен, за этим будущее дизайна, но...
Но пока она не сможет рисовать по запросу "Не знаю чего, сделайте чего нибудь" будущее не наступит.
А главное нужно угадать с первого раза и знать, всё включая личные предпочтения клиента учитывая всё предыдущее и много моментов, которые написать в виде запроса человеку пока не под силу.
А "Мидконструктора" ещё нет пока? А то очень нужно.
Да, пока сетки не могут учесть всех нюансов, местами результат получается топорный. Чтобы получилось что-то вменяемое нужно отправлять разные запросы и корректировать результаты работы. В целом работа дизайнера в этом и заключается – итеративного дорабатывать разные концепции.
По запросу «Не знаю чего, сделайте чего нибудь», дизайнер также ничего не сможет сделать. Сначала нужно составить бриф и уточнить все детали у клиента, что бы потом не рисовать бесконечное количество вариантов.)
Касаемо вкусовых предпочтений – тут также сначала нужно составить бриф и после показать клиенту референсы, что бы убедиться что дизайнер и клиент говорят об одном и тоже. Только после этого дизайнер приступает к работе. В случае с сеткой дизайнеру потребуется максимально подробно описать запрос исходя из данных зафиксированных в брифе.
Говорить о сетях как о серьёзном инструменте пока сложно, но возможно, в будущем они таковыми станут и это было бы круто.)
Посмотрите это видео, вам понравится https://youtu.be/nVhmFski3vg
Нейросеть может нарисовать что угодно. Из того. что разработчики не внесли в список забаненых слов.
Да, сетка рисует что угодно главное максимально подробно составить запрос.
Нет. Вот у меня знакомая, любительница киберпанка (жанра, не игры) захотела свой портрет. В итоге по запросу выдавался портрет среднестатистической байкерши, а все попытки сделать его более откровенным натыкались на то, что слова типа fetish, bdsm, sexy, sexual и другие, которые бы намекали на большую откровенность, являются banned. Все. приехали.
Это же проблема конкретной имплементации, а не технологии в целом. Если есть компьютер с современной видеокартой - можно самому генерировать безо всякой цензуры.
Если есть компьютер с современной видеокартой - можно самому генерировать безо всякой цензуры.
Ценность что midjourney, что полноценного dall-e в размере нейросети и количестве данных, которые туда скормили. Речь идет скорее всего о сотнях терабайт (если не нескольких петабайтах) данных и сотнях часов тренировки на десятках карт уровня tesla v100/a40.
Dall-e mini это, конечно, весело и работает на, условно, любом ведре, но выхлоп соответствующий.
Так в этом же вся мякота как раз - итоговая модель весит всего несколько Гб, а знаний там действительно зашито на петабайты. Как раз недавно состоялся опенсорс релиз Stable Diffusion, моделька которой по уровню вполне DALL-E 2, только все это локально. А существующие форки позволяют все это запускать на 4Гб видюхах и даже M1 маках (на интел маках, вроде, тоже пойдет). Примеры можно здесь посмотреть.
Так Stable Diffusion же в открытом доступе, все фильтры легко обойти. А судя по качеству это уже очень достойный уровень

Сломался
Давайте забубеним тест, который DALL-E с треском провалила.
Я несколько дней экспериментировал с Midjourney, за это время сгенерировал почти 300 картинок, еще больше просмотрел. И теперь везде, где в интернете встречаются картинки из Midjourney, они узнаются автоматически - по какому-то типовому набору элементов, стилей, цветовых гамм, композиций.
Может быть, у DALL-E с этим лучше, но туда мне так и не прислали инвайт.
В статье есть ссылка на гайд, он сложный, но рекомендую его изучить. Тогда можно получать более разнообразные результаты, чем сеть дает по умолчанию, используя разные стили и режимы.
Например, относительно недавно появились новые режимы --test и --testp, дают интересные результаты. Или можно добавить --chaos 100, будет больше свободы при трансляции слов в наборы изображенных предметов.
Рискую быть люто заминусованным: сначала восторгался Midjourney, но нужно представление между описанием и получаемой картинкой.
Сделал домашний проект с картинками Midjourney и описаниями.
Может кому будет польза: https://www.fartofart.com/
PS: это не реклама. Доступ открытый, коммерческая выгода не преследуется. Просто любопытно.
В канале midjourney вижу ленту картинок, когда задаю своё описание, крайне трудно потом найти картинку по нему. Никаких уведомлений не приходит. Возможности обновить или уточнить текст нет. Картинка быстро теряется в ленте.
Можно увидеть их в своем аккаунте на https://www.midjourney.com/app/, там у каждой есть ссылка на соответствующее сообщение в discord. Но никаких манипуляций с ними в аккаунте не произвести, только в discord. Это, конечно, очень неудобно.
Можно добавить бота себе на сервер, хоть пустой и там уже все генерить.
Так светлая радость у кого-то может быть например от фэнтези )
Я попросил нарисовать матрешку с кошкой, в общем получилась лажа, поскольку вместо матрешки с расписным платком я увидел кошачью морду. Но все же идея, как можно нарисовать саму матрешку в виде кошки, интересна.
Тем не менее, запрос нарисовать двух разных персонажей с подробным описанием, выдает одного красиво склеенного персонажа из всех частей. При этом двух плачущих детей она может нарисовать.
В целом такой генератор интересно использовать как подсказчика.
Midjourney не перестает удивлять
Прикольно выглядит, попробую тоже что нить закинуть
Midjourney — нейросеть генерирующая картинки по текстовому описанию