Все потоки
Поиск
Написать публикацию
Обновить

Комментарии 24

Уверен, за этим будущее дизайна, но...
Но пока она не сможет рисовать по запросу "Не знаю чего, сделайте чего нибудь" будущее не наступит.
А главное нужно угадать с первого раза и знать, всё включая личные предпочтения клиента учитывая всё предыдущее и много моментов, которые написать в виде запроса человеку пока не под силу.

А "Мидконструктора" ещё нет пока? А то очень нужно.

Да, пока сетки не могут учесть всех нюансов, местами результат получается топорный. Чтобы получилось что-то вменяемое нужно отправлять разные запросы и корректировать результаты работы. В целом работа дизайнера в этом и заключается – итеративного дорабатывать разные концепции.

По запросу «Не знаю чего, сделайте чего нибудь», дизайнер также ничего не сможет сделать. Сначала нужно составить бриф и уточнить все детали у клиента, что бы потом не рисовать бесконечное количество вариантов.)

Касаемо вкусовых предпочтений – тут также сначала нужно составить бриф и после показать клиенту референсы, что бы убедиться что дизайнер и клиент говорят об одном и тоже. Только после этого дизайнер приступает к работе. В случае с сеткой дизайнеру потребуется максимально подробно описать запрос исходя из данных зафиксированных в брифе.

Говорить о сетях как о серьёзном инструменте пока сложно, но возможно, в будущем они таковыми станут и это было бы круто.)

Посмотрите это видео, вам понравится https://youtu.be/nVhmFski3vg

Нейросеть может нарисовать что угодно. Из того. что разработчики не внесли в список забаненых слов.

Да, сетка рисует что угодно главное максимально подробно составить запрос.

Нет. Вот у меня знакомая, любительница киберпанка (жанра, не игры) захотела свой портрет. В итоге по запросу выдавался портрет среднестатистической байкерши, а все попытки сделать его более откровенным натыкались на то, что слова типа fetish, bdsm, sexy, sexual и другие, которые бы намекали на большую откровенность, являются banned. Все. приехали.

Это же проблема конкретной имплементации, а не технологии в целом. Если есть компьютер с современной видеокартой - можно самому генерировать безо всякой цензуры.

Если есть компьютер с современной видеокартой - можно самому генерировать безо всякой цензуры.

Ценность что midjourney, что полноценного dall-e в размере нейросети и количестве данных, которые туда скормили. Речь идет скорее всего о сотнях терабайт (если не нескольких петабайтах) данных и сотнях часов тренировки на десятках карт уровня tesla v100/a40.

Dall-e mini это, конечно, весело и работает на, условно, любом ведре, но выхлоп соответствующий.

Так в этом же вся мякота как раз - итоговая модель весит всего несколько Гб, а знаний там действительно зашито на петабайты. Как раз недавно состоялся опенсорс релиз Stable Diffusion, моделька которой по уровню вполне DALL-E 2, только все это локально. А существующие форки позволяют все это запускать на 4Гб видюхах и даже M1 маках (на интел маках, вроде, тоже пойдет). Примеры можно здесь посмотреть.

Так Stable Diffusion же в открытом доступе, все фильтры легко обойти. А судя по качеству это уже очень достойный уровень

Я несколько дней экспериментировал с Midjourney, за это время сгенерировал почти 300 картинок, еще больше просмотрел. И теперь везде, где в интернете встречаются картинки из Midjourney, они узнаются автоматически - по какому-то типовому набору элементов, стилей, цветовых гамм, композиций.

Может быть, у DALL-E с этим лучше, но туда мне так и не прислали инвайт.

Тоже это заметил.

В статье есть ссылка на гайд, он сложный, но рекомендую его изучить. Тогда можно получать более разнообразные результаты, чем сеть дает по умолчанию, используя разные стили и режимы.

Например, относительно недавно появились новые режимы --test и --testp, дают интересные результаты. Или можно добавить --chaos 100, будет больше свободы при трансляции слов в наборы изображенных предметов.

Рискую быть люто заминусованным: сначала восторгался Midjourney, но нужно представление между описанием и получаемой картинкой.
Сделал домашний проект с картинками Midjourney и описаниями.
Может кому будет польза: https://www.fartofart.com/
PS: это не реклама. Доступ открытый, коммерческая выгода не преследуется. Просто любопытно.

В канале midjourney вижу ленту картинок, когда задаю своё описание, крайне трудно потом найти картинку по нему. Никаких уведомлений не приходит. Возможности обновить или уточнить текст нет. Картинка быстро теряется в ленте.

Можно увидеть их в своем аккаунте на https://www.midjourney.com/app/, там у каждой есть ссылка на соответствующее сообщение в discord. Но никаких манипуляций с ними в аккаунте не произвести, только в discord. Это, конечно, очень неудобно.

Можно добавить бота себе на сервер, хоть пустой и там уже все генерить.

Мне так немножко кажется, что эти сети могут генератор лишь всякую абстрактную муть, фэнтази и сюжеты из кошмаров, а что-то вызывающие светлую радость или удивление — вряд ли…

Так светлая радость у кого-то может быть например от фэнтези )

Я попросил нарисовать матрешку с кошкой, в общем получилась лажа, поскольку вместо матрешки с расписным платком я увидел кошачью морду. Но все же идея, как можно нарисовать саму матрешку в виде кошки, интересна.

Тем не менее, запрос нарисовать двух разных персонажей с подробным описанием, выдает одного красиво склеенного персонажа из всех частей. При этом двух плачущих детей она может нарисовать.

В целом такой генератор интересно использовать как подсказчика.

Midjourney не перестает удивлять

Прикольно выглядит, попробую тоже что нить закинуть

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации