Как стать автором
Обновить

Stable Diffusion. Курс молодого бойца

Уровень сложности Средний
Время на прочтение 22 мин
Количество просмотров 30K

В этом материале я бы хотел поделиться с начинающими AI-художниками информацией, которая сразу отвечает на все вопросы, и помогает начать использовать StableDiffusion в качестве генеративного инструмента.

Я бы очень сильно хотел чтобы такой материал попался мне, когда я только начинал познавать возможности SD. Тут я попытался кратко и концентрированно описать все те знания и инструменты, которые имеют большое практическое значение при работе c SD.

Так же в конце будет изложен mindset, который необходимо иметь чтобы научиться пользоваться SD. Я буквально попытаюсь научить вас думать как AI художник.

Поэтому без лишних слов, начинаем.

Поехали!
Всего голосов 74: ↑72 и ↓2 +70
Комментарии 22

Просто о Stable Diffusion: никакой магии

Уровень сложности Простой
Время на прочтение 14 мин
Количество просмотров 7.3K

Если вы не провели последние два года на ферме в Сибири, вы, вероятно, слышали о Stable Diffusion или пробовали генерировать изображения с помощью моделей, вроде Dall-e или Midjourney. Они становятся все лучше каждый день, и по качеству уже сравнимы с людьми, а во многих аспектах даже лучше (например, им не нужно платить).

Исследования в области создания видео уже идут полным ходом во многих лабораториях и компаниях, так что это лишь вопрос времени, когда генеративные модели сместят людей с очередного столпа на котором держится наше общества — порно. Я не вижу чтобы кто то поднимал тревогу об огромном количестве людей, которые потеряют работу из-за этого. Я не такой бессердечный, поэтому, прежде чем наступил этот печальный момент, я решил принять меры и создать базовое руководство, которое даже работник индустрии для взрослых сможет понять и использовать, чтобы оставаться в игре. Давайте посмотрим, что к чему.

Читать далее
Всего голосов 50: ↑40 и ↓10 +30
Комментарии 27

Как работает Stable Diffusion: объяснение в картинках

Время на прочтение 9 мин
Количество просмотров 85K
Генерация изображений при помощи ИИ — одна из самых новых возможностей искусственного интеллекта, поражающая людей (в том числе и меня). Способность создания потрясающих изображений на основании текстовых описаний похожа на магию; компьютер стал ближе к тому, как творит искусство человек. Выпуск Stable Diffusion стал важной вехой в этом развитии, поскольку высокопроизводительная модель оказалась доступной широкой публике (производительная с точки зрения качества изображения, скорости и относительно низких требований к ресурсам и памяти).

Поэкспериментировав в генерацией изображений, вы можете задаться вопросом, как же она работает.

В этой статье я вкратце расскажу, как функционирует Stable Diffusion.

Читать дальше →
Всего голосов 29: ↑29 и ↓0 +29
Комментарии 12

Fooocus v2: Революция в работе с изображениями — расширение, изменение и персонализация. Все про Input Image в нейросети

Уровень сложности Простой
Время на прочтение 9 мин
Количество просмотров 35K

Друзья, всем привет, в прошлой статье Fooocus v2 — бесплатный Midjourney у вас на компьютере, вы познакомились с рисующей нейросетью которая вполне способна заменить Midjourney, узнали как её установить, как пользоваться, за что отвечают все настройки и как работают режимы, как писать запросы, чтобы нейросеть вас понимала.

Из этой части вы узнаете как с помощью нейросети Fooocus можно дорисовать любое изображение выйдя за его границы, изменить любую деталь на изображении, узнаете как добавить на свою генерацию текст, наложить свое лицо или как создать изображение по вашему референсу. Сегодня я расскажу про раздел Input Image.

Внутри много картинок и гифок.

Читать далее
Всего голосов 44: ↑43 и ↓1 +42
Комментарии 25

Fooocus v2 — бесплатный Midjourney у вас на компьютере. Подробная инструкция по установке и использованию нейросети

Уровень сложности Простой
Время на прочтение 10 мин
Количество просмотров 155K

Друзья, всем привет! Сегодня я хочу рассказать вам про самую простую и доступную для понимания нейросеть, которая создает изображения по вашему текстовому описанию. Она называется Fooocus и основана на знаменитой Stable Diffusion XL. Это идеальное решение в качестве вашей первой нейросети, и необходимый инструмент для любого дизайнера или контент мейкера.

Внутри много тяжелых изображений.

Читать далее
Всего голосов 120: ↑117 и ↓3 +114
Комментарии 216

Вестник Midjourney: новая документация, генерация фрагментов и тюнер стилей

Время на прочтение 6 мин
Количество просмотров 4.2K

В начале 2023 года я рассказывал о четвертой версии Midjourney, а затем — о альфа-доступе к пятой. Сейчас актуальная версия — 5.2, а недавно вышла альфа шестой.

Сохраним хронологию и посмотрим, что нового в пятой версии. Спойлер: разработчики уделили внимание не только процессу генерации, но и удобству пользователя.

Под катом рассказываю о нововведениях и различиях между релиз- и альфа-версией. Конечно, с иллюстрациями. Если формат окажется интересным, протестирую шестую Midjourney и напишу о ней в Академии Selectel. Подробности под катом!
Читать дальше →
Всего голосов 55: ↑54 и ↓1 +53
Комментарии 8

Обучение ИИ на синтетических данных: исследователи из MIT меняют правила игры с системой StableRep

Уровень сложности Средний
Время на прочтение 5 мин
Количество просмотров 3.2K

Как известно, данные - это новая почва в мире AI. И товарищи-исследователи из MIT CSAIL нашли оригинальный способ вырастить на этой плодородной земле нечто большее, чем просто пиксели. В своем новом исследовании, они использовали синтетические изображения для обучения моделей машинного зрения и значительно превзошли результаты традиционных подходов с "реальными" картинками. Такое обучение оказалось более эффективным и свободным от предубеждений машинного обучения.

В основе описываемого подхода лежит система StableRep. Это не просто очередной софт для генерации синтетических картинок. StableRep использует самые популярные в последнее время модели вроде Stable Diffusion, которые создают изображения на основе текста.

Приглашаем узнать больше об этом проекте!

Читать далее
Всего голосов 9: ↑9 и ↓0 +9
Комментарии 3

Состоялся релиз модели Stable Video Diffusion для генерации коротких видео

Время на прочтение 1 мин
Количество просмотров 11K

Разработчики открытой модели машинного обучения Stable Diffusion представили Stable Video Diffusion — решение для генерации коротких видео. Организация обновила GitHub-репозиторий и опубликовала материалы исследования.

Читать далее
Всего голосов 9: ↑9 и ↓0 +9
Комментарии 5

Stability AI объявила о платном членстве для коммерческого использования своих ИИ-моделей

Время на прочтение 2 мин
Количество просмотров 1.5K

Stability AI, создатель модели преобразования текста в изображение Stable Diffusion, теперь предлагает услугу подписки, которая стандартизирует способы использования её ИИ в коммерческих целях.

Читать далее
Всего голосов 3: ↑3 и ↓0 +3
Комментарии 1

Мнение: Intel инвестировала 50 миллионов долларов в Stability AI — разработчика нейросети Stable Diffusion

Время на прочтение 3 мин
Количество просмотров 1.9K

Всем привет!

Я к вам с неожиданной новостью: «Intel инвестировала 50 миллионов долларов в Stability AI — разработчика нейросети Stable Diffusion».

Раунд финансирования закрылся в октябре, новостей про это практически нет, хотя есть что обсудить  ведь это сулит нам интересные перспективы. 

Я, как известный интернет эксперт в области ВСЕГО 🧐, просто обязан высказать своё личное мнение и рассказать, к чему нас это может привести.

Читать далее
Всего голосов 6: ↑4 и ↓2 +2
Комментарии 0

Исследование: за полтора года ИИ-системы создали столько же изображений, сколько фотографы сняли за 150 лет

Время на прочтение 2 мин
Количество просмотров 3.2K

Согласно данным исследования компании Everypixel Group, с начала 2022 года различные популярные ИИ-системы (Midjourney, Stable Diffusion, DALLE-2 и Adobe Firefly) создали по запросам пользователей столько же изображений, сколько живые фотографы сняли за 150 лет.

Читать далее
Всего голосов 2: ↑2 и ↓0 +2
Комментарии 46

Stability AI выпустила версию DreamStudio с открытым исходным кодом

Время на прочтение 1 мин
Количество просмотров 3.2K

Stability AI представила версию DreamStudio с открытым исходным кодом. Это интерфейс для модели генератора изображений Stable Diffusion. 

Читать далее
Всего голосов 10: ↑10 и ↓0 +10
Комментарии 4

Stability AI выпустила модель Stable Diffusion XL 1.0

Время на прочтение 2 мин
Количество просмотров 9.6K

Stability AI объявила о выпуске Stable Diffusion XL 1.0, «самой продвинутой» модели преобразования текста в изображение. Она обеспечивает «более яркие» и «точные» цвета и лучшую контрастность, тени и освещение по сравнению со своим предшественником.

Читать далее
Всего голосов 8: ↑8 и ↓0 +8
Комментарии 1

Инженер представил промт-камеру Paragraphica, которая генерирует фотографии на основе данных о местоположении

Время на прочтение 2 мин
Количество просмотров 4.8K

Инженер Бьёрн Карманн (Bjørn Karmann) из Амстердама представил промт-камеру Paragraphica без объектива и привычных механизмов для фотооборудования. Вместо всего этого устройство генерирует изображение на основе данных о местоположении.

Читать далее
Всего голосов 13: ↑13 и ↓0 +13
Комментарии 4

ИИ воссоздал видео высокого качества на основе сканов мозга

Время на прочтение 2 мин
Количество просмотров 8K


Исследователи использовали генеративный ИИ для восстановления «высококачественного» видео на основе сканов мозга, сообщается в новом исследовании.

Исследователи Цзясинь Цин, Цзыцзяо Чен и Хуан Хелен Чжоу из Национального университета Сингапура и Китайского университета Гонконга использовали данные функциональной магнитно-резонансной томографии (фМРТ) и модель ИИ Stable Diffusion для создания модели под названием MinD-Video, которая генерирует видео на основе сканов активности мозга.

Демонстрация на сайте проекта параллельно показывает видео, которое было продемонстрировано испытуемым, и видео, сгенерированное ИИ на основе их мозговой активности. Различия между этими двумя видео незначительны. Пары видео по большей части содержат схожие сюжеты и цветовую палитру.
Читать дальше →
Всего голосов 17: ↑17 и ↓0 +17
Комментарии 16

Stable vs Photoshop: сравнение генераций

Уровень сложности Средний
Время на прочтение 5 мин
Количество просмотров 11K
image

Привет, меня зовут Юля, 85GB и я веду свой канал по нейронкам.

Сегодня хочу обозреть и сравнить плагин Stable Diffusion (на базе интерфейса Automatic) для Photoshop и Generative Fill на базе Adobe Firefly для него же. По каждому пункту нейронки будут получать либо 1 балл, либо 0. В данном случае мне так удобнее вести счёт.

Примечание
Надеюсь, вы знаете, на каких торрентах надо скачивать все виды бесплатного ФШ, в том числе и с функцией генеративной заливки.

Плагин Стейбла с инструкцией лежит здесь.

Содержание:

1. Системные требования
2. Интерфейс и порог вхождения
3. Вариативность
4. Ликвидация объекта с фотографии
5. Добавление фона
6. Добавление объекта
7. Замена объекта
8. Замена фона
9. Txt to img
10. Img to img
Выводы

Итак, приступим.

  1. Системные требования. Пожалуй, самый важный пункт, без которого нет смысла продолжать работу. Стейбл — локальный, и ему необходимо очень много видеопамяти. У меня карта на 8 гигов, и при обработке больших изображений требуется работать с малыми областями или уменьшать эти самые изображения примерно до 1000 пикселей по длинной стороне (а то и до 512), и это невероятный мизер, если речь идёт о качественной пикче. Скорее всего, в комментариях будут писать о том, как именно можно апскейлить через сам Стейбл, делать там текстуру и качество. Но их же можно изначально не терять, правда?

    Файрфлай обращается к облаку, не нагружает видеопамять и позволяет спокойно работать с фотками размером 6000х4000 пикселей. Единственный минус в данном случае — при отсутствии подключения к сети Адобовская нейронка работать не будет.

Читать дальше →
Всего голосов 42: ↑36 и ↓6 +30
Комментарии 20

Создание модов для Age of Empires II с помощью нейросети

Уровень сложности Простой
Время на прочтение 4 мин
Количество просмотров 4.5K

В прошлом месяце я занялся придумыванием способа создания собственных спрайтов цивилизаций для наших с друзьями игр в Age of Empires II.

В этой статье рассказывается о процессе создания гибкого генератора изображений на основе промтов. Для начинающих я посоветую Alpaca, а тем, кто умеет кодить — Stable Diffusion Web UI и Python.

Выражаю особую благодарность сообществам моддеров AoEII OpenAgeSLX Studio и Age of Kings Heaven.

Читать далее
Всего голосов 28: ↑28 и ↓0 +28
Комментарии 1

Создаем дизайн в любом стиле без промта с помощью IP-Adapter

Время на прочтение 5 мин
Количество просмотров 7.8K

В статье расскажу о новой функции Stable Diffusion, которая позволяет генерировать изображения в любом стиле без прописывая промта. Речь пойдет про IP-адаптер — это новая модель ControlNet, которая преобразует референсное изображение в материал для генерации. В отличие от похожих функций в Midjourney и Stable Diffusion, этот алгоритм работает невероятно точно. Он снимает стиль с заданной картинки и смешивает его с другим изображением, промтом или картой глубины. С его помощью можно создавать стилизованные портреты, пейзажи и композиции, подбирая их внешний вид простым переключением картинки-референса.

Читать далее
Всего голосов 14: ↑14 и ↓0 +14
Комментарии 10

Обзор современных подходов персонализации диффузионных нейронных сетей

Уровень сложности Сложный
Время на прочтение 16 мин
Количество просмотров 2.5K

Задача персонализации text-to-image модели состоит в донастройке предобученной нейронной сети так, чтобы она могла генерировать изображения заданного объекта в выбранных сценах. Несмотря на то, что подходы к решению этой задачи существуют, для их применения в высоконагруженных системах необходимо решить ряд проблем: большое время дообучения, высокие требования к видеопамяти, неспособность точно захватывать детали целевого объекта и др.

Меня зовут Сергей Михайлин. Я разработчик группы машинного обучения в ОК. В данной статье дан обзор современных подходов к персонализации text-to-image моделей на базе открытой архитектуры Stable Diffision. Мы приводим технические подробности каждого подхода и анализируем его применимость в реальных высоконагруженных системах. На основании собственных экспериментов по персонализации text-to-image моделей мы выделяем список возникающих при решении этой задачи проблем и перспективных способов их решения.

Читать далее
Всего голосов 10: ↑10 и ↓0 +10
Комментарии 0

Парк юрского периода глазами нейросети: как развернуть Diffusers для генерации изображений за 10 минут

Время на прочтение 5 мин
Количество просмотров 5.1K

Как часто бывает: появляется немного свободного времени, хочется отдохнуть и написать картину… но его то ли недостаточно, то ли просто лень размахивать кистью. Но можно делегировать задачу нейросети — для этого необязательно использовать Midjourney или DALL-E.

Один из вариантов — развернуть собственного помощника на готовом сервере с помощью библиотеки Diffusers и моделей Hugging Face. Мы попробовали и сгенерировали целый «Парк юрского периода» с разными тирексами. Что из этого получилось и как повторить наши творения, рассказываем под катом.
Читать дальше →
Всего голосов 47: ↑41 и ↓6 +35
Комментарии 8