Pull to refresh
0
0
Send message

Сейчас для этих дел используется cheat engine, там функций сверх artmoney навалено ого-го.

Это исследование публиковалось год или чуть меньше назад и освещалась на всех площадках, даже не около IT.

Так сказать, с подключением!

  1. Recraft - это Stable Diffusion.

  2. Он не генерирует вектор, а переводит растровую картинку созданную в векторном стиле в настоящий вектор (что-то типа трассировки из Illustrator). Отсюда все проблемы (отсюда и многие описанные "проблемы" как например создание форм вместо контуров)

Иногда полезно разобраться в принципе работы для лучшего понимания процесса, а не тыкать на кнопку в надежде на хороший результат.

docs.docker.com и download.docker.com работает, можно скачать дистрибы вручную

  1. заходите docs.docker.com/engine/install

  2. под заголовком Supported platforms выбираете ОС

  3. под Uninstall old versions на странице выбранной оси находите конфликтные пакеты и команду по их удалению
    выполняете команду

  4. под заголовком Install from a package видите

    1. ссылку на хранилище дистрибов под пунктом 1

    2. список необходимых пакетов под пунктом 4

  5. переходите по пути в хранилище:

    linux/<ос>/dists/<версия_ос>/pool/stable/<архитектура>

    и качаете необходимые дистрибы

  6. устанавливаете, разрешаете конфликты
    (необходимо будет скачать iptables и что-то ещё, но это можно через apt, их мало будет)

вуаля

Из всех, только первый работает. Сначала делал по первому сообщению, там на всех зеркалах нет ответа, хотя сами ресурсы доступны. Первый из этого комментария сразу заработал.

Сейчас существуют разные способы создать изображения в высоком разрешении с более высокой скоростью, например Kohya Hires Fix, который к тому же исправляет проблемы с двойными лицами и прочие артефакты возникающие при генерации в разрешении отличном от базового.

Сижу на 4070, мне скорости вполне хватает, вывозит где-то 8-9 итераций в секунду, но лучше брать что-то с большим объемом видеопамяти тоже из 40 серии, пожертвовав скоростью, например 4060 на 16гб. Либо доплатить и взять супер версию.

Возможно в Forge все намного лучше с видеопамятью, и там будет хватать, так как в обычном Automatic я могу упереться в нехватку памяти на тяжёлых задачах или с SDXL. Если для серьезных задач, то 12+ Гб видеопамяти, если для баловства, то далее 1660 достаточно будет, раньше на ней сидел, ещё до появления Forge, сейчас с ней наверняка ещё лучше дела обстоят.

График, представленный в статье также уже устарел, ввиду перехода на новые версии torch и развития sdp.

Созданные нейросетями лица не берутся ни из какого дата-сета. Читайте матчасть!

Все созданные лица людей - усреднённые взвешенные лица многого числа людей. Даже целенаправленная тренировка на определенные лица в моделях для Stable Diffusion не даёт даже 90% сходства

Не говоря уже о том, что в модели нейросети хранятся статистические данные сотни-тысячи лиц и по абстрактному запросу "woman" получается то, что не похоже ни на одну из этих фотографий.

Все претензии к "нейросети украли мой стиль"/"мое лицо" не обоснованы, если только кто-то не производить целенаправленное обучение на конкретный стиль или лицо (например LoRA для SD или голосовые нейросети, вроде бы so-vits), в остальных случаях вклад каждого отдельного лица и стиля сильно ничтожен. Даже крупные вкрапления artgerm/Greg Rutkowski в моделях SD генерируют что-то лишь отдаленно похожее на стиль художника, плюс этот стиль размывается остальными токенами промпта...

Короче читайте матчасть.

Что значит "десинхронизируются"?

Да, если запущена генерация, она не отображается в новой вкладке, но можно восстановить последние параметры, нажатием на синюю стрелочку.

А чтобы избежать таких ситуаций, когда случайно закрыл вкладку, есть небольшое расширение, которое при попытке закрыть вкладку выводит окошко подтверждения закрытия.

Зачем брать заведомо плохой инструмент и потом удивляться, что результат так себе вышел? Вы же не будете снег детской лопаткой убирать.

Берите SD если есть время изучать или MJ если хочется просто красивую картинку без возможности влиять на результат.

Конечно использовать MidJourney спорное решение, лучше например Stable Diffusion, так как он позволяет генерировать изображения с неизменными настройки и главное - сидом (seed), что позволяет сохранить композицию и относительное расположение цветов на готовом изображении, то есть исключить случайную составляющую из исследования (насколько это возможно)

А так, это практически пальцем в небо.

Разве можно причислять плохо прорисованные глаза к галлюцинациям? Если дать нейросети нарисовать глаз поближе, получается уже лучше. Чем дальше лицо от "камеры" - тем хуже результат. И вызвано это скорее низким выходным разрешением. Да, отсутствие информации тоже играет роль - если в режиме impaint повторно нарисовать только глаза, просто зашумив исходные (как делает Stable Diffusion), то результат значительно улучшается.

Обычно, когда разработчики видеоигр говорят о переиздании старых игр, они говорят о «ремастерах», репродукциях, которые не только обновляют графику или геймплей, но и переосмысливают всю концепцию игры. В результате чего иногда ремастеры это не просто старые игры в новой обёртке, это уже совсем другие игры.

Это ремейки, а не ремастер, если игру заново пересобирают. Например современный Resident Evil 2 ремейк, а GTA - ремастер.

А текст Вам для статьи нейросеть писала или перевод просто без редактуры? Читать невероятно сложно, просто с точки зрения языка.

Опуская претензию на украденную идею, за нее уже спросили другие комментаторы.

Вопрос от обратного: а зачем делать аналогичную на другие клавиши? Удобнее же, когда на всех системах одинаково всё и не надо вспоминать где и что нажимать..

Или я что-то не так понял?

Information

Rating
Does not participate
Registered
Activity

Specialization

Graphic Designer
Junior
Adobe Photoshop
Development of corporate identity
Design icons
Adobe Illustrator
Figma Design
Graphic design
Vector graphics
Creating banners
Printing design
Photo processing