
Если вы не провели последние два года на ферме в Сибири, вы, вероятно, слышали о Stable Diffusion или пробовали генерировать изображения с помощью моделей, вроде Dall-e или Midjourney. Они становятся все лучше каждый день, и по качеству уже сравнимы с людьми, а во многих аспектах даже лучше (например, им не нужно платить).
Исследования в области создания видео уже идут полным ходом во многих лабораториях и компаниях, так что это лишь вопрос времени, когда генеративные модели сместят людей с очередного столпа на котором держится наше общества — порно. Я не вижу чтобы кто то поднимал тревогу об огромном количестве людей, которые потеряют работу из-за этого. Я не такой бессердечный, поэтому, прежде чем наступил этот печальный момент, я решил принять меры и создать базовое руководство, которое даже работник индустрии для взрослых сможет понять и использовать, чтобы оставаться в игре. Давайте посмотрим, что к чему.



Компания Meta¹ рассказала о CM3leon, нейросетевой модели для преобразования текста в изображения, изображений в текст и других подобных задач. CM3leon превосходит схожие продукты: из-за отличий в само́й архитектуре продукта возможно количество параметров в два с лишним раза выше, чем в DALL-E 2, а в процессе тренировки потребовалось в 5 раз меньше вычислительной мощности, чем у конкурентов.













