
У каждого бывали моменты, когда в голове уже готов идеальный визуал - чёткий, детальный, именно такой, какой нужен. Открываешь стоки - не то. Лезешь в Canva - честно, компромисс на компромиссе, а Photoshop возиться не хочется.
Знакомо?
А теперь другой сценарий: вы просто описываете словами то, что у вас в голове, - и через несколько секунд изображение уже на экране. А именно то, что хотели. Звучит подозрительно? Понимаем. Но это не магия и не реклама курса по саморазвитию - это просто 2026 год.
Современные нейросети для генерации изображений умеют такое, от чего пару лет назад у дизайнеров случился бы нервный тик. Фотореалистичный портрет? Пожалуйста. Сюрреалистичный пейзаж, где океан течёт вверх? Легко. Кот в костюме самурая на фоне неонового Токио? Уже готов, пока вы читали этот абзац.
Кстати, взгляните на обложку. Видите эти часы? На первый взгляд - обычные. Но там, где должны быть цифры, стоят другие часы. Поменьше. А на тех часах - ещё часы. Ещё меньше. Знакомьтесь - Часы без времени. Они созданы нейросетью с нуля, и сегодня именно они станут нашим подопытным. Мы прогоним их через пять разных ИИ-генераторов с одним заданием.
Промпт
A hyper-realistic close-up photograph of a luxury wristwatch lying on a dark velvet surface. Instead of numbers on the dial, there are smaller watches embedded in place of each hour mark. Each of those tiny watches has even smaller watches instead of their numbers, creating a recursive, fractal-like effect. The main watch has a polished silver case with intricate engravings, a sapphire crystal glass with subtle reflections, and dark leather strap. Dramatic studio lighting from the left side, shallow depth of field, macro photography style, 8K detail.
Гиперреалистичная макрофотография наручных часов класса люкс на тёмной бархатной поверхности. Вместо цифр на циферблате расположены маленькие часы на месте каждой часовой отметки. На каждых из этих крошечных часов вместо цифр — ещё более мелкие часы, создающие рекурсивный, фрактальный эффект. Основные часы в полированном серебряном корпусе с гравировкой, сапфировым стеклом с лёгкими бликами, тёмный кожаный ремешок. Драматичное студийное освещение слева, малая глубина резкости, стиль макросъёмки, детализация 8K.
Давайте проверять. Приятного чтения!
BotHub

С помощью BotHub можно протестировать популярные ИИ для генерации изображений. Над полем для ввода промпта можно выбрать нужную. В списке доступны Nano‑Banana 2, Flux, Dal Midjourney-7 и другие. Внутри сервиса действует своя валюта — капсы.
По ссылке вы можете получить 300 000 бесплатных капсов для первых задач и приступить к работе с нейросетями прямо сейчас!
Для примера я выбрал генерацию изображения через Nano‑Banana 2. Через 15 секунд я получил четыре изображения. На это ушло 39 000 капсов.
Результат

Ну что сказать, наш ИИ-подопытный справился с задачей на твердую 9. Картинка выглядит так дорого-богато. Правда, самую сложную часть с рекурсивными часами внутри часов нейросеть тактично проигнорировала, сделав вид, что такого в задании и не было. Вместо этого она увлеклась рисованием несуществующего бренда "Fractionist" и немного сбилась со счёта, потеряв по дороге пару циферблатов. Так что за фотореализм - твёрдая пятёрка, а вот за внимательность и математику - увы, неуд.
GPT Image 1.5

Пожалуй, самый очевидный выбор для тех, кто уже пользуется ChatGPT. Генерация изображений здесь встроена прямо в интерфейс - никаких сторонних сервисов, никаких отдельных вкладок.
Под капотом работает GPT image generation - принципиально новый подход по сравнению с прежним DALL·E 3. Модель отлично справляется с точным следованием промптам, умеет встраивать текст прямо в изображения и работает с загруженными фотографиям.
Одна из главных фишек - итерационная работа. Генерация нативно встроена в GPT, поэтому образы можно дорабатывать прямо в диалоге. Модель удерживает контекст беседы и следит за консистентностью. Например, при разработке персонажа для игры его внешность будет оставаться узнаваемой от итерации к итерации.
В декабре 2025 года подъехало обновление. Новая версия GPT Image 1.5 обещает более точное следование инструкциям, улучшенное редактирование и скорость генерации до 4 раз быстрее. Теперь при редактировании загруженного изображения модель меняет только то, о чём её просят, сохраняя освещение, композицию и внешность людей неизменными.
Что касается тарифов: на бесплатном плане доступно 2–3 генерации в сутки. При этом каждый слот сбрасывается ровно через 24 часа после конкретной генерации, а не в полночь - так что тратить все попытки сразу невыгодно.
Генерация работает лучше на английских промптах - модель точнее передаёт детали и стиль. Русский язык воспринимается нормально, но иногда результат чуть менее предсказуем.
Результат

А вот и более амбициозный брат-близнец первого варианта. Нейросеть явно решила не отлынивать и честно попыталась запихнуть в маленькие циферблаты еще более мелкие детали, как и просили. Разумеется, считать до двенадцати ИИ снова не научился и потерял один из часовых маркеров где-то в процессе творческих мук.
FLUX

FLUX - серия text-to-image моделей от Black Forest Labs (BFL), немецкой компании, основанной бывшими сотрудниками Stability AI. Звучит как скромное резюме, но за этим стоит кое-что серьёзное: именно эта команда в своё время создала Stable Diffusion. 25 ноября 2025 года BFL выпустила семейство моделей FLUX.2 - в составе Pro, Flex, Dev и Klein. Флагман линейки - FLUX.2 [dev], 32-миллиардная модель для генерации и редактирования изображений, в том числе с несколькими референсами одновременно.
Одно из главных преимуществ - работа с референсами. FLUX.2 Pro принимает до 10 референсных изображений за раз, причём первые шесть обрабатываются с максимальным вниманием к деталям, а изображения с седьмого по четырнадцатое влияют на общую композицию.
По качеству картинки тоже есть чем похвастаться. FLUX.2 генерирует изображения до 4 МП против 1 МП у FLUX.1, что делает его пригодным для печати, высококачественных цифровых материалов и кинематографических раскадровок. Впечатляет и типографика: модель точно рендерит текст на вывесках, продуктах, логотипах и макетах интерфейсов - с чем предыдущие модели стабильно проваливались.
В январе 2026 года вышло ещё одно обновление: семейство FLUX.2 [klein] - самые быстрые модели линейки, способные генерировать изображения за долю секунды на потребительских GPU.
Что касается доступа: FLUX.1 Schnell доступен как open-source под лицензией Apache, Dev - как source-available под некоммерческой лицензией, а Pro - проприетарная модель, доступная только через API. В декабре 2025 года компания привлекла $300 млн в рамках раунда Series B, доведя общую капитализацию до $500 млн.
Результат

Нейросеть свалила все маленькие циферблаты в кучу в нижней части, оставив верхнюю половину пустой. При этом некоторые из маленьких часов она заменила на турбийоны. Да, картинка получилась шикарная, с дорогими бликами и гравировкой, но как часы это полный провал. И из 12 делений, она сделала всего 8.
Reve Image

Reve Image появился буквально из ниоткуда в марте 2025 года - и сразу же возглавил лидерборд Artificial Analysis, где и остаётся по сей день. Неплохой старт для сервиса, о котором мало кто слышал. Компания базируется в Пало-Альто и намеренно остаётся небольшой, зато в команде - бывшие топ-специалисты из Google Brain и NVIDIA.
Отдельно стоит выделить работу с текстом: Reve - один из лидеров рынка по типографике. В отличие от многих моделей, которые выдают бессмыслицу, сервис точно рендерит текст на вывесках, футболках и газетах.
По функционалу сервис - полноценный редактор, а не просто генератор. Можно редактировать уже созданные изображения: улучшать качество, убирать фон, менять размер и дорабатывать детали. Это даёт куда больше контроля над финальным результатом.
Модель понимает расположение объектов, работает с референсами и поддерживает редактирование на уровне отдельных объектов, удаление фона и апскейлинг. При редактировании можно оставлять текстовые пометки прямо на нужных участках изображения - и модель переработает именно их.
Что касается версий: модель Reve 1.5 Preview предлагает более фотореалистичные изображения с улучшенной детализацией, точностью освещения и чёткостью текстур. Интерфейс в 2026 году получил обновление: теперь это чистый однопанельный макет, где всё под рукой и можно сосредоточиться на работе с холстом.
По тарифам: кредитная система ушла в прошлое. Бесплатный план даёт ограниченное количество генераций, платный Pro - в 100 раз больше за 20 долларов в месяц, плюс приватные изображения.
Результат

Вместо внедрения нейросеть просто присобачила часы сверху, как маленькие будильники. Рекурсию, само собой, снова проспали, но за математические способности и ровный хоровод из часов - твёрдая тройка с плюсом - 13 циферблатов. Результат снова так себе.
MAI-Image-2

Листал лидерборд Arena.ai - и тут в глаза бросается Microsoft. MAI-Image-2 дебютировал сразу на пятом месте в Image Arena, показав значительный прирост по всем семи категориям по сравнению с предшественником - особенно в рендеринге текста, где прибавка составила +115 пунктов. А затем модель и вовсе вошла в тройку лидеров.

Год назад Microsoft генерировала изображения для Bing и Copilot почти полностью силами моделей OpenAI. Теперь у компании есть собственный инструмент - и он сразу бьёт конкурентов. В отличие от DALL-E 3, разработанного OpenAI и интегрированного в продукты Microsoft через партнёрство, MAI-Image-2 - это модель, созданная Microsoft с нуля. MAI-Image-1 дебютировал на девятой строчке лидерборда в октябре 2025 года. Пять месяцев спустя вторая версия уже в тройке на самом популярном краудсорсинговом лидерборде в индустрии. Темп, прямо скажем, нетипичный для Microsoft.
Модель строилась с прицелом на три конкретные задачи. Первая - фотореализм: естественное освещение, точная передача оттенков кожи, среды с физической текстурой. Microsoft позиционирует это как способ сократить объём постобработки между генерацией и готовым результатом. Вторая - текст внутри изображения: модель умеет работать с читаемыми надписями прямо в сцене — от вывесок до инфографики и типографических макетов. Третья - детализированная генерация сцен: плотные композиции, сюрреалистические концепты, кинематографический кадр и всё то, где важны точный промпт и высокая чёткость.
Модель разрабатывалась с участием фотографов, дизайнеров и визуальных сторителлеров - чтобы лучше соответствовать реальным творческим задачам.
Теперь о минусах - они есть. MAI-Image-2 поддерживает только квадратный формат 1:1, без горизонтальных, вертикальных или произвольных соотношений сторон. В 2026 году, когда соцсети требуют разных размеров изображений, это ощутимое ограничение для контент-мейкеров. После каждой генерации - 30 секунд кулдауна, и всего 15 изображений в день. Редактирование в стиле image-to-image, inpainting и outpainting пока недоступны - это генератор только текст в картинку, без возможности доработать уже готовое изображение.
MAI Playground уже открыт для всех на playground.microsoft.ai, а сам сервис постепенно появляется в Copilot и Bing Image Creator. Стоимость через API - $0.036 за изображение, что на 15–25% дешевле сопоставимых сервисов OpenAI.
Результат

Эта нейросеть единственная, кто по-настоящему вслушался в слово фрактальный и отреагировал на него с энтузиазмом маньяка. Вместо элегантной рекурсии мы получили циферблат, который смотрит на тебя сотней маленьких глазков. Да, технически задача выполнена даже с перебором, но смотреть на это дольше пяти секунд физически некомфортно. Снова промах.
Резюмируя
В конце хочется напомнить, что нейросетям всё ещё рано безоговорочно доверять. Они ошибаются, фантазируют и иногда удивляют не в ту сторону. Они неплохи, но только как помощники, не более. Алгоритмы могут ускорить рутину, упростить сложное, вдохновиться и сэкономить время. Главное помнить, что за всеми этими технологиями стоим мы.
Поэтому доверяйте, но проверяйте. И не забывайте, именно вы направляете всё это в нужное русло!
Спасибо, что дошли до конца! А теперь очередь за вами. Расскажите, какие нейросети уже прописались в ваших закладках? Может, мы забыли про какой-то сервис? Давайте пополним этот список вместе!
