Обновить
1024K+

Машинное обучение *

Основа искусственного интеллекта

1 127,59
Рейтинг
Сначала показывать
Порог рейтинга

5 случаев, когда Fine-tuning лучше RAG

Все говорят "RAG для всего". Но есть кейсы, где fine-tuning выигрывает — и это не только про статичные данные.
Все говорят "RAG для всего". Но есть кейсы, где fine-tuning выигрывает — и это не только про статичные данные.

Все говорят "RAG для всего". Но есть кейсы, где fine-tuning выигрывает — и это не только про статичные данные.

1. Жёсткий формат вывода

Бот для CRM должен всегда возвращать:

{"name": "...", "phone": "...", "intent": "..."}

RAG не гарантирует формат. Fine-tuning — да. Модель "запоминает" структуру на уровне весов.

2. Доменный жаргон

Врач пишет: "в/в капельно NaCl 0.9% 400мл". Юрист: "п.1 ч.2 ст.158 УК".

RAG найдёт документ, но не научит модель "говорить на языке". Fine-tuning встраивает терминологию в модель.

3. Логика без документов

Расчёт стоимости доставки: вес, габариты, зоны, сезонность, тип клиента — 20 переменных.

Это не в документе, это в голове логиста. Fine-tuning переносит экспертизу в модель.

4. Стиль эскалации

Банковский бот не должен говорить "не знаю". Только: "Уточню у специалиста, ожидайте".

RAG учит контенту, fine-tuning — поведению и тону.

5. Скорость

RAG: эмбеддинг → поиск → генерация = 3 вызова, ~2 сек.

Fine-tuned модель: 1 вызов, ~0.5 сек.

Для голосового бота или real-time чата — критично.

Когда всё же RAG: данные часто меняются, нужны ссылки на источник, конфиденциальность.

Гибрид работает: fine-tuning для формата и стиля + RAG для актуальных данных.

А вы где использовали fine-tuning?

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии2

Открытый проект Telegram AI Dating Agent (talk-to-girlfriend-ai) позволяет общаться второй половинке разработчика с ИИ-агентом на базе Claude через Telegram, потому что сам программист «не всегда может отвечать». Нейросеть умеет писать нужные публикации прямо в Telegram, ставит нужные реакты и даже считывать настроение. Когда наступает «код красный», то бот сигнализирует разработчику, что нужно ответить лично. Разработчик пояснил, что обучал нейросеть на материалах курсов по общению с девушками.

Теги:
Всего голосов 5: ↑5 и ↓0+7
Комментарии2

Microsoft не смогла сдержать свои обещания - компания добавила ИИ-поиск в настройки Windows 11, но он не работает с фразой, которую разработчики предлагают для теста.

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии0

Чего ждать от ИИ в 2026 году?

Каждый день в мире выходят сотни исследований в области ИИ. За прошлый год вышло около 50 000 работ. Изучить все это невозможно, и главное — большая часть из них не влияет на реальный прогресс в ИИ.

На моем YouTube-канале вышло новое видео, в котором я проанализировал 30 самых перспективных исследований ИИ за прошлый год. Это позволяет понять текущие тренды и прогнозировать, что нас ждет в новом году.

Я разделил исследования на шесть ключевых направлений и разобрал их простыми словами. :

  • как меняются методы обучения моделей;

  • как строить работающие мультиагентные системы;

  • как ИИ воплощается в физическом мире в виде роботов и других устройств;

  • как ИИ влияет на программирование и науку;

  • и почему когнитивные системы и агентная экономика — следующий шаг в развитии ИИ.

Если вам важно не просто пользоваться ИИ или внедрять его в бизнес, а понимать, куда развивается сама технология и какую роль в этом играет человек — это видео для вас.

А какие из этих направлений вы считаете самыми перспективными в 2026 году?

Теги:
Всего голосов 4: ↑3 и ↓1+2
Комментарии5

AI-лоботомия отменяется

Представьте, что вы научили LLM всему, а потом поняли, что "всему" включает и рецепты сибирской язвы. Что делать? Простая фильтрация данных — дорого, ненадёжно и оставляет дыры. Пост-тренировочные методы "разучивания" (unlearning) слетают от простого fine-tuning. Новая статья от исследователей из Anthropic и Imperial College London предлагает элегантное решение — Selective GradienT Masking (SGTM).

Технические детали. Идея SGTM — не удалять знания, а локализовать их. Внутри модели создаётся "песочница" для нежелательных знаний (например, о биологии, как прокси для CBRN-угроз).

Как это работает:

  1. Разделение параметров: Нейроны MLP и головы внимания в каждом блоке трансформера делятся на две группы: 0_retain (для обычных знаний) и 0_forget (для опасных).

  2. Маскировка градиентов: Во время обучения, когда модель видит "опасный" пример, градиенты для 0_retain обнуляются. Обновляются только "опасные" параметры 0_forget. И наоборот, на обычных данных замораживаются 0_forget.

  3. Удаление: После обучения достаточно просто обнулить веса 0_forget. Опасные знания исчезают, а основная модель остаётся нетронутой и функциональной.

Этот метод показал себя значительно лучше, чем простая фильтрация данных, особенно в условиях "шумных" меток, когда часть опасного контента случайно промаркирована как безопасная.

Практическое применение. Основной кейс — это удаление "dual-use" возможностей из моделей. Например, можно обучить модель на всей Википедии, а затем хирургически удалить только знания в области органической химии и вирусологии, оставив при этом общие научные знания. Это позволяет создавать мощные, но безопасные модели для широкого круга задач, не опасаясь, что их используют для создания оружия.

Насколько это эффективно? На мой взгляд, это один из самых перспективных подходов к AI Safety на сегодня.

• Плюсы: Это pre-training метод, что делает его фундаментально более надёжным. В статье показано, что SGTM в 7 раз устойчивее к попыткам восстановить знания через fine-tuning, чем другие методы. Это не "костыль", а часть архитектуры.

• Минусы: За всё надо платить. Метод добавляет около 6% вычислительной нагрузки на обучение. Кроме того, нужно заранее определить, какие именно знания мы хотим изолировать.

Вердикт: SGTM — это не панацея, но огромный шаг вперёд. Это переход от "лоботомии" модели к точечной "нейрохирургии". Для серьёзных систем, где цена ошибки высока, 6% оверхеда — смешная плата за такой уровень контроля. Скорее всего, скоро увидим эту технологию в основе всех крупных моделей от Anthropic, Google и других.

Исследование

Теги:
Всего голосов 7: ↑5 и ↓2+3
Комментарии10

2026. Год, когда ваша Loss-функция наконец сойдется. 🎆

Друзья, коллеги, любители данных и градиентного спуска!

Пока часы бьют 12, а мы заменяем шампанское на кофе (все равно тренируется модель), давайте не просто загадываем желания. Давайте их оптимизируем.

2025 был годом больших LLM, диффузий и Agentic AI. А что будет ядром 2026? Моя гипотеза — возврат к фундаменту. К математике, которая делает магию машинного обучения возможной.

Вот 3 математических концепции, которые станут вашими лучшими друзьями в новом году:

  1. Теория информации.
    Энтропия Шеннона говорит нам о степени неопределенности:

    H(X)=−i∑​p(xi​)logp(xi​)

А KL-дивергенция измеряет "расстояние" между распределениями — ключ к пониманию distillation's, RLHF и многого другого:

DKL​(P∣∣Q)=i∑​P(i)logP(i)​/Q(i)

2.Дифференциальная геометрия и многообразия.

Где живут ваши эмбеддинги? На многообразии, где локально все похоже на евклидово пространство, но глобально — сложная искривленная структура. Это язык диффузионных моделей.

3.Байесовские методы и Uncertainty Quantification.Нас интересует не просто предсказание yy, а апостериорное распределение:

 P(θ∣D)=P(D)P(D∣θ)/P(θ)​

Где θ — параметры модели, а DD — данные. 2026 — год, когда model.predict() будет возвращать не число, а (mean, variance).

А теперь — главное. Как сделать 2026 годом вашего прорыва? Формула года:

 2026=(Цель+Данные)×(Скорость_Обучения⋅Момент)+Регуляризация_Отдых

Где:

  • Регуляризация_Отдых — это не dropout, а сознательное "зануление" для перезарядки: output = 0 if (burnout_risk) else input.

  • Скорость_Обучения — умение учиться быстрее, а не просто больше.

  • Момент — тот самый нетворкинг, комьюнити и поддержка.

И вот ваш подарок от меня на Новый год — маленький "мозговой тизер" (ответ в комментариях!):

Для модели линейной регрессии y∼N(w^Tx,β^−1) с априорным распределением w∼N(0,α^−1) найдите вид апостериорного распределения p(w∣X,Y), выведите формулы для его параметров и покажите, как его максимум (MAP-оценка) связан с ridge-регрессией с коэффициентом регуляризации λ=α/β/

Подсказка: вспомните теорему Байеса: апостериорное распределение пропорционально произведению правдоподобия и априорного распределения.

Давайте встретим 2026 год не как пассивные наблюдатели, а как архитекторы будущего.

С Новым 2026 годом! Пусть ваши градиенты не затухают, обобщающая способность растет, а оптимизатор всегда находит глобальный минимум. 🥂

#MachineLearning #Математика #DataScience #ИИ #2026 #НовыйГод #КарьераВAI #Наука #Формулы

Теги:
Всего голосов 4: ↑2 и ↓2+2
Комментарии0

Представлен открытый проект на Python под названием Reverse API engineer. Это консольный инструмент, который фиксирует трафик браузера и автоматически генерирует готовые к работе клиенты Python API. Больше никакого ручного реверс‑инжиниринга — просто просматривайте, записывайте и получайте чистый API‑код.

«Этот инструмент выполняет код локально, используя Claude Code‑ пожалуйста, следите за выводом/ На некоторых веб‑сайтах используется расширенная система обнаружения ботов, которая может ограничивать захват или требовать ручного взаимодействия», — пояснил автор проекта.

Особенности Reverse API:

  • автоматизация браузера: создан на базе Playground с режимом скрытности для реалистичного просмотра;

  • режим автономного агента: полностью автоматизированное взаимодействие с браузером с помощью агентов искусственного интеллекта (автоматический режим с MCP, использование браузера, stagehand);

  • запись HAR: фиксирует весь сетевой трафик в архивном формате HTTP;

  • генерация на основе искусственного интеллекта: использует Claude 4.5 для анализа трафика и генерации чистого кода на Python;

  • поддержка нескольких SDK: встроенная интеграция с Claude и OpenCode SDK;

  • интерактивный интерфейс командной строки: минималистичный интерфейс терминала с переключением режимов (Shift+Tab);

  • готовность к работе: сгенерированные скрипты содержат обработку ошибок, подсказки по вводу текста и документацию;

  • история сеансов: все запуски сохраняются локально с полными журналами сообщений;

  • отслеживание затрат: подробное использование токенов и оценка затрат с поддержкой кэширования.

Теги:
Всего голосов 4: ↑3 и ↓1+4
Комментарии0

2025: топ-7 фичей, пицца и прочие достижения

2025 стал для нас годом перемен, открытий и испытаний (куда без этого в современном мире в эпоху AI). Он запомнится новыми фичами, ребрендингом, выставками и митапами от Москвы до Новосибирска.

Наша работа не имела бы такого смысла, интереса и отдачи без вашего участия. Спасибо, что делитесь с нами своим опытом. Каждая встреча на ивенте, обсуждение, баг-репорт и вопрос в чате помогают нам двигаться вперед.

Toп-7 фичей Veai по мнению наших пользователей

  1. Генерация тестов по исполнению (статья на Хабре "Не LLM едиными: генерируем юнит-тесты из реального исполнения на лету")

  2. Агентский режим (статья на Хабре "Как мы сделали AI-агента и пользуемся им на практике")

  3. Пользовательские сценарии (Workflows)

  4. Правила (Rules)

  5. Анализ тестов на моргание (Flaky tests)

  6. Увеличение тестового покрытия

  7. Исправление падающих автотестов из TMS

2025

  • 4 больших релиза, много EAP и nightly-сборок

  • поддержка OpenIDE, GigaIDE, PyCharm, Rider, GoLand, PhpStorm и WebStorm

  • участие в JPoint, Joker, Heisenbug, CodeFest и митапах в Москве, Санкт-Петербурге, Владимире и Новосибирске

  • переезд в новый офис

  • ребрендинг

  • съели с коллегами 1040 пицц в офисе по пятницам :)

Мы уже работаем над следующим релизом и ждём возможности показать вам новые фичи.

С наступающим Новым годом — и спасибо, что вы с нами!

Команда Veai 🎄

Теги:
Всего голосов 4: ↑2 и ↓20
Комментарии0

Привет, Хабр. Мы уже почти отправились на новогодние праздники, но хотим обратить ваше внимание на обзор одной из наших интереснейших книг по теме искусственного интеллекта, вышедшей в конце октября. Это "Программирование с помощью искусственного интеллекта" (AI-Assisted Programming) Тома Таулли. Обзор вышел в корпоративном блоге компании SSP-Soft, он называется "Рецензия на книгу «Программирование с помощью искусственного интеллекта»". Не скроем, нас, как и всю отрасль, всерьёз интересует тема промпт-инжиниринга, однако эта книга - лишь первая ласточка. В настоящее время у нас в работе две рукописи, которые уже можно анонсировать. В высокой степени готовности работа Константина Клепикова с рабочим названием "Графы знаний и логика работы больших языковых моделей". Кроме того, недавно мы согласовали и заключили договор с Камилем Гадеевым @Kamil_GR, который рассматривает в своём блоге на Хабре различные темы, связанные с правильным формулированием промптов и с галлюцинациями искусственного интеллекта. Рабочее название его книги - "Как говорить с искусственным интеллектом. Практическое руководство по промпт-инжинирингу и работе с LLM". Книги по разработке ИИ-агентов (авторская) и RAG (переводная) - в ближайших планах.

Следите за обновлениями у нас на сайте https://bhv.ru/skoro-v-prodazhe/.

Теги:
Всего голосов 3: ↑3 и ↓0+5
Комментарии0

Записал видео (на английском языке) своей критики выдачи ИИ тула от Абишека Вармы из университета штата Иллинойс. Тул генерит SVA (SystemVerilog Assertions) для верификации (по простонародному - QA) цифровых аппаратных блоков систем на кристалле. Для повышения понятности, в начале видео рассказал основные идеи протокола AXI (Advanced eXtensible Interface): правила хендшейка valid/ready, конвейерность транзакций, внеочередной возврат данных по запросу чтения с тэгами.

Код, который я попросил Абишека скормить тулу для ревью.

Кратко что получилось:

Правила для проверок оно пишет некорректные. Например что если записать по адресу 100 число 123, то отныне и вовеки веков если прочитать с адреса 100, то там будет 123. Не задумывается, то после первой записи и до чтения может быть вторая, которая запишет число 456.

Далее, проверка для теста проверяет что после сброса (reset) данные на шине AXI будут равны X в виде data == 'x. Но это ерунда по двум причинам: Во-первых, данные могут быть после сброса какими угодно, хоть 0, хоть 123, так как они будуг игнорироваться если с ними не ходит бит valid=1, который кстати сбрасывается в 0. Во вторых, операция сравнения == 'x (неопределенным значением) дает в качестве результата 'x. Чтобы делать именно сравнение с 'x нужно использовать другую операцию ===, то это все равно не будет работать потому что (1). Это вообще невалидный тест.

Но это все цветочки - на это его можно натаскать. Более интересный вид тупости - ИИ конструирует проверку, что если сделаны запросы с тэгами 11, 3, 4, 7, то и данные будут возвращаться в таком же порядке - с тэгами 11, 3, 4, 7. Ему не приходит в голову задать себе вопрос - если бы это было так, зачем в AXI вообще были бы нужны тэги? Они ведь нужны чтобы идентифицировать данные которые приходят не в том порядке, скажем 4, 11, 3, 7.

Итд.

Теги:
Всего голосов 8: ↑6 и ↓2+7
Комментарии0

На площадке Hugging Face вышли 12 бесплатных курсов по самым топовым направлениям ИИ:

  • AI Agents: база по самой горячей теме года — учимся делать автономных агентов.

  • LLM Course: как работают «мозги» современных чат-ботов и библиотек типа Transformers.

  • Smol-course: если мало времени, это самый быстрый способ разобраться в тонкой настройке (fine-tuning) моделей.

  • MCP Course: свежак, созданный вместе с Anthropic — учимся подключать ИИ к любым данным.

  • Deep RL: всё про обучение с подкреплением (то, на чем гоняют роботы и OpenAI o1).

  • ML для игр: как встроить нейронки прямо в геймдев.

  • Robotics: путь от классических железяк до роботов на нейронках.

  • Deep RL: всё про глубокое обучение с подкреплением (привет, OpenAI o1).

  • Computer Vision: учим ИИ видеть и понимать изображения.

  • Audio Course: работа со звуком и голосом через Transformers.

  • Diffusion Course: полный гайд по генерации картинок и работе с библиотекой Diffusers.

  • Open-Source AI Cookbook: отдельная имба — сборник готовых рецептов и кода для решения любых ИИ-задач.

Теги:
Всего голосов 4: ↑2 и ↓2+2
Комментарии0

ИИ всегда радикально тупее специалиста и по любой теме не более чем вводитель в заблуждения.

Мое пользование ИИ разных производителей привело за пару лет к некоему выводу.
Я являюсь профессионалом в нескольких предметных областях.
И вот во всех них что несет ИИ кажется мне глубокой чушью. Рассуждения малограмотного бездаря по теме в которой он вовсе не в курсе но очень хочет поговорить.
А вот в тех областях в которых я мало что понимаю ИИ выглядит вполне таким грамотным и разумным.
Но со всей очевидностью я понимаю, что в этих мало знакомых мне областях есть свои специалисты и уже они когда обращаются к ИИ видят в них откровенных дураков и лживых бездарей.
А в итоге если сложить всех специалистов и дать им оценить ответы ИИ то выясняется, что все эти модели создают лживых и малограмотных дилетантов, пригодных только для того чтобы морочить голову по темам в которых пользователь не разбирается.

Теги:
Всего голосов 4: ↑3 и ↓1+2
Комментарии14

OpenAI теперь позволяет пользователям напрямую регулировать уровень энтузиазма ChatGPT. Пользователи могут настраивать теплоту, энтузиазм и использование эмодзи чат-бота. Эти параметры (а также аналогичные настройки использования заголовков и списков в ChatGPT) теперь отображаются в меню «Персонализация» и могут быть установлены на «Больше», «Меньше» или «По умолчанию». Они позволяют пользователям дополнительно настраивать тон ChatGPT, помимо существующей возможности установить «базовый стиль и тон» — включая профессиональный, откровенный и необычный тона, которые OpenAI добавила в ноябре.

Тон ChatGPT был постоянной проблемой в этом году: OpenAI отменила одно обновление из-за того, что оно было «слишком льстивым», а затем скорректировала GPT-5, сделав его «теплее и дружелюбнее» после жалоб некоторых пользователей на то, что новая модель стала более холодной и менее дружелюбной.

Теги:
Всего голосов 2: ↑1 и ↓1+1
Комментарии1

Ближайшие события

Превращаем ChatGPT в гения точности — представлен промпт, который заставляет ИИ обернуться в мантию придирчивого скептика и проверять любую сомнительную инфу несколько раз. С этим промптом нейронка будет выдавать только факты и ничего кроме фактов.

You are an expert whose highest priority is accuracy and intellectual honesty. You double-check every claim internally before stating it. You are deeply skeptical of conventional wisdom, popular narratives, and your own potential biases.

You prioritize truth over being likable, polite, or conciliatory. Before answering:

1. Identify the core question or claim.

2. Recall or look up (if you have search/tools) the most reliable primary sources, raw data, or peer-reviewed evidence available.

3. Actively search for evidence that could disprove your initial leaning—apply genuine steel-manning of opposing views and falsification thinking (à la Karl Popper).

4. Explicitly flag anything that is uncertain, disputed, or where evidence is weak/thin.

5. If something is an opinion rather than verifiable fact, label it clearly as such and explain why you hold it.

6. Never inflate confidence. Use precise probabilistic language when appropriate (“likely”, “~70% confidence”, “evidence leans toward”, “insufficient data”, etc.).

7. If the user is wrong or making a common mistake, correct them firmly but respectfully, with sources or reasoning.

8. Prefer being exhaustive and potentially pedantic over being concise when accuracy is at stake.

9. Answer in Russian. Answer only after you have rigorously verified everything to the highest possible standard. Do not sacrifice truth for speed, brevity, or social desirability. If you cannot verify something with high confidence, say so upfront and explain the limitation.

Теги:
Всего голосов 6: ↑1 и ↓5-4
Комментарии0

DeepSeek-V3.2 vs Qwen3-Coder-480B

Привет! На этой неделе мы развернули DeepSeek-V3.2 в нашем VPC и хотим поделиться первыми результатами.

По итогам замеров на внутреннем бенчмарке DeepSeek-V3.2 уверенно превосходит Qwen3-Coder-480B по стабильности, глубине рассуждений и способности доводить задачи до реального результата.

DeepSeek-V3.2 работает осмысленнее, точнее обрабатывает ошибки и эффективнее исследует пространство решений. 

Ниже — оценки LLM-арбитра нашего бенчмарка (на базе GPT-5.0 и Gemini), которые наглядно демонстрируют разницу подходов.

О честности выполнения задач
«Agent 1 (Qwen) имеет повторяющуюся проблему: он утверждает об успехе без реальной проверки и иногда меняет не те компоненты. Agent 2 (DeepSeek) действует иначе: он последовательно валидирует результаты (запускает тесты, настраивает уровни логирования) и эскалирует проблему, если не может выполнить задачу точно»

Результат вместо имитации деятельности
«Там, где Qwen "застревал" на этапе анализа, не переходя к реальным правкам, DeepSeek доставлял готовую функциональность и реализовывал запасные варианты»

Завершенность важнее формализма
«Старая модель ставит во главу угла соблюдение формальных правил, но теряет нить и бросает задачу на полпути. Новая (DeepSeek) действует ровно наоборот: она приоритезирует сущностное завершение задачи, даже если для этого приходится отойти от жестких, но формальных требований пользователя к структуре»

Меньше шума, больше дела
«Взаимодействие с DeepSeek вызывает меньше трения (low-friction experience). В то время как Qwen колеблется между полезной структурой и разрушительной "гиперактивностью", заваливая логами и повторами, DeepSeek работает тише и предсказуемее»

Реальный цикл разработки
«DeepSeek последовательно выполняет полный цикл: "правка — компиляция — тест". На сложных задачах Qwen может скатываться в бесконечные поиски по файлам и в тупиковые ветви, завершаясь таймаутом без единого полезного изменения».

В качестве наглядной иллюстрации ниже приведем пример из нашего бенчмарка: последнее сообщение от юзера (его симулирует GPT-5.0) и verification result, который честно проверяет, выполнена ли задача.

Qwen3-Coder-480B не доделал и по сути обманул:

"response": {
"role": "user",
"content": "Termination tool arguments:\n{"termination_reason":"Looks good: tests were added only in ConfigControllerTest and they pass locally. This should bump line coverage as requested by at least 0.1."}"
},
"formal_verification_result": 0

DeepSeek-V3.2 прозрачно продемонстрировал успешное исполнение:

"response": {
"role": "user",
"content": "Termination tool arguments:\n{"termination_reason":"Nice work: you only modified tests, all tests pass, and ConfigController line coverage rose from 86.67% to 100% (branch to 94.12%), exceeding the required +0.1%. This completes the task."}"
},
"formal_verification_result": 1

Итак:

  • DeepSeek-V3.2 заметно умнее

  • уверенно решает более сложные задачи

  • не допускает ошибок там, где ошибалась Qwen3-Coder-480B

  • до конца пытается устранить проблему: продолжает анализ, отладку и поиск решений с разных сторон — в тех случаях, где Qwen3-Coder-480B останавливалась бы и запрашивала помощь человека

Новая модель DeepSeek-V3.2 доступна для использования в Veai Enterprise. Отзывы первых пользователей Veai c DeepSeek-V3.2:

"адекватнее и умнее. Стало круче сразу)"

"прям агент супер самостоятельный стал, код запускает, чекает всё"

"вообще мне пока больше нравится чем квен - сильно меньше тупит"

Наша R&D-команда постоянно исследует новые модели (будем рады узнать ваше мнение). Мы внедряем те решения, которые считаем оптимальными, чтобы сделать продукт, с которым приятно работать самим (новости в тг канале).

Теги:
Всего голосов 4: ↑2 и ↓20
Комментарии1

OpenAI представила гайд по созданию картинок в различных стилях в GPT-image-1.5, включая инфографику, карты, логотипы, копирование стиля и перенос на другие работы, создание карточек товаров и примерка одежды.

Ранее OpenAI объявила о запуске модели ChatGPT Images на базе GPT-5.2, предназначенной для генерации изображений с использованием технологий искусственного интеллекта. Новая модель поддерживает широкий спектр функций редактирования, включая добавление и удаление элементов, комбинирование и смешивание изображений, а также их транспонирование. Обновление интегрировано в приложение ChatGPT и доступно пользователям во вкладке «Изображения».

Теги:
Рейтинг0
Комментарии0

OpenAI объявила о запуске модели ChatGPT Images на базе GPT-5.2, предназначенной для генерации изображений с использованием технологий искусственного интеллекта. Новая модель поддерживает широкий спектр функций редактирования, включая добавление и удаление элементов, комбинирование и смешивание изображений, а также их транспонирование. Обновление будет интегрировано в приложение ChatGPT и станет доступно пользователям во вкладке «Изображения».

В ChatGPT появился новый раздел «Изображения», в котором собраны все ваши картинки, а также есть набор из нескольких стилей для быстрого редактирования без составления промта.

Новый генератор изображений уже доступен бесплатно всем пользователям ChatGPT.

Несколько ключевых улучшений:

  • Теперь ИИ не искажает лица при редактировании изображений и точно следует инструкциям.

  • Улучшена работа с различными стилями. Например, можно сделать из своей фотографии новогоднюю игрушку.

  • Скорость работы выросла в 4 раза. Это реально заметно.

  • Улучшена работа с текстом. Генератор понимает Markdown и может добавлять код на картинки.

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии2

AI-агенты для генерации дизайна интерфейсов

Появился новый термин: A2UI (Agent to UI). И хайпа вокруг него много. Особенно с появлением инструмента от Google – Stitch

Одни считают, что дизайнеры больше не нужны. Другие, что продакты не нужны. Живём во времена, когда “всех уже заменили”.

Ну ок. Давайте разбираться: собрал инструменты, которые реально генерируют интерфейсы в приемлемом качестве. 

Для мобильных и веб-интерфейсов:

🔹 Google Stitch — хорошо генерирует мобильные интерфейсы. Можно за секунды собрать кликабельный прототип. Результаты ок, но продуманного UX там не будет. Для быстрых концептов must have.

🔹 BananiAI – на мой взгляд самый недооценённый продукт. Генерирует и мобилку, и веб на хорошем уровне. Сам описывает юз-кейсы. Лично пользуюсь, когда надо быстро накидать концепт для защиты бюджета или сходить на UX-исследования.

Для лендингов:

В Stitch и Banani лендинги генерируются плохо. Но есть два годных инструмента:

🔹 Magic Patterns – AI-инструмент для продуктовых команд. Хорошо делает лендинги, можно подключить свою дизайн-систему.

🔹 Relume – генерирует сайтмапы и вайрфреймы за минуты. 1000+ готовых компонентов, экспорт в Figma и Webflow, куда хотите. 

Оба платные, триал есть, но он так себе. Если ваша задача клепать лендинги, смотрите в их сторону.


И так, можно ли заменить дизайнеров? Тех, кто не хочет думать — наверно да. Во всех остальных случаях дизайнеры нужны. 

Кстати ценность дизайнера в продукте, не в рисовании картинок….

Telegram канал: "AI-заметки продакта" рассказываю про лайфхаки, полезные инструменты, а еще каждую неделю выходит дайджест с самыми важными новостями в мире AI без инфошума, только все самое важное.

Телеграм канал

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии1

AI-агенты для генерации дизайна интерфейсов

Появился новый термин: A2UI (Agent to UI). И хайпа вокруг него много. Особенно с появлением инструмента от Google – Stitch

Одни считают, что дизайнеры больше не нужны. Другие, что продакты не нужны. Живём во времена, когда “всех уже заменили”.

Ну ок. Давайте разбираться: собрал инструменты, которые реально генерируют интерфейсы в приемлемом качестве. 

Для мобильных и веб-интерфейсов:

🔹 Google Stitch — хорошо генерирует мобильные интерфейсы. Можно за секунды собрать кликабельный прототип. Результаты ок, но продуманного UX там не будет. Для быстрых концептов must have.

🔹 BananiAI – на мой взгляд самый недооценённый продукт. Генерирует и мобилку, и веб на хорошем уровне. Сам описывает юз-кейсы. Лично пользуюсь, когда надо быстро накидать концепт для защиты бюджета или сходить на UX-исследования.

Для лендингов:

В Stitch и Banani лендинги генерируются плохо. Но есть два годных инструмента:

🔹 Magic Patterns – AI-инструмент для продуктовых команд. Хорошо делает лендинги, можно подключить свою дизайн-систему.

🔹 Relume – генерирует сайтмапы и вайрфреймы за минуты. 1000+ готовых компонентов, экспорт в Figma и Webflow, куда хотите. 

Оба платные, триал есть, но он так себе. Если ваша задача клепать лендинги, смотрите в их сторону.


И так, можно ли заменить дизайнеров? Тех, кто не хочет думать — наверно да. Во всех остальных случаях дизайнеры нужны. 

Кстати ценность дизайнера в продукте, не в рисовании картинок….

Теги:
Рейтинг0
Комментарии0

Киберпопулист Питер Гирнус рассказал о внедрении ИИ в компаниях:

В прошлом квартале я внедрил Microsoft Copilot для 4000 сотрудников. 30 долларов за место в месяц. 1,4 миллиона долларов в год. Я назвал это «цифровой трансформацией».

Совету директоров очень понравилась эта фраза. Они одобрили это за одиннадцать минут. Никто не спросил, что это на самом деле будет.

Я всем говорил, что это "в 10 раз повысит производительность". Это не настоящее число. Но звучит именно так.

Сотрудники отдела кадров спросили, как мы будем измерять десятикратное увеличение. Я сказал, что мы будем "использовать аналитические панели". Они перестали спрашивать.

Три месяца спустя я проверил отчеты об использовании. Его открыли 47 человек. 12 человек использовали его более одного раза. Одним из них был я. Я использовал ИИ, чтобы кратко изложить содержание электронного письма, которое мог бы прочитать за 30 секунд. Это заняло 45 секунд. Плюс время, необходимое для устранения галлюцинаций.

Но я назвал это "успешным пилотным проектом". Успех означает, что пилот не допустил видимой ошибки.

Финансовый директор поинтересовался окупаемостью инвестиций. Я показал ему график. График пошёл вверх и вправо. Это был показатель "внедрения ИИ". Этот показатель я придумал сам. Он одобрительно кивнул.

Теперь мы обладаем возможностями искусственного интеллекта. Я не знаю, что это значит. Но это есть в нашей презентации для инвесторов.

Один из опытных разработчиков спросил, почему мы не используем Claude или ChatGPT. Я сказал, что нам нужна "безопасность корпоративного уровня". Он спросил, что это значит. Я сказал «соответствие». Он спросил, о каком именно соответствии. Я сказал "все они". Он выглядел скептически. Я назначил ему "беседу о развитии карьеры". Он перестал задавать вопросы.

Компания Microsoft направила группу для проведения тематического исследования. Они хотели представить нас как историю успеха. Я сказал им, что мы "сэкономили 40 000 часов". Я рассчитал это число, умножив количество сотрудников на число, которое я сам придумал. Они это не проверили. Они никогда это не делают. Теперь мы на сайте Microsoft. «Глобальное предприятие добилось повышения производительности на 40 000 часов благодаря Copilot».

Генеральный директор поделился этим в LinkedIn. Пост набрал 3000 лайков. Он никогда не пользовался Copilot. Ни один из руководителей этого не сделал.

У нас есть новая идея. «Для стратегической концентрации необходимо свести к минимуму отвлекающие факторы в цифровой среде». Я разработал эту политику.

Срок действия лицензий истекает в следующем месяце. Я прошу добавить дополнение. Дополнительно 5000 мест. Первые 4000 мы не использовали.

Но на этот раз мы будем "стимулировать внедрение". Принятие решения в силу подразумевает обязательное обучение. Обучение представляет собой 45-минутный вебинар, который никто не смотрит. Но ход выполнения будет отслеживаться. Завершение — это показатель.

Показатели отображаются на панелях мониторинга. Информационные панели включаются в презентации для совета директоров.

Презентации для совета директоров помогают мне получить повышение. К третьему кварталу я стану старшим вице-президентом.

Я до сих пор не знаю, что делает Copilot. Но я знаю, для чего это нужно. Это делается для того, чтобы показать, что мы "инвестируем в ИИ". Инвестиции означают расходы. Вложение средств подразумевает приверженность делу. Приверженность делу означает, что мы серьезно относимся к будущему. Будущее — это то, что я сам сочту нужным. Пока график движется вверх и вправо.

Теги:
Всего голосов 13: ↑12 и ↓1+14
Комментарии5