Обновить
753.14

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга

Учёные сравнили ChatGPT с психологическими профилями людей из 65 стран и выяснили, что модели ИИ мыслят на 70% ближе к американцам, чем к остальному миру. По данным World Values Survey, мышление ИИ оказалось ближе всего к США, Великобритании, Канаде и странам Западной Европы, а дальше всего от Эфиопии, Пакистана и Кыргызстана.

Теги:
+1
Комментарии8

Команда Datalab выпустила бесплатную OCR модель Chandra, которая превращает любые PDF и картинки в обычные текстовые документы. Просто закидываем файл и получаем вывод в формате HTML, Markdown и JSON. Легко вытаскивает таблицы, формулы и диаграммы. Понимает 40+ языков. Можно пользоваться в браузере или поставить локально. Ставим локально с GitHub или пользуемся онлайн — здесь.

Теги:
+12
Комментарии2

Бесплатную учебную базу по ML выдал Гарвардский университет в новой книге. Авторы сделали акцент на инженерии и построении правильных нейронок с нудя.. В книге 2500 страниц, включая строительство, оптимизацию и поддержку ML-решений на всех этапах: от подбора и подготовки данных до продакшена и использования. Авторы объясняют, как правильно связать алгоритмы, данные и железо, чтобы ИИ выдержал даже высокие нагрузки и стабильно помогал в любых задачах. Онлайн-учебник, репозиторий проекта.

Теги:
+4
Комментарии0

Горящие новости Evolution Foundation Models: модели, тарифы и акции 🔥

Попробуйте бесплатно 20+ LLM, реранкеров и эмбеддеров в Evolution Foundation Models до 1 ноября, а затем используйте их по цене 35 рублей за миллион входных и 70 рублей за миллион выходных токенов.

А еще выбирайте модели из расширенного списка, ведь недавно мы добавили:

  • GigaChat 2 MAX — самую мощную LLM линейки GigaChat, которая обошла GPT-4o и Claude 2 в тесте MMLU-RU.

  • Qwen3-Next-80B-A3B-Instruct, которая сочетает высокоскоростные блоки для длинных последовательностей и точные attention-слои, а также использует спарсовую архитектуру Mixture of Experts с 512 экспертам.

  • GLM-4.6 с высокой производительностью при написании кода в Cline, Roo Code и Kilo Code.

  • Whisper large-v3 — продвинутую модель от OpenAI для распознавания речи. Модель не надо дообучать, а еще ее можно использовать в коммерческих целях — она распространяется под свободной лицензией Apache-2.0.

  • MiniMax-M2 — компактную, но мощную модель для работы с кодом и агентами. №1 среди open source моделей в бенчмарке Artificial Analysis, которая умеет планировать цепочки действий, работать с окружением, извлекать данные и работать с внешними инструментами.

Для использования моделей не нужно писать код или развертывать инференс, все уже готово к подключению через API.

Попробовать 🕹️

Теги:
0
Комментарии0

Всем привет!

Как автоматизировать тестирование батч-моделей?

Если вы работаете с ML-моделями и сталкивались с батч-обработкой данных, то знаете, насколько муторно бывает тестировать такие процессы вручную.
А если автоматизировать этот повторяющийся хаос? В статье «Как автоматизировать тестирование батч-моделей? Гайд» рассказываем, как превратить рутину в предсказуемый и управляемый процесс.

Статья будет полезна не только специалистам по автоматизации процессов тестирования, а и ML-инженерам, MLOps-специалистам и командам разработки, занимающимся поддержкой продакшн-систем машинного обучения.

После прочтения вы точно перестанете выполнять повторяющиеся из раза в раз тесты для батч моделей вручную — потому что поймёте, что можно проще. Автоматизация начинается с малого, но экономит часы ручного тестирования.

Теги:
0
Комментарии0

Вице-президент Google выпустил бесплатную интерактивную книгу про интеллект, включая искусственный. «What Is Intelligence?: Lessons from AI About Evolution, Computing, and Minds». Автор Блейз Агуэра-и-Аркас на пальцах объясняет, как работает ваш мозг и как в нём двигаются шестерёнки — это не чудо, а механизм, который можно прокачать. Как мозг «угадывает» следующий шаг и почему это и есть основа интеллекта. Почему эволюция — огромная обучающая система. Чем ИИ на нас похож, а где принципиально другой. Как не путать «интеллект» и «сознание». Чего ждать от развития нейронок и когда нас всех заменят.

Теги:
0
Комментарии1

Стратегический консалтинг ушёл в ИИ. McKinsey оказались одним из крупнейших пользователей ChatGPT. Идеи от искусственного интеллекта, включая фейковые статьи и факты, продают клиентам за миллионы долларов.

Теги:
+1
Комментарии0

Открытый проект AI Video Transcriber помогает транскрибировать видеоролики в сжатый и отлично написанный текст. Работает просто, вытаскивает текст из любых видео за секунды, а потом корректирует и делает подробное саммари. Решение поддерживает более 30 самых популярных площадок, в том числе YouTube, TikTok, Bilibili и прочие. Проект не просто вытаскивает текст из видео, но делает настоящее эссе: дополняет фразы и реплики, корректирует факты и мысли, редактирует текст и доводит до идеала. Основа — Fast Whisper (лучшая нейронка для транскрибации видео). Может смотреть видео и сразу же выдавать текстовые материалы и уточнения. Сегментирует видео на 20-минутные отрывки и делит их на разделы, чтобы проще было изучать материал.

Теги:
+1
Комментарии1

По информации СМИ, OpenAI хочет показывать в ChatGPT таргетированную рекламу прямо в чат-боте на основе переписок с ИИ. Например, если пользователи говорят о спорте, им предложат спортивную форму или добавки. Контекст ИИ будут юзать, чтобы показывать больше рекламы. Если пользователи отключат рекламу, то лишатся всей памяти чат-бота. Контекста больше не будет, всю работу придётся организовать снова.

Теги:
0
Комментарии0

На Hugging Face вышел новый инструмент для вайбкодеров. Это среда для создания мощнейших ИИ-агентов openEnv, где можно собирать, подключать, интегрировать, тестировать и масштабировать агентов под свои задачи. Там же можно обучить с подкреплением собственную нейронку. Есть полный комплект для работы: плагины, инструменты, API, контекст и прочее. Результат — автоматизация задач и проектов, целые приложения и сервисы под контролем ИИ, а также системы из связанных ИИ-агентов.

Теги:
0
Комментарии0

Появление контента, созданного искусственным интеллектом (ИИ), в интернете достигло паритета с материалами, написанными настоящими людьми.

В Axios выяснили, ссылаясь на аналитический отчёт фирмы Graphite, занимающейся поисковой оптимизацией, что доля ИИ-статей на короткое время превзошла человеческую генерацию, но сейчас объёмы выровнялись.

Согласно последним данным, представленным Graphite, в общем объеме новых публикаций в сети доля контента, созданного ИИ, составляет 52%, что незначительно превышает 48% материалов, написанных людьми.

Специалисты Graphite провели анализ 65 тысяч веб-страниц, индексированных с 2020 по 2025 годы. Отмечается, что резкий подъем доли материалов, сгенерированных ИИ, начался в 2023 году, что совпало с выходом на рынок чат-бота ChatGPT в конце 2022 года.

Несмотря на общее увеличение объёмов генерации, результаты поисковой системы Google показывают существенный перекос в пользу человеческого труда. Фирма установила, что 86% статей, которые отображаются в результатах поиска Google, созданы людьми. На долю ИИ приходится лишь 14% такого контента. Более того, когда материалы, созданные искусственным интеллектом, все же попадают в выдачу, они, как правило, располагаются на более низких позициях по сравнению с публикациями, написанными людьми.

Теги:
0
Комментарии0
Теги:
0
Комментарии0

В Perplexity обновили инструкцию, как выжать из нейросетей максимум: Perplexity at Work A Guide to Getting More Done. Внутри лучшие промпты, кейсы для работы, креативные идеи, оптимальный воркфлоу и рабочие сценарии тотальной автоматизации любых задач. Гайд работает на любых чат-ботах — хоть ChatGPT, хоть кастомная модель на вашем ПК.

Теги:
+1
Комментарии0

Ближайшие события

К 2035 году час работы робота-гуманоида может стоить менее $1 доллара. Но даже при ставке $14 в час финансовое преимущество по сравнению с человеческим трудом приближается к $200 000 на робота в год. Для сравнения, час работы квалифицированного рабочего при полной загрузке стоит $42,5. У компаний не будет выбора.

Теги:
0
Комментарии22

Google запустила платформу онлайн‑обучения Google Skills, где можно пройти курсы по развитию навыков работы с искусственным интеллектом и получить сертификаты. Платформа предлагает обширный каталог из около 3000 курсов, сертификатов и лабораторных работ, которые ранее были разбросаны по разным онлайн‑порталам. Другими словами, Google Skills — это гигантский комплекс, объединяющий курсы Grow with Google, Google Cloud, Google DeepMind и Google for Education. Конечно, искусственный интеллект и генеративный ИИ — основная специализация Google Skills. Кроме того, вы можете найти курсы по анализу данных, сетевой инфраструктуре, кибербезопасности и производительности труда — от начального до продвинутого уровня.

Пользователи могут бесплатно зарегистрироваться в Google Skills, используя свою учётную запись Google, чтобы получить доступ к каталогу курсов и лабораторных работ, а также 35 бесплатных кредитов в месяц. Однако для доступа к другим возможностям, таким как практические занятия всех уровней и профессиональные сертификаты, им придётся приобрести платную подписку.

Хотите выяснить, где учиться IT? В экосистеме Хабра есть маркетплейс курсов на Хабр Карьере, на котором собраны сотни онлайн-обучений в самых разных специализациях: программировании, аналитике, дизайне, менеджменте и других. Чтобы пользователи могли проверить качество курсов, там показаны отзывы от тех, кто уже прошел обучение — изучайте и выбирайте лучшее для себя.

Теги:
0
Комментарии0

Мы запустили телемагазин облачных технологий

Да-да, вам не показалось. В нашем блоге мы рассказываем, как облачные и AI-технологии помогают решать IT-задачи. А теперь — сделали это в неожиданном формате.

Здесь не будет чудо-ножей и пылесосов, только реальные инструменты, которые делают работу с облаками и AI проще.

Усаживайтесь поудобнее: в четырех выпусках ведущие покажут, как с помощью облачных сервисов:

🔍 внедрять умный поиск на базе RAG
🚀 ускорять разработку приложений
💻 кодить с помощью AI
⚙️ собирать корпоративных AI-агентов

Все это — на базе публичного облака Cloud.ru Evolution и цифровой среды для работы с GenAI Evolution AI Factory.

Все выпуски облачного телемагазина смотрите тут: tvshop.cloud.ru

Теги:
+1
Комментарии1

Нейросети стали инвесторами. Нейросети DeepSeek, Grok и другим дали $10 тысяч и задание приумножить эту сумму за счёт крипты. В итоге китайская нейронка увеличила капитал на 30% всего за два дня, Grok 4 также отстала немного. А вот нейросети ChatGPT и Gemini провалились и ушли в минус.

Теги:
+1
Комментарии4

В центре Сан-Франциско появился билборд с провокационными лозунгами вроде «Наш ИИ делает домашку за вашу дочь» и «Создаёт её дипфейки». Это реклама сайта Replacement.ai — сатирического проекта, высмеивающему ажиотаж вокруг больших языковых моделей и беспечность технологических компаний.

Продукты этого ИИ-стартапа намеренно абсурдны. Главный из них — ИИ под названием HUMBERT, якобы созданный, чтобы «заменить людей на каждом этапе развития» и «подготовить детей к постчеловеческому будущему». В описаниях используются реальные цитаты из высказываний ИИ-руководителей — в том числе знаменитая фраза Сэма Альтмана: «ИИ, вероятно, приведёт к концу света, но пока что мы создаём отличные компании».

Авторы проекта Replacement.ai не раскрывают своих имён, но их послание очевидно: гонка за коммерциализацию ИИ идёт быстрее, чем разработка правил и систем контроля.

Теги:
+3
Комментарии0

Microsoft начала активно внедрять концепцию vibe working по аналогии с vibe coding. Это подход, при котором сотрудники используют ИИ-инструменты для упрощения рутинной работы. Опции с ИИ уже доступны в Excel и Word, позволяя управлять Excel голосом с помощью ИИ или «vibe писать» в Word, генерируя, уточняя и редактируя документы по ходу работы.

Концепция vibe working развивается в рамках более широкой тенденции корпоративной культуры, где часть обязанностей формально обозначается как vibing — гибкая, творческая и свободная работа с поддержкой ИИ.

Стартапы и крупные компании уже внедряют такие подходы в маркетинг, создание контента и программирование, включая vibe coding, когда ИИ помогает писать и проверять код. Добавление в рабочий порядок приставки vibe помогает привлечь поколение Z и создаёт ощущение свободного рабочего процесса, но не отменяет трудозатрат и необходимости владения профессиональными компетенциями.

Теги:
-1
Комментарии8

Нейросеть для обучения и выдачи информации появилась в Stack Overflow. ИИ чат-бота обучили на всех тредах платформы — бот обладает знаниями большинства реальных программистов, а не просто теоретическими выжимками и кучей готовых решений. Чат-бот умеет проектировать и рассуждать о коде, как команда живых разработчиков. Вы можете задать нейронке любой вопрос, и он предоставит полноценные рассуждения, развёрнутый ответ на базе вопросов форума.

Теги:
+2
Комментарии2

На рынке кодинг агентов пополнение методов монетизации (взято отсюда):

  • Amp (кодинг агент в терминале) запускает бесплатный доступ, но с рекламой.

  • Пользователь запускает Amp Free и просит убрать рекламу из самого себя.

  • Агент слушается и удаляет рекламный баннер из своего же кода.

Теги:
+1
Комментарии0

OpenAI прогнозирует $100 млрд выручки уже к 2028 году, что означает десятикратный рост всего за три года.

Проблема в том, что по данным Epoch, в истории не было ни одной компании, которая смогла бы сделать такое. Даже Tesla, Meta и Nvidia шли к этой отметке семь-восемь лет, а медианный темп роста крупнейших корпораций составлял всего 1.3x в год, против 2–3x, заложенных в прогнозах OpenAI.

Казалось бы — что такого, ведь компания OpenAI уже доказала свою уникальность — рост ее выручки просто фантастический! Однако, это не так. Да, выручка OpenAI растёт стремительно: с $1 млрд в 2023 году до ожидаемых $10 млрд в 2025. Темпы впечатляют, но не уникальны — Google, Uber и Moderna когда-то показывали похожие взлёты.

Однако дальше всегда начиналось замедление темпов роста. Что же будет, если реальность окажется скромнее ожиданий OpenAI? Масштабные контракты с Oracle, CoreWeave, Nvidia, AMD и Broadcom подразумевают расходы до $1.3 трлн в течение десяти лет — часть из которых должна окупиться за счёт будущих доходов. Не попасть в цель — значит заморозить дата-центры и сбросить часть долгов на инвесторов. А ведь именно они сегодня подпитывают ИИ-эйфорию: капитал вбухивается в инфраструктуру, стартапы и фонды под предположение, что OpenAI не просто успешна — а станет самой быстрорастущей компанией в истории. И если чудо не случится, то это может стать той самой булавкой для «ИИ-пузыря». В общем, OpenAI действительно может изменить мировую экономику, но совсем не так, как хотелось бы.

Теги:
+2
Комментарии0

Представлен учебный проект HUMANS.md. Это бесплатные и доступные заметки о кодировании с помощью ИИ. На ресурсе публикуются практические уроки программирования с помощью ИИ, такие как Claude Code, Codex и другие.

Теги:
+1
Комментарии0

Cооснователь OpenAI Андрей Карпаты представил открытый проект nanochat для клонирования LLM типа ChatGPT. Внутри 8000 строк чистого кода на Python, никаких лишних зависимостей, вся база модели: токенизатор, предобучение, файнтюн, обучение с подкреплением и оценка модели. Для запуска понадобится GPU в облаке и готовый скрипт.

Теги:
+3
Комментарии0

Многие, кто обучал большие модели искусственного интеллекта, сталкивались с ситуацией, когда необходимы данные из множества источников. Но если источники совсем не из одной корпорации, то из-за GDPR или законах о защите персональных данных нет возможности обмениваться данными напрямую. 

Как быть, если нужно обучать большие модели, но нельзя собирать всю информацию в одном месте?

Решение — федеративное обучение. Это система, в которой центральное устройство (сервер) объединяет усилия множества участников (устройства): каждый совершает операции на своих данных, а сервер собирает только результаты, не забирая саму информацию.

В зависимости от специфики задачи, данные на устройствах могут храниться по-разному. На основе того, как делится матрица признаков между участниками, можно выделить два подвида федеративного обучения:

📌 Горизонтальное федеративное обучение (HFL)

Суть: у разных участников данные имеют одинаковые фичи (одинаковые столбцы), но разные строки (разные пользователи/наблюдения).

Пример: несколько банков обучают модель для предсказания мошеннических транзакций. У всех есть одинаковые признаки по транзакциям (сумма, время, место, категория операции и т.п.), но набор клиентов у каждого банка свой. Объединяя данные через HFL, они получают более устойчивую модель, не раскрывая данные клиентов напрямую.

📌 Вертикальное федеративное обучение (VFL)

Суть: у разных участников есть одни и те же сэмплы (одни и те же строки), но разные признаки (разные столбцы).

Пример: банк и страховая компания имеют одних и тех же клиентов. У банка есть финансовые характеристики (история транзакций, кредитный рейтинг), у страховой — медицинская история и страховые выплаты. Объединив признаки в VFL, они могут построить более точную модель для оценки рисков по клиенту.

При этом нельзя сказать, что примеры выше оторваны от реальности. Например, Google применяет федеративное обучение для улучшения работы клавиатуры Gboard. Вместо сбора всех данных о нажатиях на своих серверах, центральное устройство получает только агрегированные обновления модели. То есть, обучение происходит прямо на устройствах пользователей, но без нарушения приватности.

Теги:
+1
Комментарии0

Microsoft представила бесплатный курс EdgeAI for Beginners, чтобы познакомить пользователей с захватывающим миром периферийного ИИ. В рамках учебных материалов в открытом репозитории раскрыты фундаментальные концепции, популярные ИИ-модели, методы вывода, приложения для конкретных устройств, оптимизация моделей и технологии разработки интеллектуальных агентов периферийного ИИ.

Хотите выяснить, где учиться IT? В экосистеме Хабра есть маркетплейс курсов на Хабр Карьере, на котором собраны сотни онлайн-обучений в самых разных специализациях: программировании, аналитике, дизайне, менеджменте и других. Чтобы пользователи могли проверить качество курсов, там показаны отзывы от тех, кто уже прошел обучение — изучайте и выбирайте лучшее для себя.

Теги:
+3
Комментарии0

Читаю Талеба «Чёрный лебедь» — и ловлю себя на мысли, насколько точно он описывает разрыв между нашей биологией и современным миром.

Наши инстинкты сформировались для выживания среди диких зверей и соседних племён.
А живём мы сегодня в «Крайнестане» — мире, где редкие и маловероятные события определяют ход истории, экономик и компаний.

🦢 Чёрный лебедь может появиться после тысяч белых.
И именно он перевернёт систему — а не то, к чему мы «готовились».

Наш мозг не чувствует эти сдвиги.
Мы по-прежнему думаем, что «всё будет как вчера», хотя реальность управляется не средним сценарием, а экстремумами.

📌 Почему это важно для лидеров и продуктовых команд:
— Большинство наших решений всё ещё строятся на интуиции и прошлом опыте.
— Но в среде высокой неопределённости это опасно.
— Нужно учиться работать с неопределённостью осознанно: строить сценарии, усиливать антихрупкость, планировать не «по среднему», а по краевым случаям.

«В далеком прошлом люди могли делать выводы быстрее и точнее… Сегодня число “чернолебяжьих” зон неизмеримо выросло».

Именно в этих «чернолебяжьих» зонах рождаются не только кризисы — но и прорывы.

Теги:
-5
Комментарии22

MWS AI выложила в открытый доступ код и валидационный датасет к бенчмарку MWS Vision Bench - для оценки способностей мультимодальных LLM в работе с тяжелым визуально-текстовым контентом на русском: сканами документов, текстом с картинками, графиками, чертежами, таблицами и пр.

Кратко:

Бенчмарк состоит из 5 практических заданий:
- полностраничный OCR (страница→текст),
- структурированный OCR (страница→markdown),
- grounding (координаты текста),
- KIE/JSON (извлечение ключей),
- VQA (вопрос‑ответ).

Размер: 800 изображений, 2580 вопросов (валидация - 1 302, тест - 1 278). 

Репозиторий - на GitHub
Валидационный датасет - на HF

Подробно - тут: https://habr.com/ru/companies/mts_ai/articles/953292/ .

Теги:
0
Комментарии0

Google опубликовала список из 1001 варианта использования генеративного ИИ в различных секторах, таких как автомобилестроение, финансовые услуги, производство, здравоохранение, бизнес, гостиничный бизнес, туризм и СМИ.

Теги:
0
Комментарии0

Идеи, с чем интегрировать LLM из Evolution Foundation Models 🖥

В сервисе Evolution Foundation Models представлены open source модели, к которым вы можете делать запросы по API. А еще есть возможность интегрировать эти LLM в разные фреймворки, библиотеки и редакторы кода, чтобы автоматизировать часть задач и облегчить себе работу.

⬇️ Расскажем о четырех сценариях применения LLM из Evolution Foundation Models с разными инструментами. А еще дадим ссылки на руководства по подключению:

  1. Создайте своего Code Agent с Aider и VS Code. Подключите в свой сервис по API подходящую под ваши задачи LLM, а потом используйте редакторы кода, чтобы создать интеллектуального помощника по программированию. Тот поможет писать и рефакторить код, искать баги, проводить тесты и составлять документацию.

  2. Встройте LLM в чат-интерфейс платформ ChatboxOpen WebUI или LibreChat. Так вы сможете, например, настроить работу команды с LLM и контролировать расход токенов, создавать собственных AI-ассистентов, использовать RAG и поиск в интернете.

  3. Напишите своего чат-бота с фреймворком LangChain, который предназначен для создания AI-ориентированных приложений. Добавьте созданного чат-бота в беседу, чтобы он делал выжимки из диалогов и отслеживал в них задачи. Или интегрируйте получившегося AI-помощника в службу поддержки, чтобы быстрее отвечать клиентам. 

  4. Организуйте LLM-шлюз с библиотекой Litellm. Например, она на дает доступ к разным LLM по единому API-ключу и возможность выбрать резервную модель на случай, если с основной что-то случится. LLM-шлюз упростит вам работу: он может управлять сразу несколькими LLM, помогает балансировать нагрузку и контролировать траты.

Кстати, более 20 LLM, эмбеддеров и реранкеров из Evolution Foundation Models доступны бесплатно до 31 октября. Выберите модели, которые по бенчмаркам лучше подходят к вашим задачам, и протестируйте их в работе 🤖

Теги:
0
Комментарии0

OpenAI и Nvidia раздувают пузырь искусственного интеллекта объёмом в 1 триллион долларов с помощью сети циклических сделок.

Теги:
+8
Комментарии2

OutBoxML: как мы построили свою ML‑платформу от архитектуры до продакшена

Если вы хоть раз выводили ML‑модель в прод, то знаете этот сценарий.

Папки final_final_v2, десятки Python‑скриптов, неотслеженные версии данных, ручной деплой на сервер, и тревожное чувство, что «где‑то что‑то точно отвалится».

Со временем даже хорошо построенный ML‑процесс превращается в хаос — набор несовместимых пайплайнов и моделей, где каждый инженер решает задачу по‑своему.

Мы столкнулись с этим тоже. Но вместо того чтобы латать процессы по частям, мы решили построить собственную ML‑платформу OutBoxML — систему, которая централизует всё: от обучения и управления фичами до продакшн‑деплоя и мониторинга качества моделей.

OutBoxML — это не концепция на слайдах, а реальный проект, который мы внедрили в продакшн, чтобы стабилизировать и масштабировать ML во всём ИТ‑контуре Страхового Дома ВСК.

В серии из трёх статей на Хабре наши инженеры подробно разбирают, как мы прошли путь от архитектуры до продакшена, какие решения приняли — и какие ошибки помогли нам вырасти.

Решение: платформа OutBoxML

Мы не остановились на обёртках вокруг сторонних инструментов — мы создали OutBoxML: платформу, способную управлять жизненным циклом моделей от разработки до стабильного продакшена.

Мы шаг за шагом описываем во всех трёх статьях, как родилась архитектура, как устроен компонент работы с признаками и как устроена надёжность при выводе моделей.

Часть 1: Библиотека OutboxML от Страхового Дома ВСК

В первой статье мы показываем конструкцию ядра OutBoxML и обоснование архитектурных подходов.

Ключевой технический инсайт: мы ушли от монолитных систем и отдали предпочтение сервисам с чёткими границами ответственности, использованию событийной коммуникации и контейнеризации.

Мы описываем принципы маршрутизации данных, версионирования и взаимодействия между сервисами, а также как обеспечиваем воспроизводимость экспериментов.

Часть 2: Автоматизированное машинное обучение с помощью нашего Open Source фреймворка: задача о Титанике

В следующее статье мы разбирали моменты, в которых классический ML выигрывает у сложных нейросетей, на примере страховой индустрии.

К тому же обсудили как мы автоматизировали обучение и инференс моделей с помощью OutBoxML и модульную архитектура и гибкие настройки процессов.

Часть 3: Data Drift в ML Страхового Дома ВСК: от PSI‑анализа до пересборки фичей и сравнения моделей

Машинное обучение в страховании — это не только про красивые метрики на этапе тестирования. Самая большая проблема приходит позже, когда модель выходит «в прод»: данные начинают меняться, и точность предсказаний падает. Это явление называется Data Drift. В статье мы делимся практическим опытом:

  • как диагностировать дрифт с помощью PSI‑метрики;

  • как использовать SHAP‑анализ для переосмысления модели;

  • чем отличается модель «с дрифтом» от модели «без дрифта» на реальных страховых данных.

Мы показываем не теорию, а эксперимент с открытым кодом и цифрами: какие признаки пришлось исключить, как изменилась логика модели и что это дало бизнесу на практике.

Совсем скоро выйдет заключительная статья нашего первого цикла open source проекта OutBoxML!

Присоединяйтесь к нашему проекту на GitHub и в Telegram. К тому же, библиотека опубликована в pypi и доступна к установке через pip install outboxml

Пишите в комментариях, о каких аспектах автоматизации ML вам хотелось бы узнать подробнее. Удачи в реализации ваших проектов!

Теги:
+3
Комментарии0

Автоматизация discovery: от идеи до интерфейса за один день

Мы у себя провели эксперимент и пришли к ряду выводов

Зачем

Классический discovery: недели согласований, уточнений, макетов, пока команда не дойдёт до первого прототипа. Мы проверили гипотезу: можно ли сократить весь цикл от идеи до интерфейса до 24 часов — без потери управляемости и качества.

Что сделали

Собрали полуавтоматический pipeline, который превращает любые вводные (голос, текст, фото) в CJM, прототип и UML. Нижняя граница — один день. Обычно 2-3 дня. Пайплайн выстроен вокруг генеративных инструментов:

  1. ChatGPT — генерирует эпики, сценарии, модели данных, UI-интерфейсы и документацию

  2. Bolt.new — визуализирует CJM и собирает первый прототип

  3. GitHub + Codex — превращают интерфейсы в код и валидируют логику (не удалось внедрить из-за ограниченного контекстного окна)

  4. tldv; — записывает и логгирует встречи со стейкхолдерами и командой

В итоге discovery превращается из цепочки встреч в цикл общения с GPT

Результат

  • Цикл discovery сократился до 2-3 дней, иногда — 1

  • Трудозатраты продуктов и дизайнеров снизились в разы, иногда — без дизайна

  • Стоимость на команду — около 190 $/мес (tldv + bolt.new + chatgpt)

  • Качество артефактов стабильно, при условии нормальных вводных

  • Возможность полного отказа от дизайна в ряде кейсов (Bolt)

Что не заработало

  • Bolt ограничен по объёму токенов, не подходит для сложных интерфейсов

  • Вводные без контекста ломают качество генерации

  • Для больших проектов пока не хватает контекстного окна и нужно предварительное упрощение проекта

  • Часть сценариев по-прежнему требует ручной доводки.

Бизнес-эффект

  • Time-to-Market резко снижается

  • Высвобождение продуктовых и дизайнерских ресурсов

  • Формализованный discovery-процесс, готовый к стандартизации

Автоматизация discovery жизнеспособна. Большая часть процесса может быть выполнена GPT с минимальным участием людей. Проект завершился на ручном приводе — но подтвердил, что конвейер от идеи до интерфейса за сутки реален. Дальше — вопрос масштаба и доверия к машине.

Теги:
-2
Комментарии0

Представлен полный курс по Sora 2 от OpenAI, включая официальный гайд по промптам и созданию сцен с помощью нейросети: аниме, документалки, интервью с любыми персонажами, настройка камеры, света и генерация осмысленных диалогов.

Чем короче промпты — тем больше свободы у нейронки. Так вы дадите ИИ творческую свободу. Пример: In a 90s documentary-style interview, an old Swedish man sits in a study and says, "I still remember when I was young."

Настраиваем формат видео.

  • Format & Look: Duration 4s

  • 180° shutter; digital capture emulating 65 mm photochemical contrast; fine grain; subtle halation on speculars; no gate weave.

Выставляем свет и создаём атмосферу:

  • Lighting & Atmosphere

  • Natural sunlight from camera left, low angle (07:30 AM).

  • Bounce: 4×4 ultrabounce silver from trackside.

  • Negative fill from opposite wall.

  • Practical: sodium platform lights on dim fade.

  • Atmos: gentle mist; train exhaust drift through light beam.

«Подбираем» камеру для съёмки. Увеличиваем или уменьшаем фокус, корректируем передний и задний планы:

  • Camera shot: wide shot, low angle

  • Depth of field: shallow (sharp on subject, blurred background)

  • Lighting + palette: warm backlight with soft rim

Ведём себя как настоящий режиссёр и контролируем, задаём игру актёров: Actor takes four steps to the window, pauses, and pulls the curtain in the final second.

[Описание сцены прозой простым языком. Опиши персонажей, костюмы, декорации, погоду и другие детали. Будь как можно более описательным, чтобы видео соответствовало твоему замыслу.]
Кинематография:
Кадр камеры: [композиция и угол съёмки, например: широкий план, уровень глаз]
Настроение: [общий тон, например: кинематографично и напряжённо, игриво и тревожно, роскошное ожидание]
Действия:
- [Действие 1: чёткое, конкретное движение или жест]
- [Действие 2: ещё один отдельный момент в клипе]
- [Действие 3: другое действие или реплика]
Диалоги:
[Если в кадре есть диалог, добавь короткие естественные реплики здесь или в списке действий. Делай их короткими, чтобы они уместились в длину клипа.]

Теги:
+2
Комментарии0

Вышел бесплатный курс Agentic AI по проектированию ИИ-агентов от создателя Cursor Эндрю Ына. В рамках проекта рассказывается как автоматизировать любые задачи и создать собственного помощника для исследований. Курс построили по последним разработкам в области, включая четыре паттерна дизайна агентов (Reflection — анализ ответов нейросетей и их улучшение, Tool Use — использование инструментов моделью, Planning — декомпозиция задач и Multy-agent Collaboration — создание целой команды ИИ-агентов), акцент на анализе ошибок и оценке ответов нейропомощников — без них не построить эффективные инструменты автоматизации.

Теги:
0
Комментарии0

«Сегодня переписал всю нашу документацию с помощью ИИ, предоставив доступ к нашей кодовой базе. Сделано 250 коммитов в 58 файлах. Работа выполнена отлично», — рассказал основатель SiteGPT.

Теги:
0
Комментарии2

Байесовские А/Б-тесты: конверсии

Теги:
0
Комментарии0

OpenAI представила AgentKit — комплексную платформу для разработки ИИ-агентов

На конференции DevDay 2025 OpenAI анонсировала AgentKit — набор инструментов для создания, развертывания и оптимизации ИИ-агентов с визуальным интерфейсом на основе узлов. Платформа объединяет Agent Builder, ChatKit, Evals и Connector Registry в единую экосистему разработки.

Архитектура платформы

AgentKit предоставляет полный стек для перехода агентов от прототипа к продакшену. Платформа поддерживает как визуальную разработку через drag-and-drop интерфейс, так и code-first подход через Responses API.

Основные компоненты:

  • Agent Builder — визуальный canvas для создания логики агентов

  • ChatKit — встраиваемый UI-тулкит для чата с агентами

  • Evals — инструменты оценки производительности агентов

  • Connector Registry — корпоративный реестр готовых коннекторов

Agent Builder

Визуальный интерфейс Agent Builder работает как n8n или Zapier, предоставляя drag-and-drop узлы для композиции рабочих процессов. Система поддерживает версионирование, preview-запуски и встроенную конфигурацию эвалюаций.

Возможности Builder:

  • Визуальное создание мультиагентных воркфлоу

  • Подключение инструментов и настройка guardrails

  • Полное версионирование для итерации

  • Встроенная конфигурация оценок

  • Быстрое прототипирование без кода

Интерфейс позволяет разработчикам быстро тестировать идеи и переходить к продакшн-версиям без переписывания архитектуры.

ChatKit для интерфейса

ChatKit предоставляет готовый UI для взаимодействия с агентами через чат. Компонент встраивается в существующие приложения и поддерживает выполнение агентских узлов через диалоговый интерфейс.

Toolkit обеспечивает консистентный UX для агентских взаимодействий без необходимости разрабатывать интерфейс с нуля.

Система оценки Evals

Расширенная система Evals интегрирована напрямую в workflow разработки. Инструменты позволяют оценивать производительность агентов, управлять датасетами и отслеживать метрики качества.

Функции Evals:

  • Автоматическое тестирование агентов

  • Управление тестовыми датасетами

  • Отслеживание производительности

  • Inline-конфигурация оценок в Builder

Connector Registry

Корпоративный реестр коннекторов предоставляет готовые интеграции для расширения возможностей агентов. Компоненты можно использовать как building blocks для быстрой сборки сложных воркфлоу.

Registry включает предварительно настроенные коннекторы к популярным сервисам и API, снижая время разработки интеграций.

Конкурентная позиция

AgentKit конкурирует с платформами вроде Zapier и n8n, но фокусируется на ИИ-агентах с использованием моделей OpenAI. Интеграция всего стека в единую платформу — ключевое преимущество.

Отличия от конкурентов:

  • Zapier/n8n — автоматизация без ИИ-агентов

  • LangChain — фреймворк для кода, без визуального интерфейса

  • AgentKit — полный стек от UI до деплоя

Доступность

Платформа доступна через OpenAI Platform для разработчиков и корпоративных клиентов. Agent Builder находится по адресу platform.openai.com/agent-builder.

Сэм Альтман отметил, что AgentKit снижает трение при переходе от прототипа к продакшену и предоставляет всё необходимое для оптимизации агентских воркфлоу.

Если материал был полезен, поставьте, пожалуйста, плюс — мы стараемся выбирать для вас только самые актуальные и интересные новости из мира ИИ.

Теги:
+1
Комментарии0

Обучение операторов: из стажёра в боевого за день

Мы провели эксперимент и убедились — классическое обучение можно не заменять, а ускорять

Зачем

Обычно оператор идёт по стандартному пути: неделя обучения, неделя адаптации, потом первые смены под контролем. Медленно. Мы проверили: можно ли сделать так, чтобы новичок уже в первую смену закрывал диалоги — и не наугад, а качественно.

Что сделали

  • Построили систему дообучения операторов на базе ChatGPT plugins.

  • Каждый плагин — типовой кейс: от «где мой заказ» до «верните деньги, но я без чека».

  • Оператор учится на примерах прямо в GPT, разбирает реальные кейсы, видит ответы и объяснения.

  • 60–70 плагинов под самые типовые ситуации

Результат

  • Кол-во закрытых диалогов у новичков в первую смену выросло в 3 раза

  • Качество ответов не просело

  • Обучение стало дополнением к классике — не конкурирует, а усиливает

  • 4 куратора на группу из 30 человек

  • 7 аккаутов на ChatGPT по 30$

Что не заработало

  • Без базовой теории GPT не спасёт: нужен фундамент

  • Не все операторы готовы «учиться у машины»

  • Некоторые кейсы требуют тонкости, где GPT пока слабее человека

  • Проблема с оплатами в ChatGPT из-за отсутсвия доступа к Enterprise плану у GPT (они не дают и 60$+ за человека), а на team плане — плохая управляемость доступами

Бизнес-эффект

  • Быстрее вводим операторов в строй с увеличением в 3 раза закрываемых диалогов в первой смене

  • Стандартизируем ответы и сценарии

  • GPT-тренинг не заменяет академию — он её ускоряет

  • Операторы выходят в смену не «на авось», а уже с руками, натренированными на кейсах

  • Дальше — масштабирование и тонкая настройка под каналы и сегменты

Теги:
-1
Комментарии0

Как «Пятерочка» сэкономила четверть бюджета на рекламу, использовав AI-дублера Ольги Медынич 👩🎥

Что за компания

«Пятерочка» — крупнейшая российская сеть продовольственных магазинов «у дома», входит в состав компании X5 Retail Group. Объединяет более 20 тысяч магазинов в 69 регионах России.

Какая была задача

Ритейлер запланировал продвигать сыры своей марки Liebendorf, а еще — сократить расходы на рекламу. Важная задача заключалась в том, чтобы успеть сделать запуск до конца года — так, чтобы завоевать доверие покупателей, и уже в Новый год сыры Liebendorf оказались на столах россиян. При этом декабрь — загруженный сезон для съемочных студий и знаменитостей, и в связи с плотным графиком сложно найти у селебрети слот для съемок.

Как ее решили

В Cloud.ru предложили нестандартное решение: приобрести у Ольги Медынич права на использование ее образа, а вместо живых съемок использовать цифровой двойник актрисы. AI-двойника создали на базе платформы Evolution AI Factory, а над AI-образом актрисы работали специалисты института искусственного интеллекта AIRI.

За основу взяли open source модель DeepFaceLab: доработали ее под задачи «Пятерочки», дообучили на общедоступных изображениях Ольги Медынич, а после съемок заменили лицо дублера на лицо актрисы.

Что в результате

«Пятерочка» сэкономила четверть бюджета, заложенного на привлечение знаменитости. Подготовка к съемкам заняла неделю — при том, что обычно подготовка к производству рекламы с участием звезд занимает около месяца.

Читайте полный кейс, чтобы узнать детали и увидеть результат — тот самый рекламный ролик, для которого использовали дипфейк 🤖

Теги:
+1
Комментарии6
1
23 ...

Вклад авторов