Обновить
735.29

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга

Нейросеть для обучения и выдачи информации появилась в Stack Overflow. ИИ чат-бота обучили на всех тредах платформы — бот обладает знаниями большинства реальных программистов, а не просто теоретическими выжимками и кучей готовых решений. Чат-бот умеет проектировать и рассуждать о коде, как команда живых разработчиков. Вы можете задать нейронке любой вопрос, и он предоставит полноценные рассуждения, развёрнутый ответ на базе вопросов форума.

Теги:
+2
Комментарии2

На рынке кодинг агентов пополнение методов монетизации (взято отсюда):

  • Amp (кодинг агент в терминале) запускает бесплатный доступ, но с рекламой.

  • Пользователь запускает Amp Free и просит убрать рекламу из самого себя.

  • Агент слушается и удаляет рекламный баннер из своего же кода.

Теги:
+1
Комментарии0

OpenAI прогнозирует $100 млрд выручки уже к 2028 году, что означает десятикратный рост всего за три года.

Проблема в том, что по данным Epoch, в истории не было ни одной компании, которая смогла бы сделать такое. Даже Tesla, Meta и Nvidia шли к этой отметке семь-восемь лет, а медианный темп роста крупнейших корпораций составлял всего 1.3x в год, против 2–3x, заложенных в прогнозах OpenAI.

Казалось бы — что такого, ведь компания OpenAI уже доказала свою уникальность — рост ее выручки просто фантастический! Однако, это не так. Да, выручка OpenAI растёт стремительно: с $1 млрд в 2023 году до ожидаемых $10 млрд в 2025. Темпы впечатляют, но не уникальны — Google, Uber и Moderna когда-то показывали похожие взлёты.

Однако дальше всегда начиналось замедление темпов роста. Что же будет, если реальность окажется скромнее ожиданий OpenAI? Масштабные контракты с Oracle, CoreWeave, Nvidia, AMD и Broadcom подразумевают расходы до $1.3 трлн в течение десяти лет — часть из которых должна окупиться за счёт будущих доходов. Не попасть в цель — значит заморозить дата-центры и сбросить часть долгов на инвесторов. А ведь именно они сегодня подпитывают ИИ-эйфорию: капитал вбухивается в инфраструктуру, стартапы и фонды под предположение, что OpenAI не просто успешна — а станет самой быстрорастущей компанией в истории. И если чудо не случится, то это может стать той самой булавкой для «ИИ-пузыря». В общем, OpenAI действительно может изменить мировую экономику, но совсем не так, как хотелось бы.

Теги:
+2
Комментарии0

Представлен учебный проект HUMANS.md. Это бесплатные и доступные заметки о кодировании с помощью ИИ. На ресурсе публикуются практические уроки программирования с помощью ИИ, такие как Claude Code, Codex и другие.

Теги:
+1
Комментарии0

Cооснователь OpenAI Андрей Карпаты представил открытый проект nanochat для клонирования LLM типа ChatGPT. Внутри 8000 строк чистого кода на Python, никаких лишних зависимостей, вся база модели: токенизатор, предобучение, файнтюн, обучение с подкреплением и оценка модели. Для запуска понадобится GPU в облаке и готовый скрипт.

Теги:
+3
Комментарии0

Многие, кто обучал большие модели искусственного интеллекта, сталкивались с ситуацией, когда необходимы данные из множества источников. Но если источники совсем не из одной корпорации, то из-за GDPR или законах о защите персональных данных нет возможности обмениваться данными напрямую. 

Как быть, если нужно обучать большие модели, но нельзя собирать всю информацию в одном месте?

Решение — федеративное обучение. Это система, в которой центральное устройство (сервер) объединяет усилия множества участников (устройства): каждый совершает операции на своих данных, а сервер собирает только результаты, не забирая саму информацию.

В зависимости от специфики задачи, данные на устройствах могут храниться по-разному. На основе того, как делится матрица признаков между участниками, можно выделить два подвида федеративного обучения:

📌 Горизонтальное федеративное обучение (HFL)

Суть: у разных участников данные имеют одинаковые фичи (одинаковые столбцы), но разные строки (разные пользователи/наблюдения).

Пример: несколько банков обучают модель для предсказания мошеннических транзакций. У всех есть одинаковые признаки по транзакциям (сумма, время, место, категория операции и т.п.), но набор клиентов у каждого банка свой. Объединяя данные через HFL, они получают более устойчивую модель, не раскрывая данные клиентов напрямую.

📌 Вертикальное федеративное обучение (VFL)

Суть: у разных участников есть одни и те же сэмплы (одни и те же строки), но разные признаки (разные столбцы).

Пример: банк и страховая компания имеют одних и тех же клиентов. У банка есть финансовые характеристики (история транзакций, кредитный рейтинг), у страховой — медицинская история и страховые выплаты. Объединив признаки в VFL, они могут построить более точную модель для оценки рисков по клиенту.

При этом нельзя сказать, что примеры выше оторваны от реальности. Например, Google применяет федеративное обучение для улучшения работы клавиатуры Gboard. Вместо сбора всех данных о нажатиях на своих серверах, центральное устройство получает только агрегированные обновления модели. То есть, обучение происходит прямо на устройствах пользователей, но без нарушения приватности.

Теги:
+1
Комментарии0

Microsoft представила бесплатный курс EdgeAI for Beginners, чтобы познакомить пользователей с захватывающим миром периферийного ИИ. В рамках учебных материалов в открытом репозитории раскрыты фундаментальные концепции, популярные ИИ-модели, методы вывода, приложения для конкретных устройств, оптимизация моделей и технологии разработки интеллектуальных агентов периферийного ИИ.

Хотите выяснить, где учиться IT? В экосистеме Хабра есть маркетплейс курсов на Хабр Карьере, на котором собраны сотни онлайн-обучений в самых разных специализациях: программировании, аналитике, дизайне, менеджменте и других. Чтобы пользователи могли проверить качество курсов, там показаны отзывы от тех, кто уже прошел обучение — изучайте и выбирайте лучшее для себя.

Теги:
+3
Комментарии0

Читаю Талеба «Чёрный лебедь» — и ловлю себя на мысли, насколько точно он описывает разрыв между нашей биологией и современным миром.

Наши инстинкты сформировались для выживания среди диких зверей и соседних племён.
А живём мы сегодня в «Крайнестане» — мире, где редкие и маловероятные события определяют ход истории, экономик и компаний.

🦢 Чёрный лебедь может появиться после тысяч белых.
И именно он перевернёт систему — а не то, к чему мы «готовились».

Наш мозг не чувствует эти сдвиги.
Мы по-прежнему думаем, что «всё будет как вчера», хотя реальность управляется не средним сценарием, а экстремумами.

📌 Почему это важно для лидеров и продуктовых команд:
— Большинство наших решений всё ещё строятся на интуиции и прошлом опыте.
— Но в среде высокой неопределённости это опасно.
— Нужно учиться работать с неопределённостью осознанно: строить сценарии, усиливать антихрупкость, планировать не «по среднему», а по краевым случаям.

«В далеком прошлом люди могли делать выводы быстрее и точнее… Сегодня число “чернолебяжьих” зон неизмеримо выросло».

Именно в этих «чернолебяжьих» зонах рождаются не только кризисы — но и прорывы.

Теги:
-5
Комментарии22

MWS AI выложила в открытый доступ код и валидационный датасет к бенчмарку MWS Vision Bench - для оценки способностей мультимодальных LLM в работе с тяжелым визуально-текстовым контентом на русском: сканами документов, текстом с картинками, графиками, чертежами, таблицами и пр.

Кратко:

Бенчмарк состоит из 5 практических заданий:
- полностраничный OCR (страница→текст),
- структурированный OCR (страница→markdown),
- grounding (координаты текста),
- KIE/JSON (извлечение ключей),
- VQA (вопрос‑ответ).

Размер: 800 изображений, 2580 вопросов (валидация - 1 302, тест - 1 278). 

Репозиторий - на GitHub
Валидационный датасет - на HF

Подробно - тут: https://habr.com/ru/companies/mts_ai/articles/953292/ .

Теги:
0
Комментарии0

Google опубликовала список из 1001 варианта использования генеративного ИИ в различных секторах, таких как автомобилестроение, финансовые услуги, производство, здравоохранение, бизнес, гостиничный бизнес, туризм и СМИ.

Теги:
0
Комментарии0

Идеи, с чем интегрировать LLM из Evolution Foundation Models 🖥

В сервисе Evolution Foundation Models представлены open source модели, к которым вы можете делать запросы по API. А еще есть возможность интегрировать эти LLM в разные фреймворки, библиотеки и редакторы кода, чтобы автоматизировать часть задач и облегчить себе работу.

⬇️ Расскажем о четырех сценариях применения LLM из Evolution Foundation Models с разными инструментами. А еще дадим ссылки на руководства по подключению:

  1. Создайте своего Code Agent с Aider и VS Code. Подключите в свой сервис по API подходящую под ваши задачи LLM, а потом используйте редакторы кода, чтобы создать интеллектуального помощника по программированию. Тот поможет писать и рефакторить код, искать баги, проводить тесты и составлять документацию.

  2. Встройте LLM в чат-интерфейс платформ ChatboxOpen WebUI или LibreChat. Так вы сможете, например, настроить работу команды с LLM и контролировать расход токенов, создавать собственных AI-ассистентов, использовать RAG и поиск в интернете.

  3. Напишите своего чат-бота с фреймворком LangChain, который предназначен для создания AI-ориентированных приложений. Добавьте созданного чат-бота в беседу, чтобы он делал выжимки из диалогов и отслеживал в них задачи. Или интегрируйте получившегося AI-помощника в службу поддержки, чтобы быстрее отвечать клиентам. 

  4. Организуйте LLM-шлюз с библиотекой Litellm. Например, она на дает доступ к разным LLM по единому API-ключу и возможность выбрать резервную модель на случай, если с основной что-то случится. LLM-шлюз упростит вам работу: он может управлять сразу несколькими LLM, помогает балансировать нагрузку и контролировать траты.

Кстати, более 20 LLM, эмбеддеров и реранкеров из Evolution Foundation Models доступны бесплатно до 31 октября. Выберите модели, которые по бенчмаркам лучше подходят к вашим задачам, и протестируйте их в работе 🤖

Теги:
0
Комментарии0

OpenAI и Nvidia раздувают пузырь искусственного интеллекта объёмом в 1 триллион долларов с помощью сети циклических сделок.

Теги:
+8
Комментарии2

OutBoxML: как мы построили свою ML‑платформу от архитектуры до продакшена

Если вы хоть раз выводили ML‑модель в прод, то знаете этот сценарий.

Папки final_final_v2, десятки Python‑скриптов, неотслеженные версии данных, ручной деплой на сервер, и тревожное чувство, что «где‑то что‑то точно отвалится».

Со временем даже хорошо построенный ML‑процесс превращается в хаос — набор несовместимых пайплайнов и моделей, где каждый инженер решает задачу по‑своему.

Мы столкнулись с этим тоже. Но вместо того чтобы латать процессы по частям, мы решили построить собственную ML‑платформу OutBoxML — систему, которая централизует всё: от обучения и управления фичами до продакшн‑деплоя и мониторинга качества моделей.

OutBoxML — это не концепция на слайдах, а реальный проект, который мы внедрили в продакшн, чтобы стабилизировать и масштабировать ML во всём ИТ‑контуре Страхового Дома ВСК.

В серии из трёх статей на Хабре наши инженеры подробно разбирают, как мы прошли путь от архитектуры до продакшена, какие решения приняли — и какие ошибки помогли нам вырасти.

Решение: платформа OutBoxML

Мы не остановились на обёртках вокруг сторонних инструментов — мы создали OutBoxML: платформу, способную управлять жизненным циклом моделей от разработки до стабильного продакшена.

Мы шаг за шагом описываем во всех трёх статьях, как родилась архитектура, как устроен компонент работы с признаками и как устроена надёжность при выводе моделей.

Часть 1: Библиотека OutboxML от Страхового Дома ВСК

В первой статье мы показываем конструкцию ядра OutBoxML и обоснование архитектурных подходов.

Ключевой технический инсайт: мы ушли от монолитных систем и отдали предпочтение сервисам с чёткими границами ответственности, использованию событийной коммуникации и контейнеризации.

Мы описываем принципы маршрутизации данных, версионирования и взаимодействия между сервисами, а также как обеспечиваем воспроизводимость экспериментов.

Часть 2: Автоматизированное машинное обучение с помощью нашего Open Source фреймворка: задача о Титанике

В следующее статье мы разбирали моменты, в которых классический ML выигрывает у сложных нейросетей, на примере страховой индустрии.

К тому же обсудили как мы автоматизировали обучение и инференс моделей с помощью OutBoxML и модульную архитектура и гибкие настройки процессов.

Часть 3: Data Drift в ML Страхового Дома ВСК: от PSI‑анализа до пересборки фичей и сравнения моделей

Машинное обучение в страховании — это не только про красивые метрики на этапе тестирования. Самая большая проблема приходит позже, когда модель выходит «в прод»: данные начинают меняться, и точность предсказаний падает. Это явление называется Data Drift. В статье мы делимся практическим опытом:

  • как диагностировать дрифт с помощью PSI‑метрики;

  • как использовать SHAP‑анализ для переосмысления модели;

  • чем отличается модель «с дрифтом» от модели «без дрифта» на реальных страховых данных.

Мы показываем не теорию, а эксперимент с открытым кодом и цифрами: какие признаки пришлось исключить, как изменилась логика модели и что это дало бизнесу на практике.

Совсем скоро выйдет заключительная статья нашего первого цикла open source проекта OutBoxML!

Присоединяйтесь к нашему проекту на GitHub и в Telegram. К тому же, библиотека опубликована в pypi и доступна к установке через pip install outboxml

Пишите в комментариях, о каких аспектах автоматизации ML вам хотелось бы узнать подробнее. Удачи в реализации ваших проектов!

Теги:
+3
Комментарии0

Ближайшие события

Автоматизация discovery: от идеи до интерфейса за один день

Мы у себя провели эксперимент и пришли к ряду выводов

Зачем

Классический discovery: недели согласований, уточнений, макетов, пока команда не дойдёт до первого прототипа. Мы проверили гипотезу: можно ли сократить весь цикл от идеи до интерфейса до 24 часов — без потери управляемости и качества.

Что сделали

Собрали полуавтоматический pipeline, который превращает любые вводные (голос, текст, фото) в CJM, прототип и UML. Нижняя граница — один день. Обычно 2-3 дня. Пайплайн выстроен вокруг генеративных инструментов:

  1. ChatGPT — генерирует эпики, сценарии, модели данных, UI-интерфейсы и документацию

  2. Bolt.new — визуализирует CJM и собирает первый прототип

  3. GitHub + Codex — превращают интерфейсы в код и валидируют логику (не удалось внедрить из-за ограниченного контекстного окна)

  4. tldv; — записывает и логгирует встречи со стейкхолдерами и командой

В итоге discovery превращается из цепочки встреч в цикл общения с GPT

Результат

  • Цикл discovery сократился до 2-3 дней, иногда — 1

  • Трудозатраты продуктов и дизайнеров снизились в разы, иногда — без дизайна

  • Стоимость на команду — около 190 $/мес (tldv + bolt.new + chatgpt)

  • Качество артефактов стабильно, при условии нормальных вводных

  • Возможность полного отказа от дизайна в ряде кейсов (Bolt)

Что не заработало

  • Bolt ограничен по объёму токенов, не подходит для сложных интерфейсов

  • Вводные без контекста ломают качество генерации

  • Для больших проектов пока не хватает контекстного окна и нужно предварительное упрощение проекта

  • Часть сценариев по-прежнему требует ручной доводки.

Бизнес-эффект

  • Time-to-Market резко снижается

  • Высвобождение продуктовых и дизайнерских ресурсов

  • Формализованный discovery-процесс, готовый к стандартизации

Автоматизация discovery жизнеспособна. Большая часть процесса может быть выполнена GPT с минимальным участием людей. Проект завершился на ручном приводе — но подтвердил, что конвейер от идеи до интерфейса за сутки реален. Дальше — вопрос масштаба и доверия к машине.

Теги:
-2
Комментарии0

Представлен полный курс по Sora 2 от OpenAI, включая официальный гайд по промптам и созданию сцен с помощью нейросети: аниме, документалки, интервью с любыми персонажами, настройка камеры, света и генерация осмысленных диалогов.

Чем короче промпты — тем больше свободы у нейронки. Так вы дадите ИИ творческую свободу. Пример: In a 90s documentary-style interview, an old Swedish man sits in a study and says, "I still remember when I was young."

Настраиваем формат видео.

  • Format & Look: Duration 4s

  • 180° shutter; digital capture emulating 65 mm photochemical contrast; fine grain; subtle halation on speculars; no gate weave.

Выставляем свет и создаём атмосферу:

  • Lighting & Atmosphere

  • Natural sunlight from camera left, low angle (07:30 AM).

  • Bounce: 4×4 ultrabounce silver from trackside.

  • Negative fill from opposite wall.

  • Practical: sodium platform lights on dim fade.

  • Atmos: gentle mist; train exhaust drift through light beam.

«Подбираем» камеру для съёмки. Увеличиваем или уменьшаем фокус, корректируем передний и задний планы:

  • Camera shot: wide shot, low angle

  • Depth of field: shallow (sharp on subject, blurred background)

  • Lighting + palette: warm backlight with soft rim

Ведём себя как настоящий режиссёр и контролируем, задаём игру актёров: Actor takes four steps to the window, pauses, and pulls the curtain in the final second.

[Описание сцены прозой простым языком. Опиши персонажей, костюмы, декорации, погоду и другие детали. Будь как можно более описательным, чтобы видео соответствовало твоему замыслу.]
Кинематография:
Кадр камеры: [композиция и угол съёмки, например: широкий план, уровень глаз]
Настроение: [общий тон, например: кинематографично и напряжённо, игриво и тревожно, роскошное ожидание]
Действия:
- [Действие 1: чёткое, конкретное движение или жест]
- [Действие 2: ещё один отдельный момент в клипе]
- [Действие 3: другое действие или реплика]
Диалоги:
[Если в кадре есть диалог, добавь короткие естественные реплики здесь или в списке действий. Делай их короткими, чтобы они уместились в длину клипа.]

Теги:
+2
Комментарии0

Вышел бесплатный курс Agentic AI по проектированию ИИ-агентов от создателя Cursor Эндрю Ына. В рамках проекта рассказывается как автоматизировать любые задачи и создать собственного помощника для исследований. Курс построили по последним разработкам в области, включая четыре паттерна дизайна агентов (Reflection — анализ ответов нейросетей и их улучшение, Tool Use — использование инструментов моделью, Planning — декомпозиция задач и Multy-agent Collaboration — создание целой команды ИИ-агентов), акцент на анализе ошибок и оценке ответов нейропомощников — без них не построить эффективные инструменты автоматизации.

Теги:
0
Комментарии0

«Сегодня переписал всю нашу документацию с помощью ИИ, предоставив доступ к нашей кодовой базе. Сделано 250 коммитов в 58 файлах. Работа выполнена отлично», — рассказал основатель SiteGPT.

Теги:
0
Комментарии2

Байесовские А/Б-тесты: конверсии

Теги:
0
Комментарии0

OpenAI представила AgentKit — комплексную платформу для разработки ИИ-агентов

На конференции DevDay 2025 OpenAI анонсировала AgentKit — набор инструментов для создания, развертывания и оптимизации ИИ-агентов с визуальным интерфейсом на основе узлов. Платформа объединяет Agent Builder, ChatKit, Evals и Connector Registry в единую экосистему разработки.

Архитектура платформы

AgentKit предоставляет полный стек для перехода агентов от прототипа к продакшену. Платформа поддерживает как визуальную разработку через drag-and-drop интерфейс, так и code-first подход через Responses API.

Основные компоненты:

  • Agent Builder — визуальный canvas для создания логики агентов

  • ChatKit — встраиваемый UI-тулкит для чата с агентами

  • Evals — инструменты оценки производительности агентов

  • Connector Registry — корпоративный реестр готовых коннекторов

Agent Builder

Визуальный интерфейс Agent Builder работает как n8n или Zapier, предоставляя drag-and-drop узлы для композиции рабочих процессов. Система поддерживает версионирование, preview-запуски и встроенную конфигурацию эвалюаций.

Возможности Builder:

  • Визуальное создание мультиагентных воркфлоу

  • Подключение инструментов и настройка guardrails

  • Полное версионирование для итерации

  • Встроенная конфигурация оценок

  • Быстрое прототипирование без кода

Интерфейс позволяет разработчикам быстро тестировать идеи и переходить к продакшн-версиям без переписывания архитектуры.

ChatKit для интерфейса

ChatKit предоставляет готовый UI для взаимодействия с агентами через чат. Компонент встраивается в существующие приложения и поддерживает выполнение агентских узлов через диалоговый интерфейс.

Toolkit обеспечивает консистентный UX для агентских взаимодействий без необходимости разрабатывать интерфейс с нуля.

Система оценки Evals

Расширенная система Evals интегрирована напрямую в workflow разработки. Инструменты позволяют оценивать производительность агентов, управлять датасетами и отслеживать метрики качества.

Функции Evals:

  • Автоматическое тестирование агентов

  • Управление тестовыми датасетами

  • Отслеживание производительности

  • Inline-конфигурация оценок в Builder

Connector Registry

Корпоративный реестр коннекторов предоставляет готовые интеграции для расширения возможностей агентов. Компоненты можно использовать как building blocks для быстрой сборки сложных воркфлоу.

Registry включает предварительно настроенные коннекторы к популярным сервисам и API, снижая время разработки интеграций.

Конкурентная позиция

AgentKit конкурирует с платформами вроде Zapier и n8n, но фокусируется на ИИ-агентах с использованием моделей OpenAI. Интеграция всего стека в единую платформу — ключевое преимущество.

Отличия от конкурентов:

  • Zapier/n8n — автоматизация без ИИ-агентов

  • LangChain — фреймворк для кода, без визуального интерфейса

  • AgentKit — полный стек от UI до деплоя

Доступность

Платформа доступна через OpenAI Platform для разработчиков и корпоративных клиентов. Agent Builder находится по адресу platform.openai.com/agent-builder.

Сэм Альтман отметил, что AgentKit снижает трение при переходе от прототипа к продакшену и предоставляет всё необходимое для оптимизации агентских воркфлоу.

Если материал был полезен, поставьте, пожалуйста, плюс — мы стараемся выбирать для вас только самые актуальные и интересные новости из мира ИИ.

Теги:
+1
Комментарии0

Обучение операторов: из стажёра в боевого за день

Мы провели эксперимент и убедились — классическое обучение можно не заменять, а ускорять

Зачем

Обычно оператор идёт по стандартному пути: неделя обучения, неделя адаптации, потом первые смены под контролем. Медленно. Мы проверили: можно ли сделать так, чтобы новичок уже в первую смену закрывал диалоги — и не наугад, а качественно.

Что сделали

  • Построили систему дообучения операторов на базе ChatGPT plugins.

  • Каждый плагин — типовой кейс: от «где мой заказ» до «верните деньги, но я без чека».

  • Оператор учится на примерах прямо в GPT, разбирает реальные кейсы, видит ответы и объяснения.

  • 60–70 плагинов под самые типовые ситуации

Результат

  • Кол-во закрытых диалогов у новичков в первую смену выросло в 3 раза

  • Качество ответов не просело

  • Обучение стало дополнением к классике — не конкурирует, а усиливает

  • 4 куратора на группу из 30 человек

  • 7 аккаутов на ChatGPT по 30$

Что не заработало

  • Без базовой теории GPT не спасёт: нужен фундамент

  • Не все операторы готовы «учиться у машины»

  • Некоторые кейсы требуют тонкости, где GPT пока слабее человека

  • Проблема с оплатами в ChatGPT из-за отсутсвия доступа к Enterprise плану у GPT (они не дают и 60$+ за человека), а на team плане — плохая управляемость доступами

Бизнес-эффект

  • Быстрее вводим операторов в строй с увеличением в 3 раза закрываемых диалогов в первой смене

  • Стандартизируем ответы и сценарии

  • GPT-тренинг не заменяет академию — он её ускоряет

  • Операторы выходят в смену не «на авось», а уже с руками, натренированными на кейсах

  • Дальше — масштабирование и тонкая настройка под каналы и сегменты

Теги:
-1
Комментарии0

Вклад авторов