Обновить
686.71

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга

Google запустила платформу онлайн‑обучения Google Skills, где можно пройти курсы по развитию навыков работы с искусственным интеллектом и получить сертификаты. Платформа предлагает обширный каталог из около 3000 курсов, сертификатов и лабораторных работ, которые ранее были разбросаны по разным онлайн‑порталам. Другими словами, Google Skills — это гигантский комплекс, объединяющий курсы Grow with Google, Google Cloud, Google DeepMind и Google for Education. Конечно, искусственный интеллект и генеративный ИИ — основная специализация Google Skills. Кроме того, вы можете найти курсы по анализу данных, сетевой инфраструктуре, кибербезопасности и производительности труда — от начального до продвинутого уровня.

Пользователи могут бесплатно зарегистрироваться в Google Skills, используя свою учётную запись Google, чтобы получить доступ к каталогу курсов и лабораторных работ, а также 35 бесплатных кредитов в месяц. Однако для доступа к другим возможностям, таким как практические занятия всех уровней и профессиональные сертификаты, им придётся приобрести платную подписку.

Хотите выяснить, где учиться IT? В экосистеме Хабра есть маркетплейс курсов на Хабр Карьере, на котором собраны сотни онлайн-обучений в самых разных специализациях: программировании, аналитике, дизайне, менеджменте и других. Чтобы пользователи могли проверить качество курсов, там показаны отзывы от тех, кто уже прошел обучение — изучайте и выбирайте лучшее для себя.

Теги:
Рейтинг0
Комментарии0

Мы запустили телемагазин облачных технологий

Да-да, вам не показалось. В нашем блоге мы рассказываем, как облачные и AI-технологии помогают решать IT-задачи. А теперь — сделали это в неожиданном формате.

Здесь не будет чудо-ножей и пылесосов, только реальные инструменты, которые делают работу с облаками и AI проще.

Усаживайтесь поудобнее: в четырех выпусках ведущие покажут, как с помощью облачных сервисов:

🔍 внедрять умный поиск на базе RAG
🚀 ускорять разработку приложений
💻 кодить с помощью AI
⚙️ собирать корпоративных AI-агентов

Все это — на базе публичного облака Cloud.ru Evolution и цифровой среды для работы с GenAI Evolution AI Factory.

Все выпуски облачного телемагазина смотрите тут: tvshop.cloud.ru

Теги:
Всего голосов 5: ↑3 и ↓2+1
Комментарии1

Нейросети стали инвесторами. Нейросети DeepSeek, Grok и другим дали $10 тысяч и задание приумножить эту сумму за счёт крипты. В итоге китайская нейронка увеличила капитал на 30% всего за два дня, Grok 4 также отстала немного. А вот нейросети ChatGPT и Gemini провалились и ушли в минус.

Теги:
Всего голосов 3: ↑2 и ↓1+1
Комментарии4

В центре Сан-Франциско появился билборд с провокационными лозунгами вроде «Наш ИИ делает домашку за вашу дочь» и «Создаёт её дипфейки». Это реклама сайта Replacement.ai — сатирического проекта, высмеивающему ажиотаж вокруг больших языковых моделей и беспечность технологических компаний.

Продукты этого ИИ-стартапа намеренно абсурдны. Главный из них — ИИ под названием HUMBERT, якобы созданный, чтобы «заменить людей на каждом этапе развития» и «подготовить детей к постчеловеческому будущему». В описаниях используются реальные цитаты из высказываний ИИ-руководителей — в том числе знаменитая фраза Сэма Альтмана: «ИИ, вероятно, приведёт к концу света, но пока что мы создаём отличные компании».

Авторы проекта Replacement.ai не раскрывают своих имён, но их послание очевидно: гонка за коммерциализацию ИИ идёт быстрее, чем разработка правил и систем контроля.

Теги:
Всего голосов 3: ↑3 и ↓0+3
Комментарии0

Microsoft начала активно внедрять концепцию vibe working по аналогии с vibe coding. Это подход, при котором сотрудники используют ИИ-инструменты для упрощения рутинной работы. Опции с ИИ уже доступны в Excel и Word, позволяя управлять Excel голосом с помощью ИИ или «vibe писать» в Word, генерируя, уточняя и редактируя документы по ходу работы.

Концепция vibe working развивается в рамках более широкой тенденции корпоративной культуры, где часть обязанностей формально обозначается как vibing — гибкая, творческая и свободная работа с поддержкой ИИ.

Стартапы и крупные компании уже внедряют такие подходы в маркетинг, создание контента и программирование, включая vibe coding, когда ИИ помогает писать и проверять код. Добавление в рабочий порядок приставки vibe помогает привлечь поколение Z и создаёт ощущение свободного рабочего процесса, но не отменяет трудозатрат и необходимости владения профессиональными компетенциями.

Теги:
Всего голосов 1: ↑0 и ↓1-1
Комментарии8

Нейросеть для обучения и выдачи информации появилась в Stack Overflow. ИИ чат-бота обучили на всех тредах платформы — бот обладает знаниями большинства реальных программистов, а не просто теоретическими выжимками и кучей готовых решений. Чат-бот умеет проектировать и рассуждать о коде, как команда живых разработчиков. Вы можете задать нейронке любой вопрос, и он предоставит полноценные рассуждения, развёрнутый ответ на базе вопросов форума.

Теги:
Всего голосов 2: ↑2 и ↓0+2
Комментарии2

На рынке кодинг агентов пополнение методов монетизации (взято отсюда):

  • Amp (кодинг агент в терминале) запускает бесплатный доступ, но с рекламой.

  • Пользователь запускает Amp Free и просит убрать рекламу из самого себя.

  • Агент слушается и удаляет рекламный баннер из своего же кода.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

OpenAI прогнозирует $100 млрд выручки уже к 2028 году, что означает десятикратный рост всего за три года.

Проблема в том, что по данным Epoch, в истории не было ни одной компании, которая смогла бы сделать такое. Даже Tesla, Meta и Nvidia шли к этой отметке семь-восемь лет, а медианный темп роста крупнейших корпораций составлял всего 1.3x в год, против 2–3x, заложенных в прогнозах OpenAI.

Казалось бы — что такого, ведь компания OpenAI уже доказала свою уникальность — рост ее выручки просто фантастический! Однако, это не так. Да, выручка OpenAI растёт стремительно: с $1 млрд в 2023 году до ожидаемых $10 млрд в 2025. Темпы впечатляют, но не уникальны — Google, Uber и Moderna когда-то показывали похожие взлёты.

Однако дальше всегда начиналось замедление темпов роста. Что же будет, если реальность окажется скромнее ожиданий OpenAI? Масштабные контракты с Oracle, CoreWeave, Nvidia, AMD и Broadcom подразумевают расходы до $1.3 трлн в течение десяти лет — часть из которых должна окупиться за счёт будущих доходов. Не попасть в цель — значит заморозить дата-центры и сбросить часть долгов на инвесторов. А ведь именно они сегодня подпитывают ИИ-эйфорию: капитал вбухивается в инфраструктуру, стартапы и фонды под предположение, что OpenAI не просто успешна — а станет самой быстрорастущей компанией в истории. И если чудо не случится, то это может стать той самой булавкой для «ИИ-пузыря». В общем, OpenAI действительно может изменить мировую экономику, но совсем не так, как хотелось бы.

Теги:
Всего голосов 1: ↑1 и ↓0+2
Комментарии0

Представлен учебный проект HUMANS.md. Это бесплатные и доступные заметки о кодировании с помощью ИИ. На ресурсе публикуются практические уроки программирования с помощью ИИ, такие как Claude Code, Codex и другие.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Cооснователь OpenAI Андрей Карпаты представил открытый проект nanochat для клонирования LLM типа ChatGPT. Внутри 8000 строк чистого кода на Python, никаких лишних зависимостей, вся база модели: токенизатор, предобучение, файнтюн, обучение с подкреплением и оценка модели. Для запуска понадобится GPU в облаке и готовый скрипт.

Теги:
Всего голосов 2: ↑2 и ↓0+3
Комментарии0

Многие, кто обучал большие модели искусственного интеллекта, сталкивались с ситуацией, когда необходимы данные из множества источников. Но если источники совсем не из одной корпорации, то из-за GDPR или законах о защите персональных данных нет возможности обмениваться данными напрямую. 

Как быть, если нужно обучать большие модели, но нельзя собирать всю информацию в одном месте?

Решение — федеративное обучение. Это система, в которой центральное устройство (сервер) объединяет усилия множества участников (устройства): каждый совершает операции на своих данных, а сервер собирает только результаты, не забирая саму информацию.

В зависимости от специфики задачи, данные на устройствах могут храниться по-разному. На основе того, как делится матрица признаков между участниками, можно выделить два подвида федеративного обучения:

📌 Горизонтальное федеративное обучение (HFL)

Суть: у разных участников данные имеют одинаковые фичи (одинаковые столбцы), но разные строки (разные пользователи/наблюдения).

Пример: несколько банков обучают модель для предсказания мошеннических транзакций. У всех есть одинаковые признаки по транзакциям (сумма, время, место, категория операции и т.п.), но набор клиентов у каждого банка свой. Объединяя данные через HFL, они получают более устойчивую модель, не раскрывая данные клиентов напрямую.

📌 Вертикальное федеративное обучение (VFL)

Суть: у разных участников есть одни и те же сэмплы (одни и те же строки), но разные признаки (разные столбцы).

Пример: банк и страховая компания имеют одних и тех же клиентов. У банка есть финансовые характеристики (история транзакций, кредитный рейтинг), у страховой — медицинская история и страховые выплаты. Объединив признаки в VFL, они могут построить более точную модель для оценки рисков по клиенту.

При этом нельзя сказать, что примеры выше оторваны от реальности. Например, Google применяет федеративное обучение для улучшения работы клавиатуры Gboard. Вместо сбора всех данных о нажатиях на своих серверах, центральное устройство получает только агрегированные обновления модели. То есть, обучение происходит прямо на устройствах пользователей, но без нарушения приватности.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Microsoft представила бесплатный курс EdgeAI for Beginners, чтобы познакомить пользователей с захватывающим миром периферийного ИИ. В рамках учебных материалов в открытом репозитории раскрыты фундаментальные концепции, популярные ИИ-модели, методы вывода, приложения для конкретных устройств, оптимизация моделей и технологии разработки интеллектуальных агентов периферийного ИИ.

Хотите выяснить, где учиться IT? В экосистеме Хабра есть маркетплейс курсов на Хабр Карьере, на котором собраны сотни онлайн-обучений в самых разных специализациях: программировании, аналитике, дизайне, менеджменте и других. Чтобы пользователи могли проверить качество курсов, там показаны отзывы от тех, кто уже прошел обучение — изучайте и выбирайте лучшее для себя.

Теги:
Всего голосов 2: ↑2 и ↓0+3
Комментарии0

Читаю Талеба «Чёрный лебедь» — и ловлю себя на мысли, насколько точно он описывает разрыв между нашей биологией и современным миром.

Наши инстинкты сформировались для выживания среди диких зверей и соседних племён.
А живём мы сегодня в «Крайнестане» — мире, где редкие и маловероятные события определяют ход истории, экономик и компаний.

🦢 Чёрный лебедь может появиться после тысяч белых.
И именно он перевернёт систему — а не то, к чему мы «готовились».

Наш мозг не чувствует эти сдвиги.
Мы по-прежнему думаем, что «всё будет как вчера», хотя реальность управляется не средним сценарием, а экстремумами.

📌 Почему это важно для лидеров и продуктовых команд:
— Большинство наших решений всё ещё строятся на интуиции и прошлом опыте.
— Но в среде высокой неопределённости это опасно.
— Нужно учиться работать с неопределённостью осознанно: строить сценарии, усиливать антихрупкость, планировать не «по среднему», а по краевым случаям.

«В далеком прошлом люди могли делать выводы быстрее и точнее… Сегодня число “чернолебяжьих” зон неизмеримо выросло».

Именно в этих «чернолебяжьих» зонах рождаются не только кризисы — но и прорывы.

Теги:
Всего голосов 10: ↑2 и ↓8-5
Комментарии22

Ближайшие события

MWS AI выложила в открытый доступ код и валидационный датасет к бенчмарку MWS Vision Bench - для оценки способностей мультимодальных LLM в работе с тяжелым визуально-текстовым контентом на русском: сканами документов, текстом с картинками, графиками, чертежами, таблицами и пр.

Кратко:

Бенчмарк состоит из 5 практических заданий:
- полностраничный OCR (страница→текст),
- структурированный OCR (страница→markdown),
- grounding (координаты текста),
- KIE/JSON (извлечение ключей),
- VQA (вопрос‑ответ).

Размер: 800 изображений, 2580 вопросов (валидация - 1 302, тест - 1 278). 

Репозиторий - на GitHub
Валидационный датасет - на HF

Подробно - тут: https://habr.com/ru/companies/mts_ai/articles/953292/ .

Теги:
Рейтинг0
Комментарии0

Google опубликовала список из 1001 варианта использования генеративного ИИ в различных секторах, таких как автомобилестроение, финансовые услуги, производство, здравоохранение, бизнес, гостиничный бизнес, туризм и СМИ.

Теги:
Рейтинг0
Комментарии0

Идеи, с чем интегрировать LLM из Evolution Foundation Models 🖥

В сервисе Evolution Foundation Models представлены open source модели, к которым вы можете делать запросы по API. А еще есть возможность интегрировать эти LLM в разные фреймворки, библиотеки и редакторы кода, чтобы автоматизировать часть задач и облегчить себе работу.

⬇️ Расскажем о четырех сценариях применения LLM из Evolution Foundation Models с разными инструментами. А еще дадим ссылки на руководства по подключению:

  1. Создайте своего Code Agent с Aider и VS Code. Подключите в свой сервис по API подходящую под ваши задачи LLM, а потом используйте редакторы кода, чтобы создать интеллектуального помощника по программированию. Тот поможет писать и рефакторить код, искать баги, проводить тесты и составлять документацию.

  2. Встройте LLM в чат-интерфейс платформ ChatboxOpen WebUI или LibreChat. Так вы сможете, например, настроить работу команды с LLM и контролировать расход токенов, создавать собственных AI-ассистентов, использовать RAG и поиск в интернете.

  3. Напишите своего чат-бота с фреймворком LangChain, который предназначен для создания AI-ориентированных приложений. Добавьте созданного чат-бота в беседу, чтобы он делал выжимки из диалогов и отслеживал в них задачи. Или интегрируйте получившегося AI-помощника в службу поддержки, чтобы быстрее отвечать клиентам. 

  4. Организуйте LLM-шлюз с библиотекой Litellm. Например, она на дает доступ к разным LLM по единому API-ключу и возможность выбрать резервную модель на случай, если с основной что-то случится. LLM-шлюз упростит вам работу: он может управлять сразу несколькими LLM, помогает балансировать нагрузку и контролировать траты.

Кстати, более 20 LLM, эмбеддеров и реранкеров из Evolution Foundation Models доступны бесплатно до 31 октября. Выберите модели, которые по бенчмаркам лучше подходят к вашим задачам, и протестируйте их в работе 🤖

Теги:
Рейтинг0
Комментарии0

OpenAI и Nvidia раздувают пузырь искусственного интеллекта объёмом в 1 триллион долларов с помощью сети циклических сделок.

Теги:
Всего голосов 7: ↑6 и ↓1+8
Комментарии2

OutBoxML: как мы построили свою ML‑платформу от архитектуры до продакшена

Если вы хоть раз выводили ML‑модель в прод, то знаете этот сценарий.

Папки final_final_v2, десятки Python‑скриптов, неотслеженные версии данных, ручной деплой на сервер, и тревожное чувство, что «где‑то что‑то точно отвалится».

Со временем даже хорошо построенный ML‑процесс превращается в хаос — набор несовместимых пайплайнов и моделей, где каждый инженер решает задачу по‑своему.

Мы столкнулись с этим тоже. Но вместо того чтобы латать процессы по частям, мы решили построить собственную ML‑платформу OutBoxML — систему, которая централизует всё: от обучения и управления фичами до продакшн‑деплоя и мониторинга качества моделей.

OutBoxML — это не концепция на слайдах, а реальный проект, который мы внедрили в продакшн, чтобы стабилизировать и масштабировать ML во всём ИТ‑контуре Страхового Дома ВСК.

В серии из трёх статей на Хабре наши инженеры подробно разбирают, как мы прошли путь от архитектуры до продакшена, какие решения приняли — и какие ошибки помогли нам вырасти.

Решение: платформа OutBoxML

Мы не остановились на обёртках вокруг сторонних инструментов — мы создали OutBoxML: платформу, способную управлять жизненным циклом моделей от разработки до стабильного продакшена.

Мы шаг за шагом описываем во всех трёх статьях, как родилась архитектура, как устроен компонент работы с признаками и как устроена надёжность при выводе моделей.

Часть 1: Библиотека OutboxML от Страхового Дома ВСК

В первой статье мы показываем конструкцию ядра OutBoxML и обоснование архитектурных подходов.

Ключевой технический инсайт: мы ушли от монолитных систем и отдали предпочтение сервисам с чёткими границами ответственности, использованию событийной коммуникации и контейнеризации.

Мы описываем принципы маршрутизации данных, версионирования и взаимодействия между сервисами, а также как обеспечиваем воспроизводимость экспериментов.

Часть 2: Автоматизированное машинное обучение с помощью нашего Open Source фреймворка: задача о Титанике

В следующее статье мы разбирали моменты, в которых классический ML выигрывает у сложных нейросетей, на примере страховой индустрии.

К тому же обсудили как мы автоматизировали обучение и инференс моделей с помощью OutBoxML и модульную архитектура и гибкие настройки процессов.

Часть 3: Data Drift в ML Страхового Дома ВСК: от PSI‑анализа до пересборки фичей и сравнения моделей

Машинное обучение в страховании — это не только про красивые метрики на этапе тестирования. Самая большая проблема приходит позже, когда модель выходит «в прод»: данные начинают меняться, и точность предсказаний падает. Это явление называется Data Drift. В статье мы делимся практическим опытом:

  • как диагностировать дрифт с помощью PSI‑метрики;

  • как использовать SHAP‑анализ для переосмысления модели;

  • чем отличается модель «с дрифтом» от модели «без дрифта» на реальных страховых данных.

Мы показываем не теорию, а эксперимент с открытым кодом и цифрами: какие признаки пришлось исключить, как изменилась логика модели и что это дало бизнесу на практике.

Совсем скоро выйдет заключительная статья нашего первого цикла open source проекта OutBoxML!

Присоединяйтесь к нашему проекту на GitHub и в Telegram. К тому же, библиотека опубликована в pypi и доступна к установке через pip install outboxml

Пишите в комментариях, о каких аспектах автоматизации ML вам хотелось бы узнать подробнее. Удачи в реализации ваших проектов!

Теги:
Всего голосов 1: ↑1 и ↓0+3
Комментарии0

Автоматизация discovery: от идеи до интерфейса за один день

Мы у себя провели эксперимент и пришли к ряду выводов

Зачем

Классический discovery: недели согласований, уточнений, макетов, пока команда не дойдёт до первого прототипа. Мы проверили гипотезу: можно ли сократить весь цикл от идеи до интерфейса до 24 часов — без потери управляемости и качества.

Что сделали

Собрали полуавтоматический pipeline, который превращает любые вводные (голос, текст, фото) в CJM, прототип и UML. Нижняя граница — один день. Обычно 2-3 дня. Пайплайн выстроен вокруг генеративных инструментов:

  1. ChatGPT — генерирует эпики, сценарии, модели данных, UI-интерфейсы и документацию

  2. Bolt.new — визуализирует CJM и собирает первый прототип

  3. GitHub + Codex — превращают интерфейсы в код и валидируют логику (не удалось внедрить из-за ограниченного контекстного окна)

  4. tldv; — записывает и логгирует встречи со стейкхолдерами и командой

В итоге discovery превращается из цепочки встреч в цикл общения с GPT

Результат

  • Цикл discovery сократился до 2-3 дней, иногда — 1

  • Трудозатраты продуктов и дизайнеров снизились в разы, иногда — без дизайна

  • Стоимость на команду — около 190 $/мес (tldv + bolt.new + chatgpt)

  • Качество артефактов стабильно, при условии нормальных вводных

  • Возможность полного отказа от дизайна в ряде кейсов (Bolt)

Что не заработало

  • Bolt ограничен по объёму токенов, не подходит для сложных интерфейсов

  • Вводные без контекста ломают качество генерации

  • Для больших проектов пока не хватает контекстного окна и нужно предварительное упрощение проекта

  • Часть сценариев по-прежнему требует ручной доводки.

Бизнес-эффект

  • Time-to-Market резко снижается

  • Высвобождение продуктовых и дизайнерских ресурсов

  • Формализованный discovery-процесс, готовый к стандартизации

Автоматизация discovery жизнеспособна. Большая часть процесса может быть выполнена GPT с минимальным участием людей. Проект завершился на ручном приводе — но подтвердил, что конвейер от идеи до интерфейса за сутки реален. Дальше — вопрос масштаба и доверия к машине.

Теги:
Всего голосов 2: ↑0 и ↓2-2
Комментарии0

Представлен полный курс по Sora 2 от OpenAI, включая официальный гайд по промптам и созданию сцен с помощью нейросети: аниме, документалки, интервью с любыми персонажами, настройка камеры, света и генерация осмысленных диалогов.

Чем короче промпты — тем больше свободы у нейронки. Так вы дадите ИИ творческую свободу. Пример: In a 90s documentary-style interview, an old Swedish man sits in a study and says, "I still remember when I was young."

Настраиваем формат видео.

  • Format & Look: Duration 4s

  • 180° shutter; digital capture emulating 65 mm photochemical contrast; fine grain; subtle halation on speculars; no gate weave.

Выставляем свет и создаём атмосферу:

  • Lighting & Atmosphere

  • Natural sunlight from camera left, low angle (07:30 AM).

  • Bounce: 4×4 ultrabounce silver from trackside.

  • Negative fill from opposite wall.

  • Practical: sodium platform lights on dim fade.

  • Atmos: gentle mist; train exhaust drift through light beam.

«Подбираем» камеру для съёмки. Увеличиваем или уменьшаем фокус, корректируем передний и задний планы:

  • Camera shot: wide shot, low angle

  • Depth of field: shallow (sharp on subject, blurred background)

  • Lighting + palette: warm backlight with soft rim

Ведём себя как настоящий режиссёр и контролируем, задаём игру актёров: Actor takes four steps to the window, pauses, and pulls the curtain in the final second.

[Описание сцены прозой простым языком. Опиши персонажей, костюмы, декорации, погоду и другие детали. Будь как можно более описательным, чтобы видео соответствовало твоему замыслу.]
Кинематография:
Кадр камеры: [композиция и угол съёмки, например: широкий план, уровень глаз]
Настроение: [общий тон, например: кинематографично и напряжённо, игриво и тревожно, роскошное ожидание]
Действия:
- [Действие 1: чёткое, конкретное движение или жест]
- [Действие 2: ещё один отдельный момент в клипе]
- [Действие 3: другое действие или реплика]
Диалоги:
[Если в кадре есть диалог, добавь короткие естественные реплики здесь или в списке действий. Делай их короткими, чтобы они уместились в длину клипа.]

Теги:
Всего голосов 2: ↑1 и ↓1+2
Комментарии0

Вклад авторов