Как стать автором
Обновить
675.47

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга

💬 Google выпустил свой генератор речи.

Он в точности копирует речь живого человека, добавляя паузы, смены интонации, тембр, смех и кашель.

Также внутри есть большая библиотека голосов и возможность выбора несколько спикеров, чтобы сделать свой подкаст 😧

Работает на базе Gemini 2.5 Flash Preview TTS и поддерживает русский язык.

➡️ Потестить бесплатно можно в AI Studio. Для этого выбираем Generate Media — Gemini Speech Generation.

Кстати недавно выкладывал интересную инфу про Gemini, кто не чекал советую ознакомиться.

Теги:
0
Комментарии0

Представлен ИИ-сервис, который поможет понять, почему женщина может вами недовольна (Why Is My Wife Yelling at Me? AI Wife Yelling Simulator).

Нужно просто описать ситуацию, из-за которой ваша жена или девушка пришла в состояние недовольства, а сервис проведёт самую глубокую аналитику. ИИ сам возьмёт на себя роль женщины и ответит в одном из четырёх режимов — нормальном, злом, саркастичном или разочарованном.

Теги:
+4
Комментарии0

Рассказываем, как технологии искусственного интеллекта в облаке помогли Wildberries подготовиться к выходу на новый рынок 🛍️

Что за компания

Wildberries — самый крупный по обороту маркетплейс в России. Доставляет заказы в несколько стран, в том числе Беларусь, Казахстан и Армению. В октябре 2024 года маркетплейс запустил продажи на одном из новых рынков

Какая была задача

Перед выходом на новый рынок Wildberries планировали быстро реализовать важные проекты:

  • автоматизировать перевод карточек товаров на местный и английский языки;

  • дообучить и запустить русскоязычную LLM на закрытом GPU-кластере;

  • разработать классификатор товаров по кодам ТН ВЭД;

  • протестировать собственную гипотезу и построить прогноз.

Как ее решили

Благодаря ресурсам Cloud.ru маркетплейс:

  • дообучил модель на специфическом корпусе текстов и с помощью LLM перевел все карточки;

  • разработал классификатор кодов с использованием языковой модели, что ускорило процесс и повысило точность моделей;

  • автоматизировал выбор таможенного кода: с помощью LLM сформировал обучающую выборку и провел инференс модели на мощных GPU в облаке, а затем на базе этой выборки построил более простую модель на процессорах CPU;

  • сэкономил на закупке оборудования: команде дата-сайентистов нужен был большой объем ресурсов, чтобы проверить гипотезы и построить прогнозы, а провайдер оперативно выделил необходимые вычислительные мощности.

Что в результате

Wildberries быстро получил гибкую инфраструктуру для оперативного решения бизнес-задач, а также сократил time to market. С помощью облачных мощностей с GPU компания смогла быстрее выйти на новый рынок и снизить затраты на подготовку в несколько раз.

Читать кейс 🔍

Теги:
0
Комментарии1

На GitHub Представлена бесплатная база (Learn Agentic AI using Dapr Agentic Cloud Ascent (DACA) Design Pattern: From Start to Scale) по ИИ‑агентам и их правильному созданию с нуля:

  • Подробное введение в общее строение и теорию разработки ИИ‑агентов.

  • Разбор всех популярных нейросетей от ChatGPT до Gemini.

  • Важнейшие протоколы ИИ.

  • Паттерны проектирования ИИ‑агентов.

  • Множество проектов для закрепления знаний — каждый авторы разобрали пошагово. Готовых ИИ‑агентов сможете сразу применять в работе.

  • Разборы процессов в популярных нейростартапах.

Теги:
0
Комментарии0

Интересно применение ML и AI в борьбе за безопасность и доверие пользователей? Тогда Trust&Safety AI Meetup точно для тебя 👀

Когда? 22 мая, 18:00
Где? офлайн в Москве + онлайн-трансляция 

В программе будут 2 технических доклада, интересная дискуссия, спикеры из Wildberries&Russ, Avito, AI Masters. А еще розыгрыш классного мерча среди активных участников и нетворкинг с полезными знакомствами.

Регистрация закроется 21 мая — выбирай формат участия и успей отправить заявку. До встречи на Trust&Safety AI Meetup!

Не пропустите подробности о митапе: @wb_space 🌟

Теги:
0
Комментарии0

22 мая Андрей Квапил (a.k.a. kvaps) проведет вебинар на YouTube-канале CNCF и расскажет о том, как быстро и просто деплоить виртуальные машины и Kubernetes-кластеры и пробрасывать в них GPU с помощью Open Source-платформы Cozystack.

Зарегистрироваться можно по ссылке: https://tinyurl.com/yf9jcfst. Просто кликните по кнопке «Login to RSVP», чтобы получить приглашение в календаре.

Теги:
+2
Комментарии0

Привет! 27 сентября 2025 года мы вновь соберёмся на Practical ML Conf — ежегодной конференции Яндекса о практическом применении ML‑технологий. Открываем приём заявок для тех, кто хочет выступить с докладом.

Основные темы конференции в этом году: CV, RecSys, MLOps, NLP, Speech и Data Science. Мы ждём глубокие технические доклады о прикладных решениях, которые уже приносят пользу в реальных проектах.

Как проходит работа со спикерами Practical ML Conf 2025:

  • при подготовке доклада вы получите поддержку от экспертов программного комитета;

  • перед конференцией пройдут прогоны с профессиональным тренером по публичным выступлениям;

  • мы поможем оформить вашу презентацию, чтобы донести идею максимально чётко и красиво;

  • вы сможете посетить конференцию вместе с +1 без прохождения отбора слушателей;

  • ваш доклад привлечёт внимание сообщества и экспертов: можно будет получить обратную связь, идеи для развития решения и проекта;

  • мы поддерживаем спикеров не только на конференции — ваши доклады будут промоутироваться через каналы Яндекса до и после мероприятия.

Приём заявок открыт до 9 июня 2025. Решение о включении доклада в программу примет программный комитет на основе четырех критериев: полезность, новизна, сложность и практичность.

Предложить свой доклад можно на сайте конференции. Там же можно зарегистрироваться слушателем, узнать подробности и посмотреть записи прошлых выступлений.

Теги:
+9
Комментарии0

Ozon запустил бесплатный инструмент OzonGenerator для автоматической генерации описаний товаров — он встроен в личный кабинет продавца и доступен в приложении Ozon Seller. Использовать функцию можно до 50 раз в месяц, при этом сторонние сервисы больше не нужны.

Теги:
0
Комментарии3

Облачная инфраструктура Рег.ру для AI и ML

Рассказываем, какие решения в Облаке Рег.ру помогут развернуть полноценную инфраструктуру для работы с AI и ML. Сервисы подходят для обучения моделей, хранения больших датасетов в облачных хранилищах и внедрения решений в продакшн. 

Как работает архитектура для AI и ML:

  1. Развертывание вычислительной среды. Выбираете, где будет выполняться обучение: Bare Metal GPU или Cloud GPU.

  2. Загрузка данных. Собираете датасет в удобных инструментах: S3, DBaaS или непосредственно на виртуальной машине/сервере. 

  3. Обучение модели. Запускаете создание или дообучение модели с сохранением результатов в удобном сервисе, например, в S3 или DBaaS.

  4. Использование результатов. Модель можно тиражировать и применять для различных сервисов в продакшене.

С помощью AI и ML-решений можно упростить автоматизацию, ускорить аналитику и повысить производительность проектов.

Теги:
+2
Комментарии1

Гендиректор ИИ-подразделения Google DeepMind Демис Хассабис призвал студентов готовиться к бесконечным переменам и сказал, чему нужно учиться. На вопрос, куда студентам следует направить силы и время в эпоху ИИ. Ответ Хассабиса — «учиться учиться».

«Я думаю, что на истинное понимание: используйте своё время, пока вы студенты, чтобы лучше понять себя и то, как вы лучше учитесь», — отметил Хассабис. Он пояснил, что залог успеха сегодня в адаптивности к новым знаниям — в том, чтобы развить навык быстрого освоения и усвоения нового материала, быть гибким и эффективным в обучении.

Хассабис считает, что сегодняшним студентам придётся жить в мире, где единственной предсказуемой вещью является его непредсказуемость — всё постоянно меняется из‑за стремительного развития технологий. Но он назвал конкретные направления, которые заслуживают внимания.

«Особенно ИИ, а также виртуальная и дополненная реальность, квантовые вычисления. Все эти сферы выглядят многообещающе в перспективе ближайших 5–10 лет», — сказал Хассабис. Он добавил, что каждая перемена несёт в себе «огромные» возможности.

«Я думаю, мы на пороге периода, похожего на 1990-е, когда мы выпускались, и тогда развивался интернет, мобильные телефоны, гейминг. Думаю, мы вступаем в очередной такой период. Это очень захватывающе, но нужно быть очень шустрым и схватывать появляющиеся технологии», — продолжил Хассабис.

Также Хассабис посоветовал студентам помнить о базе. Что‑то новое будет появляться всегда, поэтому лучше не отвлекаться на вещи, которые «модны сегодня, но выйдут из моды завтра».

«Помню, моими любимыми были темы вроде теории вычислений и теории информации, изучение таких вещей, как машины Тьюринга. Это осталось со мной на протяжении всей карьеры. Мне нравятся математические основы и многое из классических, фундаментальных работ», — поделился Хассабис. При том он подчеркнул, что важно не забывать о тех вещах, к которым у вас лежит душа. К выпуску студенты должны быть способны совместить глубокое понимание своих интересов с теми знаниями и навыками, которые они получили.

В свободное время Хассабис посоветовал студентам экспериментировать в любимых направлениях. В его случае это ИИ, и здесь постоянно появляются новые инструменты, в том числе с открытым кодом, поэтому он посоветовал студентам к моменту выпуска хорошо владеть самыми передовыми.

Теги:
Всего голосов 2: ↑2 и ↓0+3
Комментарии0

Утечка системного промпта Claude 3.5 Sonnet: что произошло

TL;DR: прозмоьла утечка системного промпта Claude 3.5 Sonnet.

Недавно в открытом доступе на GitHub появился файл с системным промптом модели Claude 3.5 Sonnet от Anthropic. В этой заметке мы подробно разберём, что именно было обнародовано, как устроен промпт и какие риски несёт его утечка.

Системный промпт — это скрытая инструкция, определяющая поведение и «мозг» LLM-модели, задающая стиль, ограничения, формат вывода и логику внутренних решений. Утечка данной инструкции может помочь лучше понять внутренности и логику работы данной нейросети.

  • Источник:

    https://raw.githubusercontent.com/asgeirtj/system_prompts_leaks/refs/heads/main/claude.txt
  • Содержимое:

    • Описания «артефактов» (artifacts) — самостоятельных блоков контента (отчёты, письма, презентации).

    • Правила запуска «структурированного мышления» в тегах <antthinking>.

    • Шаблоны и условия фильтрации: когда создавать артефакт и когда отвечать простым текстом.

    • Ограничения по объёму и форматированию, а также рекомендации по стилю.

Небольшой анализ этой утечки:

  1. Артефакты
    Системный промпт описывает «артефакты» — XML-подобные блоки (отчёты, письма), которые модель генерирует для структурированного редактирования.

  2. Структурированное мышление
    Перед формированием сложных ответов включаются теги <antthinking>, задающие пошаговый алгоритм анализа запроса и выбора формата вывода.

  3. Фильтрация и объём
    Короткие ответы (1–2 предложения) выдаются без артефактов; при этом заданы жёсткие лимиты на размер и глубину артефактов во избежание «раздувания» текста.

  4. Режимы и модерация
    Включены автоматические режимы генерации (быстрый ответ, развёрнутый отчёт) и встроенные фильтры для блокировки нежелательного контента и внутренней информации.

На всякий случай, файл с GitHub'a залил в облако и Web archive, чтобы точно не потерять :). Хотя сам, честно говоря, до сегодняшнего дня но разу не пользовался данной моделью, теперь есть повод поэкспериментировать.

PS. Это мой первый пост, друзья, так что, если найдёте какие-либо недочёты, пожалуйста, укажите на них!

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Запустили Evolution ML Inference — сервис для развертывания ML- и DL-моделей в облаке 🤖

❓ Что за инструмент? С помощью Evolution ML Inference можно запускать и развертывать ML-модели из библиотеки Hugging Face на облачных мощностях с GPU, в том числе в пользовательских Docker-образах. А для более эффективного инференса также можно использовать среды исполнения vLLM, TGI, Ollama, Diffusers и Transformers.

🖥 Особенности и преимущества. Благодаря технологии Shared GPU ML-модели могут совместно использовать ресурсы графического ускорителя — это экономит ресурсы облака и повышает производительность. Масштабирование происходит динамически — если число запросов превышено, дополнительные мощности выделяются автоматически. Или наоборот, один GPU можно использовать для инференса сразу нескольких моделей. Оплата за использование — по модели pay-as-you-go.

👨‍💻 Кому будет полезно. Сервис найдет применение во всех сферах, где актуально машинное обучение. Evolution ML Inference можно использовать при создании ML- и DL-моделей для бизнеса, медицинских и образовательных учреждений, ретейла, кибербезопасности, производства и других областей.

✍️ Где, как и для чего использовать. Сервис подойдет для инференса LLM и TGI, диффузионных моделей и моделей-трансформеров, а также аудит-логирования. Какие задачи помогают решать модели:

  • распознавание объектов и речи;

  • прогнозирование поведения клиентов;

  • составление логистических маршрутов;

  • генерация текстов;

  • перевод, суммаризация и другие операции с текстом.

А больше об Evolution ML Inference можно узнать из доклада конференции GoCloud 2025 «Эволюция запуска ML-моделей» 😉.

Теги:
Рейтинг0
Комментарии0

Утечка системного промпта Claude 3.5 Sonnet: что произошло

TL;DR: произошла утечка системного промпта Claude 3.5 Sonnet.

Недавно в открытом доступе на GitHub появился файл с системным промптом модели Claude 3.5 Sonnet от Anthropic. В этой заметке мы подробно разберём, что именно было обнародовано, как устроен промпт и какие риски несёт его утечка.

Системный промпт — это скрытая инструкция, определяющая поведение и «мозг» LLM-модели, задающая стиль, ограничения, формат вывода и логику внутренних решений. Утечка данной инструкции может помочь лучше понять внутренности и логику работы данной нейросети.

  • Оригинальный файл:

    https://raw.githubusercontent.com/asgeirtj/system_prompts_leaks/refs/heads/main/claude.txt
  • Содержимое:

    • Описания «артефактов» (artifacts) — самостоятельных блоков контента (отчёты, письма, презентации).

    • Правила запуска «структурированного мышления» в тегах <antthinking>.

    • Шаблоны и условия фильтрации: когда создавать артефакт и когда отвечать простым текстом.

    • Ограничения по объёму и форматированию, а также рекомендации по стилю.

Небольшой анализ этой утечки:

  1. Артефакты
    Системный промпт описывает «артефакты» — XML-подобные блоки (отчёты, письма), которые модель генерирует для структурированного редактирования.

  2. Структурированное мышление
    Перед формированием сложных ответов включаются теги <antthinking>, задающие пошаговый алгоритм анализа запроса и выбора формата вывода.

  3. Фильтрация и объём
    Короткие ответы (1–2 предложения) выдаются без артефактов; при этом заданы жёсткие лимиты на размер и глубину артефактов во избежание «раздувания» текста.

  4. Режимы и модерация
    Включены автоматические режимы генерации (быстрый ответ, развёрнутый отчёт) и встроенные фильтры для блокировки нежелательного контента и внутренней информации.

На всякий случай, файл с GitHub'a залил в облакo [ Upd: администрация Telebox, как выяснилось, имеет доступ ко всем файлам, даже беспарольным архивам, и уже дважды удалила файл] и Web archive [здесь файл жив и здоров], чтобы у каждого была возможность покопаться в недрах этого конфига. Честно говоря, до сегодняшнего дня ни разу не пользовался данной моделью от Anthropic, теперь есть повод поэкспериментировать :).

PS. Это мой первый пост, друзья, так что, если найдёте какие-либо недочёты, пожалуйста, укажите на них!

Теги:
Всего голосов 6: ↑6 и ↓0+8
Комментарии0

Ближайшие события

Узнаем содержимое любого GitHub-репозитория за один клик с помощью универсального бесплатного ИИ-помощника Git-Friend.

Решение:

  • создаёт подробные и структурированные README-файлы для ваших проектов — это поможет сэкономить часы работы и сделать ваши труды более узнаваемыми.

  • делает саммари и гайды по любым репозиториям и досконально разжевывает их кодинговую базу

  • отвечает на вопросы, если вы застряли при анализе проекта или установке нового фреймворка.

  • скоро сервис сможет генерить диаграммы для еще более подробного анализа кода.

Теги:
Всего голосов 2: ↑2 и ↓0+2
Комментарии0

AI-агенты в облаке: как они работают, зачем нужны — и как создать собственного

📅 13 мая | 18:00 (МСК) | Онлайн

На встрече поговорим о том, как устроены современные AI-агенты на базе LLM, какие архитектуры и инфраструктуры используются для их работы, и продемонстрируем создание агента в режиме live coding.

👨‍💻 Спикер — Михаил Дремин
Технический лидер Data Science-направления в Clоud.ru

🔍 В программе:
— Основы LLM-агентов и взаимодействие с внешним миром через инструменты (tools)
— Архитектурные подходы: Prompt chaining, ReAct, Evaluator-optimizer, ambient agents и другие
— Реальные кейсы использования
— Практическая часть: разработка собственного агента на Python (с использованием LangChain) и развертывание в облаке

💼 А также: представители компании расскажут о стажировке для студентов и молодых специалистов: какие направления доступны, как попасть в команду.

📌 Участие бесплатное

📎 Регистрация: https://mnlp.cc/mini?domain=digitalmipt&id=7

Теги:
Рейтинг0
Комментарии0

Тикток-блогер its_ken04, известная как Кен, опубликовала запись «собеседования», которая стала вирусной. В ролике ИИ-рекрутер 14 раз подряд повторяет фразу «vertical bar pilates», иногда запинаясь или заикаясь, пока Кен с невозмутимым видом смотрит на экран.

Девушка подавала заявку на работу в фитнес-центре. Кен рассказала, что компания заранее предупредила ее об использовании ИИ в процессе отбора, и платформа называлась Apriora. «Похоже, мне нужно было заслужить право говорить с человеком, ха-ха», — написала девушка в комментариях к видео.

Стартап Apriora обещает помочь компаниям «нанимать на 87% быстрее» и «проводить собеседования на 93% дешевле», поскольку может одновременно интервьюировать нескольких кандидатов. «Соискатели во многих случаях предпочитают проходить собеседование с ИИ, поскольку знание того, что интервьюер — это ИИ, помогает снизить тревогу, позволяя кандидатам проявить себя наилучшим образом», — заявили в компании.

Опыт Кен с Apriora был отрицательным. «Мне показалось это действительно жутким, я была в шоке», — сказала она. «Я не находила это смешным, пока не выложила тикток и комментарии не подняли мне настроение. Я была очень удивлена, я ничего не сделала, чтобы вызвать сбой, так что это было неожиданно. Я больше никогда не буду проходить это снова. Если другая компания захочет, чтобы я общалась с ИИ, я просто откажусь», — заявила блогер.

Теги:
Всего голосов 7: ↑7 и ↓0+11
Комментарии2

Представлен ресурс (Context7 MCP - Up-to-date Code Docs For Any Prompt) из 9000 API с документацией для автоматического подключения к любым нейросетям. Поддерживается: Cursor, Windsurf, VS Code, Docker, Claude.

Теги:
Рейтинг0
Комментарии0

Могучий русский язык и предиктивный ввод в умной клавиатуре

Русский — это вызов даже для самых продвинутых языковых моделей. Одна из ключевых причин — его морфологическая сложность. В отличие от английского языка, где у слов относительно немного форм, русский язык отличается большим количеством словоформ, которые образуются с помощью приставок, суффиксов и окончаний. 

Это означает, что одно лексическое понятие, например глагол «читать», может породить десятки различных форм: «читаю», «читаем», «читаешь», «прочитал», «прочитала» и так далее. Для модели предиктивного ввода это серьезная проблема: чтобы корректно предсказывать или завершать такие слова, ей нужно либо обладать глубоким пониманием морфологии, либо иметь достаточно большой словарь, который покрывает все возможные варианты словосочетаний.

Мы увеличили размер словаря для русского языка до 40 тысяч слов и использовали модель Char CNN + RNN. Так удалось добиться прироста метрики KSS (количество сэкономленных нажатий) на 60%. 

Читайте в статье ИИ-инженера Вадима Воеводкина из YADRO, как его команда улучшила предиктивный ввод на планшетах KVADRA_T и с какими сложностями столкнулась. 

Теги:
Всего голосов 1: ↑1 и ↓0+2
Комментарии0

Магистратура МФТИ и Альфа-Банка

Вместе с МФТИ Альфа-Банк открывает набор в магистратуру «Машинный интеллект в финансах». Обучим управлять циклом создания модели, анализировать и моделировать данные с помощью алгоритмов Python, а также решать прикладные задачи Machine Learning и Deep Learning.

Почему стоит попробовать:

  • Бесплатное обучение — все расходы покрывает Альфа-Банк.

  • Ежемесячная стипендия и оплачиваемая стажировка с первого дня.

  • Возможность попасть в IT-команду Альфа-Банка.

Что нужно:

  • Иметь диплом бакалавра или магистра.

  • Подать заявку и решить задачу по машинному обучению (кредитного скоринга или прогнозирования баланса клиентов).

  • Пройти вступительные испытания в МФТИ (подробнее о них на сайте МФТИ).

Подать заявку и решить задачу можно до 19 мая — подробности на сайте программы, а также в записи со Дня открытых дверей.

Теги:
Всего голосов 2: ↑2 и ↓0+2
Комментарии0

ИИ-проект Cursor раздаёт студентам бесплатную подписку Cursor Pro на 12 месяцев. Подписка даёт доступ к лучшим в мире LLM-моделям, при этом почти безлимитный. Заявки с России тоже принимаются.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии4

Работа

Data Scientist
45 вакансий