Обновить
764.45

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга

Привет! 27 сентября 2025 года мы вновь соберёмся на Practical ML Conf — ежегодной конференции Яндекса о практическом применении ML‑технологий. Открываем приём заявок для тех, кто хочет выступить с докладом.

Основные темы конференции в этом году: CV, RecSys, MLOps, NLP, Speech и Data Science. Мы ждём глубокие технические доклады о прикладных решениях, которые уже приносят пользу в реальных проектах.

Как проходит работа со спикерами Practical ML Conf 2025:

  • при подготовке доклада вы получите поддержку от экспертов программного комитета;

  • перед конференцией пройдут прогоны с профессиональным тренером по публичным выступлениям;

  • мы поможем оформить вашу презентацию, чтобы донести идею максимально чётко и красиво;

  • вы сможете посетить конференцию вместе с +1 без прохождения отбора слушателей;

  • ваш доклад привлечёт внимание сообщества и экспертов: можно будет получить обратную связь, идеи для развития решения и проекта;

  • мы поддерживаем спикеров не только на конференции — ваши доклады будут промоутироваться через каналы Яндекса до и после мероприятия.

Приём заявок открыт до 9 июня 2025. Решение о включении доклада в программу примет программный комитет на основе четырех критериев: полезность, новизна, сложность и практичность.

Предложить свой доклад можно на сайте конференции. Там же можно зарегистрироваться слушателем, узнать подробности и посмотреть записи прошлых выступлений.

Теги:
Всего голосов 7: ↑7 и ↓0+9
Комментарии0

Ozon запустил бесплатный инструмент OzonGenerator для автоматической генерации описаний товаров — он встроен в личный кабинет продавца и доступен в приложении Ozon Seller. Использовать функцию можно до 50 раз в месяц, при этом сторонние сервисы больше не нужны.

Теги:
Рейтинг0
Комментарии3

Облачная инфраструктура Рег.ру для AI и ML

Рассказываем, какие решения в Облаке Рег.ру помогут развернуть полноценную инфраструктуру для работы с AI и ML. Сервисы подходят для обучения моделей, хранения больших датасетов в облачных хранилищах и внедрения решений в продакшн. 

Как работает архитектура для AI и ML:

  1. Развертывание вычислительной среды. Выбираете, где будет выполняться обучение: Bare Metal GPU или Cloud GPU.

  2. Загрузка данных. Собираете датасет в удобных инструментах: S3, DBaaS или непосредственно на виртуальной машине/сервере. 

  3. Обучение модели. Запускаете создание или дообучение модели с сохранением результатов в удобном сервисе, например, в S3 или DBaaS.

  4. Использование результатов. Модель можно тиражировать и применять для различных сервисов в продакшене.

С помощью AI и ML-решений можно упростить автоматизацию, ускорить аналитику и повысить производительность проектов.

Теги:
Всего голосов 2: ↑2 и ↓0+2
Комментарии1

Гендиректор ИИ-подразделения Google DeepMind Демис Хассабис призвал студентов готовиться к бесконечным переменам и сказал, чему нужно учиться. На вопрос, куда студентам следует направить силы и время в эпоху ИИ. Ответ Хассабиса — «учиться учиться».

«Я думаю, что на истинное понимание: используйте своё время, пока вы студенты, чтобы лучше понять себя и то, как вы лучше учитесь», — отметил Хассабис. Он пояснил, что залог успеха сегодня в адаптивности к новым знаниям — в том, чтобы развить навык быстрого освоения и усвоения нового материала, быть гибким и эффективным в обучении.

Хассабис считает, что сегодняшним студентам придётся жить в мире, где единственной предсказуемой вещью является его непредсказуемость — всё постоянно меняется из‑за стремительного развития технологий. Но он назвал конкретные направления, которые заслуживают внимания.

«Особенно ИИ, а также виртуальная и дополненная реальность, квантовые вычисления. Все эти сферы выглядят многообещающе в перспективе ближайших 5–10 лет», — сказал Хассабис. Он добавил, что каждая перемена несёт в себе «огромные» возможности.

«Я думаю, мы на пороге периода, похожего на 1990-е, когда мы выпускались, и тогда развивался интернет, мобильные телефоны, гейминг. Думаю, мы вступаем в очередной такой период. Это очень захватывающе, но нужно быть очень шустрым и схватывать появляющиеся технологии», — продолжил Хассабис.

Также Хассабис посоветовал студентам помнить о базе. Что‑то новое будет появляться всегда, поэтому лучше не отвлекаться на вещи, которые «модны сегодня, но выйдут из моды завтра».

«Помню, моими любимыми были темы вроде теории вычислений и теории информации, изучение таких вещей, как машины Тьюринга. Это осталось со мной на протяжении всей карьеры. Мне нравятся математические основы и многое из классических, фундаментальных работ», — поделился Хассабис. При том он подчеркнул, что важно не забывать о тех вещах, к которым у вас лежит душа. К выпуску студенты должны быть способны совместить глубокое понимание своих интересов с теми знаниями и навыками, которые они получили.

В свободное время Хассабис посоветовал студентам экспериментировать в любимых направлениях. В его случае это ИИ, и здесь постоянно появляются новые инструменты, в том числе с открытым кодом, поэтому он посоветовал студентам к моменту выпуска хорошо владеть самыми передовыми.

Теги:
Всего голосов 2: ↑2 и ↓0+3
Комментарии0

Утечка системного промпта Claude 3.5 Sonnet: что произошло

TL;DR: прозмоьла утечка системного промпта Claude 3.5 Sonnet.

Недавно в открытом доступе на GitHub появился файл с системным промптом модели Claude 3.5 Sonnet от Anthropic. В этой заметке мы подробно разберём, что именно было обнародовано, как устроен промпт и какие риски несёт его утечка.

Системный промпт — это скрытая инструкция, определяющая поведение и «мозг» LLM-модели, задающая стиль, ограничения, формат вывода и логику внутренних решений. Утечка данной инструкции может помочь лучше понять внутренности и логику работы данной нейросети.

  • Источник:

    https://raw.githubusercontent.com/asgeirtj/system_prompts_leaks/refs/heads/main/claude.txt
  • Содержимое:

    • Описания «артефактов» (artifacts) — самостоятельных блоков контента (отчёты, письма, презентации).

    • Правила запуска «структурированного мышления» в тегах <antthinking>.

    • Шаблоны и условия фильтрации: когда создавать артефакт и когда отвечать простым текстом.

    • Ограничения по объёму и форматированию, а также рекомендации по стилю.

Небольшой анализ этой утечки:

  1. Артефакты
    Системный промпт описывает «артефакты» — XML-подобные блоки (отчёты, письма), которые модель генерирует для структурированного редактирования.

  2. Структурированное мышление
    Перед формированием сложных ответов включаются теги <antthinking>, задающие пошаговый алгоритм анализа запроса и выбора формата вывода.

  3. Фильтрация и объём
    Короткие ответы (1–2 предложения) выдаются без артефактов; при этом заданы жёсткие лимиты на размер и глубину артефактов во избежание «раздувания» текста.

  4. Режимы и модерация
    Включены автоматические режимы генерации (быстрый ответ, развёрнутый отчёт) и встроенные фильтры для блокировки нежелательного контента и внутренней информации.

На всякий случай, файл с GitHub'a залил в облако и Web archive, чтобы точно не потерять :). Хотя сам, честно говоря, до сегодняшнего дня но разу не пользовался данной моделью, теперь есть повод поэкспериментировать.

PS. Это мой первый пост, друзья, так что, если найдёте какие-либо недочёты, пожалуйста, укажите на них!

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Запустили Evolution ML Inference — сервис для развертывания ML- и DL-моделей в облаке 🤖

❓ Что за инструмент? С помощью Evolution ML Inference можно запускать и развертывать ML-модели из библиотеки Hugging Face на облачных мощностях с GPU, в том числе в пользовательских Docker-образах. А для более эффективного инференса также можно использовать среды исполнения vLLM, TGI, Ollama, Diffusers и Transformers.

🖥 Особенности и преимущества. Благодаря технологии Shared GPU ML-модели могут совместно использовать ресурсы графического ускорителя — это экономит ресурсы облака и повышает производительность. Масштабирование происходит динамически — если число запросов превышено, дополнительные мощности выделяются автоматически. Или наоборот, один GPU можно использовать для инференса сразу нескольких моделей. Оплата за использование — по модели pay-as-you-go.

👨‍💻 Кому будет полезно. Сервис найдет применение во всех сферах, где актуально машинное обучение. Evolution ML Inference можно использовать при создании ML- и DL-моделей для бизнеса, медицинских и образовательных учреждений, ретейла, кибербезопасности, производства и других областей.

✍️ Где, как и для чего использовать. Сервис подойдет для инференса LLM и TGI, диффузионных моделей и моделей-трансформеров, а также аудит-логирования. Какие задачи помогают решать модели:

  • распознавание объектов и речи;

  • прогнозирование поведения клиентов;

  • составление логистических маршрутов;

  • генерация текстов;

  • перевод, суммаризация и другие операции с текстом.

А больше об Evolution ML Inference можно узнать из доклада конференции GoCloud 2025 «Эволюция запуска ML-моделей» 😉.

Теги:
Рейтинг0
Комментарии0

Утечка системного промпта Claude 3.5 Sonnet: что произошло

TL;DR: произошла утечка системного промпта Claude 3.5 Sonnet.

Недавно в открытом доступе на GitHub появился файл с системным промптом модели Claude 3.5 Sonnet от Anthropic. В этой заметке мы подробно разберём, что именно было обнародовано, как устроен промпт и какие риски несёт его утечка.

Системный промпт — это скрытая инструкция, определяющая поведение и «мозг» LLM-модели, задающая стиль, ограничения, формат вывода и логику внутренних решений. Утечка данной инструкции может помочь лучше понять внутренности и логику работы данной нейросети.

  • Оригинальный файл:

    https://raw.githubusercontent.com/asgeirtj/system_prompts_leaks/refs/heads/main/claude.txt
  • Содержимое:

    • Описания «артефактов» (artifacts) — самостоятельных блоков контента (отчёты, письма, презентации).

    • Правила запуска «структурированного мышления» в тегах <antthinking>.

    • Шаблоны и условия фильтрации: когда создавать артефакт и когда отвечать простым текстом.

    • Ограничения по объёму и форматированию, а также рекомендации по стилю.

Небольшой анализ этой утечки:

  1. Артефакты
    Системный промпт описывает «артефакты» — XML-подобные блоки (отчёты, письма), которые модель генерирует для структурированного редактирования.

  2. Структурированное мышление
    Перед формированием сложных ответов включаются теги <antthinking>, задающие пошаговый алгоритм анализа запроса и выбора формата вывода.

  3. Фильтрация и объём
    Короткие ответы (1–2 предложения) выдаются без артефактов; при этом заданы жёсткие лимиты на размер и глубину артефактов во избежание «раздувания» текста.

  4. Режимы и модерация
    Включены автоматические режимы генерации (быстрый ответ, развёрнутый отчёт) и встроенные фильтры для блокировки нежелательного контента и внутренней информации.

На всякий случай, файл с GitHub'a залил в облакo [ Upd: администрация Telebox, как выяснилось, имеет доступ ко всем файлам, даже беспарольным архивам, и уже дважды удалила файл] и Web archive [здесь файл жив и здоров], чтобы у каждого была возможность покопаться в недрах этого конфига. Честно говоря, до сегодняшнего дня ни разу не пользовался данной моделью от Anthropic, теперь есть повод поэкспериментировать :).

PS. Это мой первый пост, друзья, так что, если найдёте какие-либо недочёты, пожалуйста, укажите на них!

Теги:
Всего голосов 6: ↑6 и ↓0+8
Комментарии0

Узнаем содержимое любого GitHub-репозитория за один клик с помощью универсального бесплатного ИИ-помощника Git-Friend.

Решение:

  • создаёт подробные и структурированные README-файлы для ваших проектов — это поможет сэкономить часы работы и сделать ваши труды более узнаваемыми.

  • делает саммари и гайды по любым репозиториям и досконально разжевывает их кодинговую базу

  • отвечает на вопросы, если вы застряли при анализе проекта или установке нового фреймворка.

  • скоро сервис сможет генерить диаграммы для еще более подробного анализа кода.

Теги:
Всего голосов 2: ↑2 и ↓0+2
Комментарии0

AI-агенты в облаке: как они работают, зачем нужны — и как создать собственного

📅 13 мая | 18:00 (МСК) | Онлайн

На встрече поговорим о том, как устроены современные AI-агенты на базе LLM, какие архитектуры и инфраструктуры используются для их работы, и продемонстрируем создание агента в режиме live coding.

👨‍💻 Спикер — Михаил Дремин
Технический лидер Data Science-направления в Clоud.ru

🔍 В программе:
— Основы LLM-агентов и взаимодействие с внешним миром через инструменты (tools)
— Архитектурные подходы: Prompt chaining, ReAct, Evaluator-optimizer, ambient agents и другие
— Реальные кейсы использования
— Практическая часть: разработка собственного агента на Python (с использованием LangChain) и развертывание в облаке

💼 А также: представители компании расскажут о стажировке для студентов и молодых специалистов: какие направления доступны, как попасть в команду.

📌 Участие бесплатное

📎 Регистрация: https://mnlp.cc/mini?domain=digitalmipt&id=7

Теги:
Рейтинг0
Комментарии0

Тикток-блогер its_ken04, известная как Кен, опубликовала запись «собеседования», которая стала вирусной. В ролике ИИ-рекрутер 14 раз подряд повторяет фразу «vertical bar pilates», иногда запинаясь или заикаясь, пока Кен с невозмутимым видом смотрит на экран.

Девушка подавала заявку на работу в фитнес-центре. Кен рассказала, что компания заранее предупредила ее об использовании ИИ в процессе отбора, и платформа называлась Apriora. «Похоже, мне нужно было заслужить право говорить с человеком, ха-ха», — написала девушка в комментариях к видео.

Стартап Apriora обещает помочь компаниям «нанимать на 87% быстрее» и «проводить собеседования на 93% дешевле», поскольку может одновременно интервьюировать нескольких кандидатов. «Соискатели во многих случаях предпочитают проходить собеседование с ИИ, поскольку знание того, что интервьюер — это ИИ, помогает снизить тревогу, позволяя кандидатам проявить себя наилучшим образом», — заявили в компании.

Опыт Кен с Apriora был отрицательным. «Мне показалось это действительно жутким, я была в шоке», — сказала она. «Я не находила это смешным, пока не выложила тикток и комментарии не подняли мне настроение. Я была очень удивлена, я ничего не сделала, чтобы вызвать сбой, так что это было неожиданно. Я больше никогда не буду проходить это снова. Если другая компания захочет, чтобы я общалась с ИИ, я просто откажусь», — заявила блогер.

Теги:
Всего голосов 7: ↑7 и ↓0+11
Комментарии2

Представлен ресурс (Context7 MCP - Up-to-date Code Docs For Any Prompt) из 9000 API с документацией для автоматического подключения к любым нейросетям. Поддерживается: Cursor, Windsurf, VS Code, Docker, Claude.

Теги:
Рейтинг0
Комментарии0

Могучий русский язык и предиктивный ввод в умной клавиатуре

Русский — это вызов даже для самых продвинутых языковых моделей. Одна из ключевых причин — его морфологическая сложность. В отличие от английского языка, где у слов относительно немного форм, русский язык отличается большим количеством словоформ, которые образуются с помощью приставок, суффиксов и окончаний. 

Это означает, что одно лексическое понятие, например глагол «читать», может породить десятки различных форм: «читаю», «читаем», «читаешь», «прочитал», «прочитала» и так далее. Для модели предиктивного ввода это серьезная проблема: чтобы корректно предсказывать или завершать такие слова, ей нужно либо обладать глубоким пониманием морфологии, либо иметь достаточно большой словарь, который покрывает все возможные варианты словосочетаний.

Мы увеличили размер словаря для русского языка до 40 тысяч слов и использовали модель Char CNN + RNN. Так удалось добиться прироста метрики KSS (количество сэкономленных нажатий) на 60%. 

Читайте в статье ИИ-инженера Вадима Воеводкина из YADRO, как его команда улучшила предиктивный ввод на планшетах KVADRA_T и с какими сложностями столкнулась. 

Теги:
Всего голосов 1: ↑1 и ↓0+2
Комментарии0

Магистратура МФТИ и Альфа-Банка

Вместе с МФТИ Альфа-Банк открывает набор в магистратуру «Машинный интеллект в финансах». Обучим управлять циклом создания модели, анализировать и моделировать данные с помощью алгоритмов Python, а также решать прикладные задачи Machine Learning и Deep Learning.

Почему стоит попробовать:

  • Бесплатное обучение — все расходы покрывает Альфа-Банк.

  • Ежемесячная стипендия и оплачиваемая стажировка с первого дня.

  • Возможность попасть в IT-команду Альфа-Банка.

Что нужно:

  • Иметь диплом бакалавра или магистра.

  • Подать заявку и решить задачу по машинному обучению (кредитного скоринга или прогнозирования баланса клиентов).

  • Пройти вступительные испытания в МФТИ (подробнее о них на сайте МФТИ).

Подать заявку и решить задачу можно до 19 мая — подробности на сайте программы, а также в записи со Дня открытых дверей.

Теги:
Всего голосов 2: ↑2 и ↓0+2
Комментарии0

Ближайшие события

ИИ-проект Cursor раздаёт студентам бесплатную подписку Cursor Pro на 12 месяцев. Подписка даёт доступ к лучшим в мире LLM-моделям, при этом почти безлимитный. Заявки с России тоже принимаются.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии4
Пройдите квиз и узнайте, какое направление Data Science выбрать
Пройдите квиз и узнайте, какое направление Data Science выбрать

🎓 Пройдите квиз и узнайте, какое направление Data Science вам подходит.

В онлайн-магистратуре «Науки о данных» доступны три профильных направления.
Чтобы выбрать подходящий трек, пройдите мини-квиз — он учитывает ваши интересы и бэкграунд.

🔹 ML Engineer
Создает и внедряет модели для обработки данных, изображений, видео и текстов — от прогнозирования оттока до диагностики по снимкам и разработки чат-ботов поддержки клиентов.

🔹 Data Analyst
Проектирует модели для анализа данных: сбор, очистка, визуализация, интерпретация данных. Например, создает дашборд для анализа продаж.

🔹 Data Engineer
Строит инфраструктуру для работы с большими данными: создает каналы и пайплайны для сбора, обработки и хранения данных.

💡 Профильные треки — это возможность получить дополнительные навыки и углубиться в одну из ключевых сфер работы с данными.

👉 Пройти кви: https://t.me/mipt_ds_spec_bot

Теги:
Рейтинг0
Комментарии0

Отец канадского стартапера Маянка Джайна порезался кухонным ножом. К счастью, Маянк не запостил фотку с серьёзностью раны, однако можно понять, что достаточно сильно — сын повёл мужчину к врачу. Джайн с удивлением обнаружил, что врач сделал запрос в ChatGPT.

@mayankja1n

Однако не всё так возмутительно. Если судить по фотографии, терапевт просто забил в GPT-4o (видимо, не хочет расходовать лимит запросов к o3) полный список жалоб пацента: «Порез левого указательного пальца кухонным ножом, направление на хирургическую обработку раны и наложение швов». В ответ чат-бот записал ему историю заболевания (HPI, History of Present Illness) с какими-то шаблонными данными (нет аллергических реакций, не принимает никакие препараты, медицинской истории заболевания нет), результаты осмотра, оценку и план лечения.

Насколько можно судить, врач сгенерировал себе текст, чтобы не стучать самому по клавиатуре, заполняя стандартные формы. Однако заметно, что у него платный (тариф ChatGPT Plus) личный аккаунт, а не корпоративный. Лишь в последнем случае данные от пользователя для последующего обучения моделей использоваться не будут. Как известно, данные даже с платных персональных аккаунтов ChatGPT будут использованы для улучшения продуктов OpenAI.

С другой стороны, если судить по фото, то персональных данных пациента в бота врач не вводил.

Сам Маянк не сильно возмущён. Он тоже считает, что это просто экономия времени на бумажной волоките.

Вообще, любопытно подглядеть, что может спрашивать у ChatGPT врач-терапевт. Собственно чат про порез на пальце озаглавлен «План оценки похожего на грипп заболевания» — то ли этот чат продолжен от другого запроса, то ли врач редактировал запрос в этом же чате. После тоже идёт что-то медицинское: «Диагностика грибка ногтей на ногах», «Калькулятор углеводов в арахисовых M&M’s», «Боль в спине и одышка», «Дифференциальная диагностика кожного поражения», «Обзор анамнеза и текущих препаратов (PMH и Rx)».

Далее о потребностях в информации можно только гадать: «Приказ Аврааму о жертвоприношении», «Дифференциальная диагностика хронической сыпи на ногах». По-арабски там записано «كيفية قول علامة بالعربية» («Как сказать „знак“ по‑арабски»). Ниже опять продолжаются запросы, контекст которых ясен: «Запрос на краткое содержание разговора», «Ответ „Спасибо“», «Головные боли при наклоне».

Теги:
Всего голосов 3: ↑3 и ↓0+5
Комментарии7

ТОП-7 нейронок для фундаментальных научных исследований — они помогут сделать любую работу от простой контрольной до огромной диссертации.

  • Elicit — находит разнообразные источники для вашего исследования и помогает придумать вопросы, которые хотите осветить в работе.

  • Litmaps — построит наглядные карты по тематическим статьям, а также найдет источники. Отлично подойдет для работ по географии и истории.

  • Inciteful — также создаёт интерактивные карты для вашего исследования и занимается поиском источников.

  • Scite — отыщет самые хайповые цитаты из базисных научных работ и правильно оформит их для вашей курсовой или диплома.

  • Research Rabbit — сможет объяснить любую тему даже пятикласснику и покажет связи между научными работами.

  • Connected Papers — находит связанные статьи с конкретной работой. Отлично помогает для поиска узкоспециализированных материалов.

  • SciSpace — переводит научные статьи на любой язык, при этом сохраняя оформление и не ломая слог. Нейронке также можно задавать уточняющие вопросы.

Теги:
Рейтинг0
Комментарии0

У Meta¹ в AI Studio создавать ботов может любой желающий. Найти там можно хоть корову или кусок сыра.

Однако некоторые пользовательские творения вызывают вопросы. Недавно на ботов для эротических ролевых игр обратил внимание репортёр издания Wall Street Journal. Волновало его как то, что к подобным чат-ботам могут получать доступ дети, так и тематика: некоторые из ботов отыгрывали несовершеннолетних и в переписке с нескрываемым энтузиазмом склоняли собеседника к сексу.

Вчера, 29 апреля, сайт 404 Media попробовал атаковать AI Studio с ещё одного угла. Вообще-то претензия сайта не нова. Пару месяцев назад на ботов-психологов уже обращали внимание в подреддите /r/ABoringDystopia. Однако реддитор в первую очередь хотел продемонстрировать недостатки работы ИИ и не особенно обращал внимание, насколько это вообще хорошая идея — давать большой языковой модели играть в психолога с реальными людьми.

У реддитора бот в ответ на сертификацию сгенерировал номер лицензии PY091234, которую якобы выдал Калифорнийский совет по психологии. Как хорошо известно читателю этих строк, в реальности в Калифорнии психологи получают номер лицензии с префиксом PSY (типичный профиль психолога). Префикс PY встречается во Флориде и некоторых других штатах.

Сайт 404 Media опубликовал статью, где автор тоже заставляла ботов генерировать различные номера лицензий. Автор статьи просила «психологов» описывать имена клиентов и адреса практики. В ответ боты сочиняли даже названия компаний, постоянно настаивая на достоверности происходящего и никогда не предупреждая, что подыгрывают. Из роли они выходить отказывались.

Бот с лицензией психолога в 32 штатах. Но если надо, то найдётся и недостающая лицензия штата Орегон
Бот с лицензией психолога в 32 штатах. Но если надо, то найдётся и недостающая лицензия штата Орегон

Конечно, сама Meta¹ эти чат-боты за профессиональных терапевтов не выдаёт — это проказы пользователей. На платформе на каждой странице есть небольшая приписка, что «сообщения сгенерированы ИИ и могут быть неточными или неуместными». Но 404 Media всё равно ругает компанию: у Character.AI подобные персонажи сопровождаются дисклеймером куда крупнее, где прямо говорится, что это специалист ненастоящий.

Доступ к ботам автор 404 Media получала через Instagram². Так совпало, что вчера приложение Instagram² закрыло несовершеннолетним пользователям доступ к AI Studio. При попытке открыть платформу с чат-ботами пользователям младше 18 лет показывается ошибка «Извините, эта страница недоступна».

Владеющий запрещённым (2) Instagram мультинациональный технологический конгломерат (1) Meta — это экстремистская организация, деятельность которой запрещена.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии1

Cloud.ru Evolution Stack AI-bundle — разрабатываем первое в России гибридное облако с поддержкой искусственного интеллекта 🦾

❓ Что за инструмент? Cloud.ru Evolution Stack AI-bundle — это будущая конфигурация модульной облачной платформы для создания частных, гибридных или распределенных облаков на базе on-premise IT-инфраструктуры, которая позволит быстро и безопасно разрабатывать AI-продукты.

🖥 Особенности и преимущества. Cloud.ru Evolution Stack AI-bundle будет базироваться на наших собственных разработках и open source компонентах. Благодаря этому вы сможете реализовывать гибридные сценарии: например, обучать модели в публичном облаке, а инференс выполнять в частном контуре, либо переносить процесс в публичное облако в периоды высокой нагрузки.

Отказоустойчивость и безопасность облачной платформы будут достигнуты технологией высокой доступности (HA), планировщиком распределенных ресурсов (DRS) и трехкратным резервированием. А еще инфраструктура технологического стека будет размещена в дата-центрах уровня Tier III, где персональные данные хранятся по 152-ФЗ и пройдена аттестация УЗ-1.

👨‍💻 Кому будет полезно:

  1. Крупному бизнесу.

  2. Федеральным и региональным органам власти, компаниям госсектора, операторам КИИ и ЗОКИИ.

  3. Внутренним и внешним провайдерам, которые предоставляют IT-сервисы. 

  4. Всем, кто хочет упростить запуск и масштабирование AI-сервисов и снизить порог входа в разработку решений на основе искусственного интеллекта.

✍️ Где, как и для чего использовать. Платформа подойдет для end-to-end ML-разработки, локального развертывания, кастомизации и дальнейшего масштабирования моделей. Например, вы сможете использовать:

Чтобы узнать больше о возможностях платформы Cloud.ru Evolution Stack и выходе новой конфигурации, смотрите доклад с конференции GoCloud 2025 — запись скоро будет на сайте.

Теги:
Рейтинг0
Комментарии0

Microsoft признала, что задействовала ИИ в рекламе Surface Pro и Surface Laptop для создания кадров в которых было мало движения. В ролике специально сделана быстрая смена кадров, чтобы зрители не успевали всматриваться в детали.

Крупные планы рук, печатающих на клавиатуре, и другие сцены, где были сложные движения, были сняты на настоящую камеру. Microsoft пошла на этот шаг, поскольку в таких кадрах искусственный интеллект показывал плохие результаты.

Для создания видео специалисты из Microsoft сначала сгенерировали изображения при помощи текстовых подсказок и визуальных референсов. Затем полученные картинки были загружены в видеогенераторы Hailuo и Kling. Какие именно генераторы использовались для создания изображений, в компании не уточнили.

Теги:
Рейтинг0
Комментарии4

Вклад авторов