ИИ-проект Cursor раздаёт студентам бесплатную подписку Cursor Pro на 12 месяцев. Подписка даёт доступ к лучшим в мире LLM-моделям, при этом почти безлимитный. Заявки с России тоже принимаются.

Основа искусственного интеллекта
🎓 Пройдите квиз и узнайте, какое направление Data Science вам подходит.
В онлайн-магистратуре «Науки о данных» доступны три профильных направления.
Чтобы выбрать подходящий трек, пройдите мини-квиз — он учитывает ваши интересы и бэкграунд.
🔹 ML Engineer
Создает и внедряет модели для обработки данных, изображений, видео и текстов — от прогнозирования оттока до диагностики по снимкам и разработки чат-ботов поддержки клиентов.
🔹 Data Analyst
Проектирует модели для анализа данных: сбор, очистка, визуализация, интерпретация данных. Например, создает дашборд для анализа продаж.
🔹 Data Engineer
Строит инфраструктуру для работы с большими данными: создает каналы и пайплайны для сбора, обработки и хранения данных.
💡 Профильные треки — это возможность получить дополнительные навыки и углубиться в одну из ключевых сфер работы с данными.
👉 Пройти кви: https://t.me/mipt_ds_spec_bot
Отец канадского стартапера Маянка Джайна порезался кухонным ножом. К счастью, Маянк не запостил фотку с серьёзностью раны, однако можно понять, что достаточно сильно — сын повёл мужчину к врачу. Джайн с удивлением обнаружил, что врач сделал запрос в ChatGPT.
Однако не всё так возмутительно. Если судить по фотографии, терапевт просто забил в GPT-4o (видимо, не хочет расходовать лимит запросов к o3) полный список жалоб пацента: «Порез левого указательного пальца кухонным ножом, направление на хирургическую обработку раны и наложение швов». В ответ чат-бот записал ему историю заболевания (HPI, History of Present Illness) с какими-то шаблонными данными (нет аллергических реакций, не принимает никакие препараты, медицинской истории заболевания нет), результаты осмотра, оценку и план лечения.
Насколько можно судить, врач сгенерировал себе текст, чтобы не стучать самому по клавиатуре, заполняя стандартные формы. Однако заметно, что у него платный (тариф ChatGPT Plus) личный аккаунт, а не корпоративный. Лишь в последнем случае данные от пользователя для последующего обучения моделей использоваться не будут. Как известно, данные даже с платных персональных аккаунтов ChatGPT будут использованы для улучшения продуктов OpenAI.
С другой стороны, если судить по фото, то персональных данных пациента в бота врач не вводил.
Сам Маянк не сильно возмущён. Он тоже считает, что это просто экономия времени на бумажной волоките.
Вообще, любопытно подглядеть, что может спрашивать у ChatGPT врач-терапевт. Собственно чат про порез на пальце озаглавлен «План оценки похожего на грипп заболевания» — то ли этот чат продолжен от другого запроса, то ли врач редактировал запрос в этом же чате. После тоже идёт что-то медицинское: «Диагностика грибка ногтей на ногах», «Калькулятор углеводов в арахисовых M&M’s», «Боль в спине и одышка», «Дифференциальная диагностика кожного поражения», «Обзор анамнеза и текущих препаратов (PMH и Rx)».
Далее о потребностях в информации можно только гадать: «Приказ Аврааму о жертвоприношении», «Дифференциальная диагностика хронической сыпи на ногах». По-арабски там записано «كيفية قول علامة بالعربية» («Как сказать „знак“ по‑арабски»). Ниже опять продолжаются запросы, контекст которых ясен: «Запрос на краткое содержание разговора», «Ответ „Спасибо“», «Головные боли при наклоне».
ТОП-7 нейронок для фундаментальных научных исследований — они помогут сделать любую работу от простой контрольной до огромной диссертации.
Elicit — находит разнообразные источники для вашего исследования и помогает придумать вопросы, которые хотите осветить в работе.
Litmaps — построит наглядные карты по тематическим статьям, а также найдет источники. Отлично подойдет для работ по географии и истории.
Inciteful — также создаёт интерактивные карты для вашего исследования и занимается поиском источников.
Scite — отыщет самые хайповые цитаты из базисных научных работ и правильно оформит их для вашей курсовой или диплома.
Research Rabbit — сможет объяснить любую тему даже пятикласснику и покажет связи между научными работами.
Connected Papers — находит связанные статьи с конкретной работой. Отлично помогает для поиска узкоспециализированных материалов.
SciSpace — переводит научные статьи на любой язык, при этом сохраняя оформление и не ломая слог. Нейронке также можно задавать уточняющие вопросы.
У Meta¹ в AI Studio создавать ботов может любой желающий. Найти там можно хоть корову или кусок сыра.
Однако некоторые пользовательские творения вызывают вопросы. Недавно на ботов для эротических ролевых игр обратил внимание репортёр издания Wall Street Journal. Волновало его как то, что к подобным чат-ботам могут получать доступ дети, так и тематика: некоторые из ботов отыгрывали несовершеннолетних и в переписке с нескрываемым энтузиазмом склоняли собеседника к сексу.
Вчера, 29 апреля, сайт 404 Media попробовал атаковать AI Studio с ещё одного угла. Вообще-то претензия сайта не нова. Пару месяцев назад на ботов-психологов уже обращали внимание в подреддите /r/ABoringDystopia. Однако реддитор в первую очередь хотел продемонстрировать недостатки работы ИИ и не особенно обращал внимание, насколько это вообще хорошая идея — давать большой языковой модели играть в психолога с реальными людьми.
У реддитора бот в ответ на сертификацию сгенерировал номер лицензии PY091234, которую якобы выдал Калифорнийский совет по психологии. Как хорошо известно читателю этих строк, в реальности в Калифорнии психологи получают номер лицензии с префиксом PSY (типичный профиль психолога). Префикс PY встречается во Флориде и некоторых других штатах.
Сайт 404 Media опубликовал статью, где автор тоже заставляла ботов генерировать различные номера лицензий. Автор статьи просила «психологов» описывать имена клиентов и адреса практики. В ответ боты сочиняли даже названия компаний, постоянно настаивая на достоверности происходящего и никогда не предупреждая, что подыгрывают. Из роли они выходить отказывались.
Конечно, сама Meta¹ эти чат-боты за профессиональных терапевтов не выдаёт — это проказы пользователей. На платформе на каждой странице есть небольшая приписка, что «сообщения сгенерированы ИИ и могут быть неточными или неуместными». Но 404 Media всё равно ругает компанию: у Character.AI подобные персонажи сопровождаются дисклеймером куда крупнее, где прямо говорится, что это специалист ненастоящий.
Доступ к ботам автор 404 Media получала через Instagram². Так совпало, что вчера приложение Instagram² закрыло несовершеннолетним пользователям доступ к AI Studio. При попытке открыть платформу с чат-ботами пользователям младше 18 лет показывается ошибка «Извините, эта страница недоступна».
Владеющий запрещённым (2) Instagram мультинациональный технологический конгломерат (1) Meta — это экстремистская организация, деятельность которой запрещена.
Cloud.ru Evolution Stack AI-bundle — разрабатываем первое в России гибридное облако с поддержкой искусственного интеллекта 🦾
❓ Что за инструмент? Cloud.ru Evolution Stack AI-bundle — это будущая конфигурация модульной облачной платформы для создания частных, гибридных или распределенных облаков на базе on-premise IT-инфраструктуры, которая позволит быстро и безопасно разрабатывать AI-продукты.
🖥 Особенности и преимущества. Cloud.ru Evolution Stack AI-bundle будет базироваться на наших собственных разработках и open source компонентах. Благодаря этому вы сможете реализовывать гибридные сценарии: например, обучать модели в публичном облаке, а инференс выполнять в частном контуре, либо переносить процесс в публичное облако в периоды высокой нагрузки.
Отказоустойчивость и безопасность облачной платформы будут достигнуты технологией высокой доступности (HA), планировщиком распределенных ресурсов (DRS) и трехкратным резервированием. А еще инфраструктура технологического стека будет размещена в дата-центрах уровня Tier III, где персональные данные хранятся по 152-ФЗ и пройдена аттестация УЗ-1.
👨💻 Кому будет полезно:
Крупному бизнесу.
Федеральным и региональным органам власти, компаниям госсектора, операторам КИИ и ЗОКИИ.
Внутренним и внешним провайдерам, которые предоставляют IT-сервисы.
Всем, кто хочет упростить запуск и масштабирование AI-сервисов и снизить порог входа в разработку решений на основе искусственного интеллекта.
✍️ Где, как и для чего использовать. Платформа подойдет для end-to-end ML-разработки, локального развертывания, кастомизации и дальнейшего масштабирования моделей. Например, вы сможете использовать:
рабочие окружения для Data Scientists Jupyter Lab;
инструменты управления жизненным циклом ML-моделей — для их обучения, дообучения и инференса;
инфраструктурные компоненты: Evolution Managed Kubernetes с поддержкой GPU, реестром артефактов, виртуальными машинами на базе графических процессоров, высокопроизводительным S3-хранилищем и специализированной файловой системой для интеграции с ML-сервисами.
Чтобы узнать больше о возможностях платформы Cloud.ru Evolution Stack и выходе новой конфигурации, смотрите доклад с конференции GoCloud 2025 — запись скоро будет на сайте.
Microsoft признала, что задействовала ИИ в рекламе Surface Pro и Surface Laptop для создания кадров в которых было мало движения. В ролике специально сделана быстрая смена кадров, чтобы зрители не успевали всматриваться в детали.
Крупные планы рук, печатающих на клавиатуре, и другие сцены, где были сложные движения, были сняты на настоящую камеру. Microsoft пошла на этот шаг, поскольку в таких кадрах искусственный интеллект показывал плохие результаты.
Для создания видео специалисты из Microsoft сначала сгенерировали изображения при помощи текстовых подсказок и визуальных референсов. Затем полученные картинки были загружены в видеогенераторы Hailuo и Kling. Какие именно генераторы использовались для создания изображений, в компании не уточнили.
Открываем доступ к большим языковым и визуально‑генеративным моделям в пакетном режиме
Сегодня Yandex B2B Tech открывает доступ внутри Yandex Cloud AI Studio к LLM и визуально‑генеративным моделям (VLM), таким как DeepSeek VL2 Tiny, Qwen2.5 VL и Gemma3 27B. Режим Batch Processing, или режим пакетного инференса позволяет эффективно обрабатывать тысячи запросов с помощью таких генеративных моделей.
Всего в пакетном режиме доступно около 20 опенсорсных нейросетей, в том числе модели, которые умеют одновременно анализировать изображения и текст. Среди уже доступных моделей — Qwen2.5 и LLaMa 3.3*, рассуждающие нейросети QwQ и DeepSeek R1, полный список можно посмотреть на сайте.
По мере появления новых моделей в опенсорсе они будут оперативно добавляться на ML‑платформе. Так, вскоре будет доступна VLM‑модель Яндекса, которая используется в Алисе, Нейроэксперте, Поиске с Нейро и других сервисах.
Применение новых моделей в режиме Batch Processing позволяет фокусироваться на эффективной обработке большого объёма данных. Компании смогут использовать модели по расписанию, по мере накопления данных или для объёмных разовых задач. Такое использование обойдётся вдвое дешевле, чем в стандартном режиме. Тарификация при пакетном инференсе на больших объёмах данных начинается от 200 тыс. токенов.
Какие сценарии удобно решать в пакетном режиме
Анализ и суммаризация больших объёмов данных. Batch Processing помогает эффективно обрабатывать длинные последовательности текста и создавать качественный пересказ или анализ материалов. Это актуально, например, для исследовательских организаций и компаний, работающих с большими объёмами пользовательского контента.
Периодическая обработка данных клиентов. Многие компании регулярно анализируют текстовые данные от клиентов: отзывы, комментарии, запросы в службу поддержки и другие формы обратной связи. Пакетный инференс позволяет эффективно обрабатывать эти данные по расписанию, например, еженедельно или ежемесячно.
Масштабное индексирование и обогащение контента. Для компаний, работающих с большими библиотеками контента, пакетный инференс даёт возможность эффективного индексирования и обогащения материалов. Языковые модели могут автоматически генерировать метаданные, ключевые слова, теги и другие элементы, улучшающие поиск и организацию контента.
Обогащение датасетов для тюнинга моделей. Для команд, которые дообучают лёгкие версии языковых моделей с помощью дистилляции ответов больших версий моделей, Batch Processing помогает создавать синтетические датасеты для дообучения. На базе этих данных и с помощью инструмента LoRA Fine‑tuning разработчики могут создавать лёгкие модели высокого качества, при этом получая более реактивную скорость ответов и меньшую стоимость за обращение к модели.
*Llama создана компанией Meta. Meta признана экстремистской организацией, её деятельность в России запрещена.
Владелец Tesla попросил бортовой компьютер электромобиля отвезти его в место, где он ещё ни разу не бывал — и... система отвезла его в фитнес-клуб.
Подключайтесь к трансляции «MLечного пути» — митапа для тех, кто делает ML
В центре внимания — кейсы, технологии, рабочие сложности и способы с ними справиться. Подключайтесь к трансляции в 18:00 мск.
Что будет?
Доклады. Поговорим про инференс, вызовы для бизнеса и все, что с этим связано.
Startup Pitch. Послушаем коллег, которые презентуют собственные ML-проекты. На митапе вы сможете поделиться обратной связью и познакомиться с рекомендациями экспертов.
Интерактивы. Не дадим заскучать ни онлайн, ни офлайн. Участвуйте в челленджах и викторинах.
Нетворкинг. Создадим площадку для комфортного общения с гостями и экспертами митапа.
Программа
Как приручить LLM: подбор инфраструктуры для инференса без головной боли
Как оптимизировать инференс в GPU
Инференс в экстремальных условиях
Edge-AI в полевых условиях: развертывание видеоаналитики для комбайнов
Смотреть трансляцию:
👉 на YouTube
👉 во ВКонтакте
Начинаем через час!
Начинаем вебинар по повышению производительности инфраструктуры
Привет, Хабр! В 12:00 по МСК проведем вебинар, где разберем, как эффективно использовать GPU в облаке для ML-проектов. Продакт-менеджер облачной платформы Selectel Антон Баранов расскажет, как оптимизировать производительность инфраструктуры и сократить расходы без потери качества. Присоединяйтесь!
Смотреть трансляцию:
Программа вебинара
Шесть способов сократить расходы на IT-инфраструктуру с GPU
Подбираем GPU под конкретную задачу. Разбор кейсов клиентов
Облако с GPU: обзор возможностей облачной платформы и доступных GPU-карт
Как выбрать подходящие карты в облаке и в MKS
Сокращаем сетевые задержки с помощью локальных SSD NVMe-дисков в облаке с GPU
Ответы на ваши вопросы
Кому будет полезно
Техлидам и менеджерам ML-проектов: как выбрать оптимальную инфраструктуру.
Data-инженерам, MLOps-инженерам, DevOps-инженерам
Всем, кто работает с облачными ресурсами и хочет повысить ROI проектов.
#статья Тайные сообщества товаров: обзор графовых методов
Новая статья от команды матчинга и группировки уже ждёт вас на Хабре. Расскажем, как мы исследовали алгоритмы community detection для группировки товаров, с какими проблемами столкнулись и при чём тут матчинг.
Время прочтения: 15 минут.
За это время вы узнаете: на какие шаги раскладывается задача группировки товаров и какие методы можно использовать непосредственно на этапе группировки. Надеемся, статья будет полезной и тем, кто впервые сталкивается с community detection, и тем, кто ищет для себя новые подходы
🎙 Vozo AI — нейросеть, которая переводит и дублирует видео на любой язык, сохраняя оригинальный голос и синхронизацию губ.
Что по возможностям?
➖ Перевод и дубляж видео на более чем 60 языков.
➖ Клонирование голоса для сохранения оригинальной интонации.
➖ Синхронизация губ для естественного воспроизведения речи.
➖ Автоматические субтитры для удобства восприятия.
➖ Многоголосый перевод для видео с несколькими спикерами.
➖ Бесплатное использование возможно, но есть нюанс: до 3 минут перевода видео в месяц без оплаты.
➖ поддерживает видео ссылкой с юутба или файлом!
🔗 Становимся полиглотом на 3 минутки в месяц тут - тык
Представлен инструментарий Turns Codebase into Easy Tutorial with AI, который превращает любой репозитарий GitHub в учебник. Нейросеть анализирует весь код, разбирается в нём и создаёт гайд, в котором просто и понятно расписано как ресурс работает. С помощью решения можно легко учить новые технологии, изучать программирование по готовым проектам; писать документацию к своим репо.
Пример гайда по Tutorial: MCP Python SDK.
🚀 Google представляет Gemma 3 QAT: мощный ИИ для обычных видеокарт
Google анонсировала Gemma 3 QAT — новую версию своей модели искусственного интеллекта, оптимизированную с помощью Quantization-Aware Training (QAT). Эта технология позволяет запускать передовые ИИ-модели на потребительских GPU, таких как NVIDIA RTX 4090, без значительной потери качества.
Что нового в Gemma 3 QAT:
🔹 Поддержка 4-битного и 8-битного квантования: значительно снижает требования к памяти и ускоряет работу модели.
🔹 Сохранение высокой точности: даже при сниженной разрядности модель сохраняет точность, близкую к оригинальной.
🔹 Доступность для широкого круга разработчиков: теперь запускать мощные ИИ-приложения можно на более доступном оборудовании.
📌 Круто, что Google делает передовые ИИ-технологии более доступными, позволяя разработчикам создавать мощные приложения без необходимости в дорогостоящем оборудовании.
🔗 Подробнее: Google Developers Blog
Опубликован курс по созданию языковых моделей с нуля от Стэнфордского университета — «СS336: Language Modeling from scratch», включая видеолекции для всех, кто хочет научиться создавать собственные ИИ-модели с нуля: от архитектуры и токенизаторов до обучения с подкреплением и масштабирования. К лекциям есть множество дополнительных материалов и домашних заданий.
🚀 Google представила InstructPipe — революционный инструмент для визуального программирования с помощью ИИ
Представьте, что вы описываете свою идею словами, а ИИ превращает её в рабочий прототип подкрепляя визуальной блок схемой.
🔍 Что такое InstructPipe?
InstructPipe — это AI-ассистент, интегрированный в платформу Visual Blocks, который преобразует текстовые описания в визуальные пайплайны. Пользователь вводит инструкцию, выбирает категорию (например, "язык", "визуализация" или "мультимодальность"), и система генерирует соответствующую блок-схему.
Ключевые особенности:
- Использование больших языковых моделей (LLMs) для генерации псевдокода.
- Интерпретатор кода, который преобразует псевдокод в визуальные блоки.
- Интерактивный редактор, позволяющий пользователю доработать и настроить пайплайн.
Чем интересен продукт?
- Если вы хотите сделать пайплайн на коленке, вам туда
- Быстрое прототипирование идей
- Если вам не нужно полноценное внедрение, а решение быстро и просто
Работаем со свертками в PyTorch с помощью библиотеки CUTLASS и алгоритма Implicit GEMM
Библиотека CUTLASS — это набор C++ шаблонов для реализации высокопроизводительного GEMM в коде. Она предоставляет структурные блоки, из которых можно собрать или просто вызвать операцию GEMM. Поддерживает вычисление смешанной точности, использование TensorCores и других примитивов, доступных для быстрого вычисления. В отличие от cuBLAS, это open source-библиотека. Ее относительно просто интегрироватьь и модифицировать под свои задачи.
Подход основан на тайлинге — разбиении задачи на мелкие подзадачи и распараллеливании. Как устроен процесс работы:
Процедура начинается с работы с глобальной памятью: выбираем блоки данных (тайлы) из глобальной памяти для умножения матриц.
Затем используются примитивы для переноса этих данных в shared-память, где происходит тайлинг на этом уровне.
После выполняется работа на уровне варпов и регистров с использованием TensorCores или CUDA Cores.
Эти настройки также можно конфигурировать с помощью библиотеки. Основная цель — максимально перенести данные для вычислений в регистры процессоров и свести к минимуму операции с глобальной памятью, поскольку они вызывают наибольшие задержки.
Библиотека предоставляет различные уровни специализации и конфигурирования: Device-level, Kernel-level, Block-level, warp, Instruction. Весь API представлен в виде шаблонов, из которых можно набирать те типы, которые потом инстанцируются для реализации нужного тайлинга.
Какие еще инструменты могут расширить функциональность PyTorch для работы с большими свертками? Как выбрать алгоритм, подходящий для обучения моделей? Узнаете из статьи →
Сегодня OpenAI анонсировала две новые модели искусственного интеллекта — o3 и o4-mini, расширяя возможности ИИ за пределы обработки текста, включая веб-браузинг, генерацию изображений и визуальное восприятие.
Axios
🧠Модель o3
o3 — как заявили OpenAI это самая продвинутая модель на сегодняшний день, обладающая улучшенными способностями к рассуждению и пониманию изображений. Изначально планировалось выпустить o3 как часть GPT-5, но было решено представить её отдельно вместе с o4-mini.
🧠Модель o4-mini
o4-mini — более компактная и эффективная версия, предназначенная для выполнения задач, таких как математика, программирование и визуальный анализ, при меньших затратах.
Добавили интересные апдейты и прощание с более старыми моделями:
Натаскали модельки на качественный поиск в браузере и генерацию изображений
Ризонинг поверх изображений!Добавили интеграцию изображений в процессы рассуждения.
Добавят доступ в ChatGPT Plus, Pro и Team для моделей o3, o4-mini и o4-mini-high.
Постепенное прекращение поддержки старых моделей, таких как o1, o3-mini и o3-mini-high.
Ждем первый доступ для всех и анонсы gpt5?