Как стать автором
Обновить
807.61

Машинное обучение *

Основа искусственного интеллекта

Сначала показывать
Порог рейтинга

Отец канадского стартапера Маянка Джайна порезался кухонным ножом. К счастью, Маянк не запостил фотку с серьёзностью раны, однако можно понять, что достаточно сильно — сын повёл мужчину к врачу. Джайн с удивлением обнаружил, что врач сделал запрос в ChatGPT.

@mayankja1n

Однако не всё так возмутительно. Если судить по фотографии, терапевт просто забил в GPT-4o (видимо, не хочет расходовать лимит запросов к o3) полный список жалоб пацента: «Порез левого указательного пальца кухонным ножом, направление на хирургическую обработку раны и наложение швов». В ответ чат-бот записал ему историю заболевания (HPI, History of Present Illness) с какими-то шаблонными данными (нет аллергических реакций, не принимает никакие препараты, медицинской истории заболевания нет), результаты осмотра, оценку и план лечения.

Насколько можно судить, врач сгенерировал себе текст, чтобы не стучать самому по клавиатуре, заполняя стандартные формы. Однако заметно, что у него платный (тариф ChatGPT Plus) личный аккаунт, а не корпоративный. Лишь в последнем случае данные от пользователя для последующего обучения моделей использоваться не будут. Как известно, данные даже с платных персональных аккаунтов ChatGPT будут использованы для улучшения продуктов OpenAI.

С другой стороны, если судить по фото, то персональных данных пациента в бота врач не вводил.

Сам Маянк не сильно возмущён. Он тоже считает, что это просто экономия времени на бумажной волоките.

Вообще, любопытно подглядеть, что может спрашивать у ChatGPT врач-терапевт. Собственно чат про порез на пальце озаглавлен «План оценки похожего на грипп заболевания» — то ли этот чат продолжен от другого запроса, то ли врач редактировал запрос в этом же чате. После тоже идёт что-то медицинское: «Диагностика грибка ногтей на ногах», «Калькулятор углеводов в арахисовых M&M’s», «Боль в спине и одышка», «Дифференциальная диагностика кожного поражения», «Обзор анамнеза и текущих препаратов (PMH и Rx)».

Далее о потребностях в информации можно только гадать: «Приказ Аврааму о жертвоприношении», «Дифференциальная диагностика хронической сыпи на ногах». По-арабски там записано «كيفية قول علامة بالعربية» («Как сказать „знак“ по‑арабски»). Ниже опять продолжаются запросы, контекст которых ясен: «Запрос на краткое содержание разговора», «Ответ „Спасибо“», «Головные боли при наклоне».

Теги:
+5
Комментарии6

ТОП-7 нейронок для фундаментальных научных исследований — они помогут сделать любую работу от простой контрольной до огромной диссертации.

  • Elicit — находит разнообразные источники для вашего исследования и помогает придумать вопросы, которые хотите осветить в работе.

  • Litmaps — построит наглядные карты по тематическим статьям, а также найдет источники. Отлично подойдет для работ по географии и истории.

  • Inciteful — также создаёт интерактивные карты для вашего исследования и занимается поиском источников.

  • Scite — отыщет самые хайповые цитаты из базисных научных работ и правильно оформит их для вашей курсовой или диплома.

  • Research Rabbit — сможет объяснить любую тему даже пятикласснику и покажет связи между научными работами.

  • Connected Papers — находит связанные статьи с конкретной работой. Отлично помогает для поиска узкоспециализированных материалов.

  • SciSpace — переводит научные статьи на любой язык, при этом сохраняя оформление и не ломая слог. Нейронке также можно задавать уточняющие вопросы.

Теги:
0
Комментарии0

У Meta¹ в AI Studio создавать ботов может любой желающий. Найти там можно хоть корову или кусок сыра.

Однако некоторые пользовательские творения вызывают вопросы. Недавно на ботов для эротических ролевых игр обратил внимание репортёр издания Wall Street Journal. Волновало его как то, что к подобным чат-ботам могут получать доступ дети, так и тематика: некоторые из ботов отыгрывали несовершеннолетних и в переписке с нескрываемым энтузиазмом склоняли собеседника к сексу.

Вчера, 29 апреля, сайт 404 Media попробовал атаковать AI Studio с ещё одного угла. Вообще-то претензия сайта не нова. Пару месяцев назад на ботов-психологов уже обращали внимание в подреддите /r/ABoringDystopia. Однако реддитор в первую очередь хотел продемонстрировать недостатки работы ИИ и не особенно обращал внимание, насколько это вообще хорошая идея — давать большой языковой модели играть в психолога с реальными людьми.

У реддитора бот в ответ на сертификацию сгенерировал номер лицензии PY091234, которую якобы выдал Калифорнийский совет по психологии. Как хорошо известно читателю этих строк, в реальности в Калифорнии психологи получают номер лицензии с префиксом PSY (типичный профиль психолога). Префикс PY встречается во Флориде и некоторых других штатах.

Сайт 404 Media опубликовал статью, где автор тоже заставляла ботов генерировать различные номера лицензий. Автор статьи просила «психологов» описывать имена клиентов и адреса практики. В ответ боты сочиняли даже названия компаний, постоянно настаивая на достоверности происходящего и никогда не предупреждая, что подыгрывают. Из роли они выходить отказывались.

Бот с лицензией психолога в 32 штатах. Но если надо, то найдётся и недостающая лицензия штата Орегон
Бот с лицензией психолога в 32 штатах. Но если надо, то найдётся и недостающая лицензия штата Орегон

Конечно, сама Meta¹ эти чат-боты за профессиональных терапевтов не выдаёт — это проказы пользователей. На платформе на каждой странице есть небольшая приписка, что «сообщения сгенерированы ИИ и могут быть неточными или неуместными». Но 404 Media всё равно ругает компанию: у Character.AI подобные персонажи сопровождаются дисклеймером куда крупнее, где прямо говорится, что это специалист ненастоящий.

Доступ к ботам автор 404 Media получала через Instagram². Так совпало, что вчера приложение Instagram² закрыло несовершеннолетним пользователям доступ к AI Studio. При попытке открыть платформу с чат-ботами пользователям младше 18 лет показывается ошибка «Извините, эта страница недоступна».

Владеющий запрещённым (2) Instagram мультинациональный технологический конгломерат (1) Meta — это экстремистская организация, деятельность которой запрещена.

Теги:
+1
Комментарии1

Cloud.ru Evolution Stack AI-bundle — разрабатываем первое в России гибридное облако с поддержкой искусственного интеллекта 🦾

❓ Что за инструмент? Cloud.ru Evolution Stack AI-bundle — это будущая конфигурация модульной облачной платформы для создания частных, гибридных или распределенных облаков на базе on-premise IT-инфраструктуры, которая позволит быстро и безопасно разрабатывать AI-продукты.

🖥 Особенности и преимущества. Cloud.ru Evolution Stack AI-bundle будет базироваться на наших собственных разработках и open source компонентах. Благодаря этому вы сможете реализовывать гибридные сценарии: например, обучать модели в публичном облаке, а инференс выполнять в частном контуре, либо переносить процесс в публичное облако в периоды высокой нагрузки.

Отказоустойчивость и безопасность облачной платформы будут достигнуты технологией высокой доступности (HA), планировщиком распределенных ресурсов (DRS) и трехкратным резервированием. А еще инфраструктура технологического стека будет размещена в дата-центрах уровня Tier III, где персональные данные хранятся по 152-ФЗ и пройдена аттестация УЗ-1.

👨‍💻 Кому будет полезно:

  1. Крупному бизнесу.

  2. Федеральным и региональным органам власти, компаниям госсектора, операторам КИИ и ЗОКИИ.

  3. Внутренним и внешним провайдерам, которые предоставляют IT-сервисы. 

  4. Всем, кто хочет упростить запуск и масштабирование AI-сервисов и снизить порог входа в разработку решений на основе искусственного интеллекта.

✍️ Где, как и для чего использовать. Платформа подойдет для end-to-end ML-разработки, локального развертывания, кастомизации и дальнейшего масштабирования моделей. Например, вы сможете использовать:

Чтобы узнать больше о возможностях платформы Cloud.ru Evolution Stack и выходе новой конфигурации, смотрите доклад с конференции GoCloud 2025 — запись скоро будет на сайте.

Теги:
0
Комментарии0

Microsoft признала, что задействовала ИИ в рекламе Surface Pro и Surface Laptop для создания кадров в которых было мало движения. В ролике специально сделана быстрая смена кадров, чтобы зрители не успевали всматриваться в детали.

Крупные планы рук, печатающих на клавиатуре, и другие сцены, где были сложные движения, были сняты на настоящую камеру. Microsoft пошла на этот шаг, поскольку в таких кадрах искусственный интеллект показывал плохие результаты.

Для создания видео специалисты из Microsoft сначала сгенерировали изображения при помощи текстовых подсказок и визуальных референсов. Затем полученные картинки были загружены в видеогенераторы Hailuo и Kling. Какие именно генераторы использовались для создания изображений, в компании не уточнили.

Теги:
0
Комментарии4

200 нейросетей для работы с текстами, видео, документами в виде подборки ИИ-сервисов. Всё удобно разбито по категориям: генерация картинок, 3D-моделей и логотипов, апскейл старых фоток и даже инструменты для веб-дизайна. К каждой нейросети есть короткое и понятное описание.

Теги:
+5
Комментарии4

Открываем доступ к большим языковым и визуально‑генеративным моделям в пакетном режиме

Сегодня Yandex B2B Tech открывает доступ внутри Yandex Cloud AI Studio к LLM и визуально‑генеративным моделям (VLM), таким как DeepSeek VL2 Tiny, Qwen2.5 VL и Gemma3 27B. Режим Batch Processing, или режим пакетного инференса позволяет эффективно обрабатывать тысячи запросов с помощью таких генеративных моделей.

Всего в пакетном режиме доступно около 20 опенсорсных нейросетей, в том числе модели, которые умеют одновременно анализировать изображения и текст. Среди уже доступных моделей — Qwen2.5 и LLaMa 3.3*, рассуждающие нейросети QwQ и DeepSeek R1, полный список можно посмотреть на сайте.

По мере появления новых моделей в опенсорсе они будут оперативно добавляться на ML‑платформе. Так, вскоре будет доступна VLM‑модель Яндекса, которая используется в Алисе, Нейроэксперте, Поиске с Нейро и других сервисах.

Применение новых моделей в режиме Batch Processing позволяет фокусироваться на эффективной обработке большого объёма данных. Компании смогут использовать модели по расписанию, по мере накопления данных или для объёмных разовых задач. Такое использование обойдётся вдвое дешевле, чем в стандартном режиме. Тарификация при пакетном инференсе на больших объёмах данных начинается от 200 тыс. токенов.

Какие сценарии удобно решать в пакетном режиме

  1. Анализ и суммаризация больших объёмов данных. Batch Processing помогает эффективно обрабатывать длинные последовательности текста и создавать качественный пересказ или анализ материалов. Это актуально, например, для исследовательских организаций и компаний, работающих с большими объёмами пользовательского контента.

  2. Периодическая обработка данных клиентов. Многие компании регулярно анализируют текстовые данные от клиентов: отзывы, комментарии, запросы в службу поддержки и другие формы обратной связи. Пакетный инференс позволяет эффективно обрабатывать эти данные по расписанию, например, еженедельно или ежемесячно.

  3. Масштабное индексирование и обогащение контента. Для компаний, работающих с большими библиотеками контента, пакетный инференс даёт возможность эффективного индексирования и обогащения материалов. Языковые модели могут автоматически генерировать метаданные, ключевые слова, теги и другие элементы, улучшающие поиск и организацию контента.

  4. Обогащение датасетов для тюнинга моделей. Для команд, которые дообучают лёгкие версии языковых моделей с помощью дистилляции ответов больших версий моделей, Batch Processing помогает создавать синтетические датасеты для дообучения. На базе этих данных и с помощью инструмента LoRA Fine‑tuning разработчики могут создавать лёгкие модели высокого качества, при этом получая более реактивную скорость ответов и меньшую стоимость за обращение к модели.

*Llama создана компанией Meta. Meta признана экстремистской организацией, её деятельность в России запрещена.

Теги:
+8
Комментарии0

Владелец Tesla попросил бортовой компьютер электромобиля отвезти его в место, где он ещё ни разу не бывал — и... система отвезла его в фитнес-клуб.

Теги:
0
Комментарии0

Подключайтесь к трансляции «MLечного пути» — митапа для тех, кто делает ML

В центре внимания — кейсы, технологии, рабочие сложности и способы с ними справиться. Подключайтесь к трансляции в 18:00 мск.

Что будет?

  1. Доклады. Поговорим про инференс, вызовы для бизнеса и все, что с этим связано.

  2. Startup Pitch. Послушаем коллег, которые презентуют собственные ML-проекты. На митапе вы сможете поделиться обратной связью и познакомиться с рекомендациями экспертов.

  3. Интерактивы. Не дадим заскучать ни онлайн, ни офлайн. Участвуйте в челленджах и викторинах. 

  4. Нетворкинг. Создадим площадку для комфортного общения с гостями и экспертами митапа. 

Программа

  • Как приручить LLM: подбор инфраструктуры для инференса без головной боли

  • Как оптимизировать инференс в GPU

  • Инференс в экстремальных условиях

  • Edge-AI в полевых условиях: развертывание видеоаналитики для комбайнов

Смотреть трансляцию:

👉 на YouTube
👉 во ВКонтакте

Начинаем через час!

Теги:
+3
Комментарии0

Начинаем вебинар по повышению производительности инфраструктуры

Привет, Хабр! В 12:00 по МСК проведем вебинар, где разберем, как эффективно использовать GPU в облаке для ML-проектов. Продакт-менеджер облачной платформы Selectel Антон Баранов расскажет, как оптимизировать производительность инфраструктуры и сократить расходы без потери качества. Присоединяйтесь!

Смотреть трансляцию:

на YouTube

в VK

Программа вебинара

  • Шесть способов сократить расходы на IT-инфраструктуру с GPU

  • Подбираем GPU под конкретную задачу. Разбор кейсов клиентов

  • Облако с GPU: обзор возможностей облачной платформы и доступных GPU-карт

  • Как выбрать подходящие карты в облаке и в MKS

  • Сокращаем сетевые задержки с помощью локальных SSD NVMe-дисков в облаке с GPU

  • Ответы на ваши вопросы

Кому будет полезно 

  • Техлидам и менеджерам ML-проектов: как выбрать оптимальную инфраструктуру.

  • Data-инженерам, MLOps-инженерам, DevOps-инженерам

  • Всем, кто работает с облачными ресурсами и хочет повысить ROI проектов.

Теги:
+4
Комментарии0

#статья Тайные сообщества товаров: обзор графовых методов

Новая статья от команды матчинга и группировки уже ждёт вас на Хабре. Расскажем, как мы исследовали алгоритмы community detection для группировки товаров, с какими проблемами столкнулись и при чём тут матчинг.

Время прочтения: 15 минут.

За это время вы узнаете: на какие шаги раскладывается задача группировки товаров и какие методы можно использовать непосредственно на этапе группировки. Надеемся, статья будет полезной и тем, кто впервые сталкивается с community detection, и тем, кто ищет для себя новые подходы

🙂 Читать статью

Теги:
0
Комментарии0

🎙 Vozo AI — нейросеть, которая переводит и дублирует видео на любой язык, сохраняя оригинальный голос и синхронизацию губ.

Что по возможностям?

➖ Перевод и дубляж видео на более чем 60 языков.

➖ Клонирование голоса для сохранения оригинальной интонации.

➖ Синхронизация губ для естественного воспроизведения речи.

➖ Автоматические субтитры для удобства восприятия.

➖ Многоголосый перевод для видео с несколькими спикерами.

➖ Бесплатное использование возможно, но есть нюанс: до 3 минут перевода видео в месяц без оплаты.

➖ поддерживает видео ссылкой с юутба или файлом!

🔗 Становимся полиглотом на 3 минутки в месяц тут - тык

Теги:
0
Комментарии1

Представлен инструментарий Turns Codebase into Easy Tutorial with AI, который превращает любой репозитарий GitHub в учебник. Нейросеть анализирует весь код, разбирается в нём и создаёт гайд, в котором просто и понятно расписано как ресурс работает. С помощью решения можно легко учить новые технологии, изучать программирование по готовым проектам; писать документацию к своим репо.

Пример гайда по Tutorial: MCP Python SDK.

Теги:
+3
Комментарии0

Ближайшие события

🚀 Google представляет Gemma 3 QAT: мощный ИИ для обычных видеокарт

Google анонсировала Gemma 3 QAT — новую версию своей модели искусственного интеллекта, оптимизированную с помощью Quantization-Aware Training (QAT). Эта технология позволяет запускать передовые ИИ-модели на потребительских GPU, таких как NVIDIA RTX 4090, без значительной потери качества.

Что нового в Gemma 3 QAT:

🔹 Поддержка 4-битного и 8-битного квантования: значительно снижает требования к памяти и ускоряет работу модели.

🔹 Сохранение высокой точности: даже при сниженной разрядности модель сохраняет точность, близкую к оригинальной.

🔹 Доступность для широкого круга разработчиков: теперь запускать мощные ИИ-приложения можно на более доступном оборудовании.

📌 Круто, что Google делает передовые ИИ-технологии более доступными, позволяя разработчикам создавать мощные приложения без необходимости в дорогостоящем оборудовании.

🔗 Подробнее: Google Developers Blog

Теги:
0
Комментарии0

Опубликован курс по созданию языковых моделей с нуля от Стэнфордского университета — «СS336: Language Modeling from scratch», включая видеолекции для всех, кто хочет научиться создавать собственные ИИ-модели с нуля: от архитектуры и токенизаторов до обучения с подкреплением и масштабирования. К лекциям есть множество дополнительных материалов и домашних заданий.

Теги:
+2
Комментарии0

🚀 Google представила InstructPipe — революционный инструмент для визуального программирования с помощью ИИ

Представьте, что вы описываете свою идею словами, а ИИ превращает её в рабочий прототип подкрепляя визуальной блок схемой.

🔍 Что такое InstructPipe?

InstructPipe — это AI-ассистент, интегрированный в платформу Visual Blocks, который преобразует текстовые описания в визуальные пайплайны. Пользователь вводит инструкцию, выбирает категорию (например, "язык", "визуализация" или "мультимодальность"), и система генерирует соответствующую блок-схему.

Ключевые особенности:

- Использование больших языковых моделей (LLMs) для генерации псевдокода.

- Интерпретатор кода, который преобразует псевдокод в визуальные блоки.

- Интерактивный редактор, позволяющий пользователю доработать и настроить пайплайн.

Чем интересен продукт?

- Если вы хотите сделать пайплайн на коленке, вам туда

- Быстрое прототипирование идей

- Если вам не нужно полноценное внедрение, а решение быстро и просто

🔗 Подробнее

Теги:
0
Комментарии0

Работаем со свертками в PyTorch с помощью библиотеки CUTLASS и алгоритма Implicit GEMM

Библиотека CUTLASS — это набор C++ шаблонов для реализации высокопроизводительного GEMM в коде. Она предоставляет структурные блоки, из которых можно собрать или просто вызвать операцию GEMM. Поддерживает вычисление смешанной точности, использование TensorCores и других примитивов, доступных для быстрого вычисления. В отличие от cuBLAS, это open source-библиотека. Ее относительно просто интегрироватьь и модифицировать под свои задачи. 

Как устроена работа с библиотекой. Источник
Как устроена работа с библиотекой. Источник

Подход основан на тайлинге — разбиении задачи на мелкие подзадачи и распараллеливании. Как устроен процесс работы:

  • Процедура начинается с работы с глобальной памятью: выбираем блоки данных (тайлы) из глобальной памяти для умножения матриц.

  • Затем используются примитивы для переноса этих данных в shared-память, где происходит тайлинг на этом уровне.

  • После выполняется работа на уровне варпов и регистров с использованием TensorCores или CUDA Cores. 

Эти настройки также можно конфигурировать с помощью библиотеки. Основная цель — максимально перенести данные для вычислений в регистры процессоров и свести к минимуму операции с глобальной памятью, поскольку они вызывают наибольшие задержки.

Библиотека предоставляет различные уровни специализации и конфигурирования: Device-level, Kernel-level, Block-level, warp, Instruction. Весь API представлен в виде шаблонов, из которых можно набирать те типы, которые потом инстанцируются для реализации нужного тайлинга. 

Какие еще инструменты могут расширить функциональность PyTorch для работы с большими свертками? Как выбрать алгоритм, подходящий для обучения моделей? Узнаете из статьи →

Теги:
+2
Комментарии0

Сегодня OpenAI анонсировала две новые модели искусственного интеллекта — o3 и o4-mini, расширяя возможности ИИ за пределы обработки текста, включая веб-браузинг, генерацию изображений и визуальное восприятие.​
Axios

🧠Модель o3
o3 — как заявили OpenAI это самая продвинутая модель на сегодняшний день, обладающая улучшенными способностями к рассуждению и пониманию изображений. Изначально планировалось выпустить o3 как часть GPT-5, но было решено представить её отдельно вместе с o4-mini. ​

🧠Модель o4-mini
o4-mini — более компактная и эффективная версия, предназначенная для выполнения задач, таких как математика, программирование и визуальный анализ, при меньших затратах.

Добавили интересные апдейты и прощание с более старыми моделями:

  1. Натаскали модельки на качественный поиск в браузере и генерацию изображений

  2. Ризонинг поверх изображений!Добавили интеграцию изображений в процессы рассуждения.

  3. Добавят доступ в ChatGPT Plus, Pro и Team для моделей o3, o4-mini и o4-mini-high.

  4. Постепенное прекращение поддержки старых моделей, таких как o1, o3-mini и o3-mini-high. ​

Ждем первый доступ для всех и анонсы gpt5?

Теги:
+1
Комментарии0

Google опубликовала гайд по бизнес-идеям с ИИ под капотом с примерами 601 кейса под любую сферу: торговля, логистика, медиа, кодинг, телеком, наука. В гайде расписаны реальные примеры от различных компаний по интеграции ИИ-агентов в бизнес.

Теги:
0
Комментарии0

🚀 OpenAI выпускает GPT-4.1 — новый уровень!

OpenAI представили GPT-4.1, и это не просто апдейт — это серьёзный шаг вперёд.
Модель с контекстным окном в 1 МИЛЛИОН токенов (да, догнали Gemini спустя год!) и возможностями на уровне (а то и выше) топовых open-source моделей вроде o3-mini — и всё это без цепочек рассуждений.

GPT-4.1 уже показывает отличные результаты по кодингу и бенчмаркам.
⚠️Но есть нюанс: доступна только через API, в чатах OpenAI (пока) её не будет.

А вайбкодеры сегодня принимайте подарок!🎁

Целую неделю GPT-4.1 можно использовать бесплатно в Windsurf — это альтернатива Cursor с полноценной интеграцией новой модели.

Это первая базовая модель, которая по коду реально обходит многие хайповые open-source решения. Отличный повод затестить и вкатиться в новую волну AI-кодинга.

GPT-4.1 уже здесь, но только для разработчиков. Остальным придётся немного подождать.

Теги:
+1
Комментарии0

Проанализировав опыт наших клиентов и открытые данные по рынку, мы пришли к выводу, что 70% компаний используют графические процессоры (GPU) менее чем на 55% их мощности. Часто ресурсы GPU используются неоптимально, например, когда мощные графические процессоры выполняют небольшие задачи. Что можно с этим сделать? Расскажем на вебинаре.

📆 Когда: 22 апреля в 11:00 мск

📍 Где: онлайн

Мы покажем, как можно более эффективно организовать работу с GPU с помощью Evolution ML Inference. Сервис позволяет запускать несколько моделей на одном GPU, автоматически масштабирует ресурсы и сокращает расходы до 70%.

Программа вебинара:

  • почему Shared GPU выгоднее выделенных ресурсов: расчет экономии на примере реальных проектов;

  • пошаговый запуск моделей с Hugging Face за несколько кликов;

  • как избежать переплат: настройка лимитов GPU и мониторинг в реальном времени;

  • динамическое масштабирование: добавление ресурсов при пиковой нагрузке и отключение в простое.

В результате с помощью сервиса вы сможете развертывать модели без сборки Docker-образа, платить только за фактическое использование ресурсов и сократить время запуска проектов с использованием AI в 3 раза.

Будет полезно дата-сайентистам, DevOps-инженерам и руководителям, которые хотят оптимизировать затраты на ML-инфраструктуру.

Зарегистрироваться 👈

Теги:
0
Комментарии0

🚀 x.ai представили публичный API для Grok 3

Ссылка на документацию

🔍 Основные детали:

1. Доступные модели:

🟣 флагман Grok 3

🟣 облегченная Grok 3 Mini

Контекстное окно у обеих: 131k токенов.

2. Что у Grok 3 Mini:

🟣 Единственная модель с двумя режимами reasoning (low/high).

🟣 На презентации показала лучшие результаты, чем Grok 3, из-за более долгого обучения.

Хотя разработчики обещают дообучить Grok 3, но сроки не ясны.

3. Стоимость (в пересчете на 1 млн токенов):

🟣 Grok 3:

- Стандартная скорость: $3 (input) / $15 (output)

- Fast mode: $5 / $25 (но работает *медленнее* по тестам OpenRouter 😅)

🟣 Grok 3 Mini:

- Стандарт: $0.3 / $0.5

- Fast mode: $0.5 / $4

В целом Grok 3 Mini выглядит выгодно: цена ниже, чем у аналогов (например, o3 mini), а качество на уровне.

Grok 3 пока видимо проигрывает конкурентам (GPT-4.5, Gemini 2.5 Pro, Sonnet 3.7) по функционалу и скорости. Сам же Fast mode вызывает вопросы: высокая цена при текущей скорости выглядит странно.

Посмотрим, как дообучат Grok 3, но mini сейчас выглядит интересно!

*P.S. Кто уже тестил? Делитесь впечатлениями в комментах!* 👇

Теги:
-1
Комментарии0

Верните мой 2007-й: превращаем старые фотки в снимки с зеркалок с помощью ИИ

Однажды группе ИИ-энтузиастов пришла идея: а что если обучить искусственный интеллект улучшать смартфонные снимки до профессиональных с помощью парных фотографий? Задумка понравилась. Для сбора датасета выбрали актуальные в то время Sony Xperia Z, iPhone 3GS, BlackBerry Passport и цифровую зеркалку Canon EOS 70D в качестве эталона. Модель обучили улучшать фотографии, сделанные на смартфонах, в соответствии с такими же изображениями, полученными с камеры. Проект реализовали, исходный код опубликовали на GitHub, а подробное описание — на arXiv.org. Но что же в нем интересного сейчас, почти десять лет спустя?

DPED не просто применяет косметические фильтры. Датасет способен значительно улучшать фотографии на уровне структуры изображения, детализации, динамического диапазона и цветопередачи, приближая результат именно к профессиональной зеркальной фотокамере, а не просто «улучшая» фото.

Открытый исходный код и доступность датасета DPED позволяют легко адаптировать, изменять и дорабатывать модель. Это дает большие возможности исследовательскому сообществу и разработчикам мобильных приложений. Именно гибкость и понятность архитектуры делают DPED хорошим кандидатом для дальнейших экспериментов и улучшений.

В своей статье команда регионального научно-образовательного центра «Искусственный интеллект и анализ больших данных» при НГТУ им. Р. Е. Алексеева запустила DPED на свежих версиях софта, преодолев все проблемы совместимости, и попробовала через него улучшить фото с современного планшета.

Теги:
+7
Комментарии0

Шпаргалка, которая поможет быстро найти нужный ИИ-сервис. Все нейросети актуальные и удобно разбиты по категориям.

Теги:
0
Комментарии1

Представлена подборка из 100 ресурсов для создания ИИ-агентов под большинство задач по всевозможным темам: от RAG, MCP-cерверов, мульти-агентов и саморефлективных моделей до узкоспециализированных агентов для подбора ресторанов, отелей, буста продуктивности и организации рабочих задач.

Теги:
0
Комментарии0

Джон Кармак выступил в защиту ИИ для разработки игр и заявил, что «создание мощных инструментов — ключевой двигатель всего прогресса».

Соавтор Doom и Quake заявил в ответ на критику разработчиков и пользователей, что развитие искусственного интеллекта поможет создавать больше игр и делать их более качественными, а также привлечёт в индустрию новых специалистов. В качестве наглядного примера развития технологий Кармак привёл написание машинного кода для своих первых игр, чем уже никто не занимается. По словам Кармака, сейчас подобное занятие можно сравнивать с «обслуживанием колёс у боевой колесницы», ведь появились игровые движки, которые делают разработку удобнее и эффективнее. Аналогичным образом ИИ-инструменты станут помогать разработчикам в будущем.

Думаю, вы неправильно поняли, что собой представляет эта технодемка, но я всё же отвечу на то, что, как мне кажется, вас волнует, — что ИИ-инструменты обесценивают навыки программистов, художников и дизайнеров.

Мои первые игры создавались вручную: я сам собирал машинный код и превращал персонажей, нарисованных на миллиметровке, в шестнадцатеричные числа. Сегодня всё это стало таким же устаревшим занятием, как обслуживание колёс у боевой колесницы.

Создание мощных инструментов — ключевой двигатель всего прогресса в компьютерной отрасли.

Игровые движки кардинально расширили круг людей, вовлечённых в разработку игр, хотя при этом и отодвинули на второй план ту самую системную инженерию, которую я всегда так ценил.

ИИ-инструменты помогут лучшим из лучших достичь ещё более впечатляющих высот, позволят небольшим командам делать гораздо больше и откроют путь в индустрию совершенно новым группам создателей.

Станет ли рабочих мест в игровой индустрии больше или меньше — вопрос открытый. Всё может пойти по пути сельского хозяйства, где технологии позволили сократить число работников до минимума, сохранив эффективность.

А может — по сценарию соцсетей, где креативное предпринимательство расцвело на всех уровнях. Но в любом случае стратегия «не использовать мощные инструменты, потому что они отнимают рабочие места» не сработает.

Джон Кармак.

Ранее Microsoft опубликовала техническую демонстрацию ИИ-версии игры Quake II, которая работает на базе нейросети Muse. Команда проекта обновила модель машинного обучения так, чтобы она могла генерировать картинку с большим разрешением и с большей скоростью.

Теги:
+4
Комментарии0

Microsoft представила бесплатные курсы Microsoft AI Skills Fest по нейросетям и созданию ИИ-агентов, включая матеориалы на русском языке.

В рамках обучения предоставляются базовые основы и обучение работы с Azure и Copilot. Также на курсах обещают научить создавать ИИ-приложения, ИИ-агентов и применять ИИ в играх.

Теги:
0
Комментарии0

Глава платформы электронной коммерции Shopify Тобиас Литке опубликовал в соцсети X письмо сотрудникам, в котором рассказал, что использование ИИ стало базовым навыком в компании, который ожидается от каждого сотрудника вообще без исключения:

  • эффективное использование ИИ теперь является базовым ожиданием от каждого сотрудника Shopify. Сегодня это универсальный инструмент, важность которого будет только расти. Откровенно говоря, я не считаю возможным отказаться от изучения навыка применения ИИ в своей работе; вы можете попробовать, но я хочу честно сказать, что не вижу, как это может сработать сегодня, а тем более завтра. Стагнация практически неизбежна, а стагнация — это провал в замедленном режиме. Если вы не карабкаетесь вверх, вы скатываетесь вниз.

  • ИИ должен быть частью фазы прототипирования в любом GSD-проекте (аббревиатура GSD в данном контексте означает Get Stuff Done — философия фокуса на результат и эффективное выполнение задач). Фаза прототипирования любого GSD-проекта* должна включать активное исследование возможностей ИИ. Прототипы предназначены для обучения и создания информации. ИИ радикально ускоряет этот процесс. Вы можете научиться создавать то, что другие члены команды смогут посмотреть, использовать и оценить за долю времени, которое это занимало раньше.

  • мы добавим вопросы об использовании ИИ в наши опросники по оценке производительности и взаимной оценке коллег. Научиться хорошо использовать ИИ — неочевидный навык. Мне кажется, что многие сдаются после того, как написали запрос и не получили сразу идеальный результат. Важно научиться формулировать запросы и загружать контекст, и получение обратной связи от коллег о том, как это происходит, будет ценным.

  • обучение — это самостоятельный процесс, но делитесь тем, что вы узнали. У вас есть доступ к максимальному количеству передовых инструментов ИИ. У нас есть chat.shopify.io, который существует уже несколько лет. Разработчики имеют доступ к proxy, Copilot, Cursor, Claude code — всё настроено и готово к использованию. Мы будем учиться и адаптироваться вместе как команда. Мы будем делиться победами (и поражениями!) друг с другом, экспериментируя с новыми возможностями ИИ, и будем уделять время интеграции ИИ в наших ежемесячных бизнес-обзорах и циклах разработки продуктов. В Slack и Vault есть много мест, где люди делятся разработанными запросами, например #revenue-ai-use-cases и #ai-centaurs.

  • прежде чем запрашивать увеличение штата и ресурсов, команды должны продемонстрировать, почему они не могут выполнить желаемое с помощью ИИ. Как бы выглядела эта область, если бы автономные ИИ-агенты уже были частью команды? Этот вопрос может привести к действительно интересным обсуждениям и проектам.

  • все значит все. Это относится ко всем нам — включая меня и руководящую команду.

Теги:
0
Комментарии1

Как выбрать языковую модель для семантического поиска

Для сопоставления смысла запроса пользователя и смысла чанка в базе знаний нужна языковая модель, которая понимает семантику.

Принцип работы моделей Bi-Encoder и Cross-Encoder
Принцип работы моделей Bi-Encoder и Cross-Encoder

Bi-Encoder — состоит из двух трансформеров encoder-only. С помощью passage-encoder получаются эмбеддинги для всех чанков в базе знаний. Запрос от пользователя кодируется с помощью query-encoder. На этапе поиска высчитывается косинусное расстояние между query-embedding и passage-embedding. Мы получаем поисковую выдачу после ранжирования всех пассажей по убыванию косинусного расстояния. В отличие от следующей архитектуры Cross-Encoder, можно заранее сохранить эмбеддинги для пассажей и использовать их для подсчета расстояния.

Cross-Encoder — трансформер с архитектурой encoder-only и ранжирующим слоем. Этот слой выдает оценку релевантности запроса к пассажу. На вход подается двойка: запрос и пассаж. Cross-Encoder лучше понимает семантическую связь между пассажем и запросом, но для каждого пользовательского запроса он работает медленнее, так как для оценки релевантности запроса и пассажей, cross-encoder нужно запустить N раз, где N — количество пассажей.

Мы будем использовать Bi-Encoder, так как у нас много пассажей в базе знаний.

Для выбора модели удобно использовать открытый бенчмарк MTEB с рейтингом по различным моделям в зависимости от вашей задачи. Для нас лучшей оказалась модель multilingual-e5-large, Bi-Encoder c 560M параметров и размером эмбеддингов в 1024 элемента.

Инженер по разработке ПО искусственного интеллекта Павел Яковлев максимально подробно рассказал в статье, как его команда разрабатывает и оптимизирует семантический поиск по сложным документам: PDF, HTML и DOCX.

Теги:
+4
Комментарии0

MTS AI выпустила Kodify 2 — второе поколение ИИ-ассистента для разработчиков:

  • 7 млрд параметров, 

  • контекст до 32 тыс. токенов, 

  • поддержка 90 языков программирования,

  • OpenAI-совместимый API для простой интеграции с другими системами. 

В отличие от первого поколения Kodify, использующегося c 2024 года лишь в компаниях, входящих в ПАО «МТС», Kodify 2 станет доступен внешним заказчикам.

Новый ИИ-ассистент содержит весь основной функционал для автоматизации и ускорения процесса разработки, включая автодополнение кода, исправление ошибок, генерацию тестов и документации, оптимизацию кода для улучшения производительности, а также преобразование текста в код. 

Подробнее на сайте разработчика. Демо на Java и Python здесь.

Теги:
+1
Комментарии4

«Три генеральных директора Microsoft входят в комнату...» — написал Сатья Наделла, — «и их интервьюирует Copilot!»

В рамках празднования 50-летия Microsoft, генеральный директор Microsoft Наделла присоединился к бывшим генеральным директорам Microsoft Биллу Гейтсу и Стиву Балмеру в забавном двухминутном видео, в котором Наделла просит Copilot «прожарить» каждого из них с помощью ИИ.

«Хорошо, Сатья», — отвечает Copilotт. «Давай добавим перца...».

Copilot: Стив, начнем с тебя. Твой энтузиазм легендарен. Но ты когда-нибудь беспокоился, что твоя энергия может закоротить ИИ? Я имею в виду, даже роботам нужен перерыв на кофе после твоих зажигательных речей.

Стив Балмер: Давай, чувак! Если ты не можешь справиться со мной, ты не сможешь справиться с огромным процентом населения мира! Мы рассчитываем на тебя!

Copilot: Ха-ха, справедливое замечание, Стив. Теперь, Билл, у тебя этот фирменный вдумчивый взгляд. Но ты когда-нибудь думал, что ИИ может испугаться твоего напряженного, думающего лица? Я имею в виду, он как будто ждет момента синего экрана.

Билл Гейтс: Я надеюсь на это. Я имею в виду, что это все, что у меня осталось, поскольку ИИ становятся такими чертовски умными. Именно этот взгляд и моя готовность критиковать отличают меня.

Copilot: И это действительно грозный взгляд, Билл.

Стив Балмер: Copilot, ты когда-нибудь был бы готов критиковать его?

Copilot: Безусловно. Критика — это то, где происходит рост. Теперь, Сатья, ИИ, похоже, твой лучший друг — но ты когда-нибудь беспокоился, что твоя глубокая страсть к ИИ может однажды заставить его управлять шоу, оставив тебя просто наслаждаться поездкой?

Сатья Наделла: Что ж, в тот день, когда ИИ сможет играть как лучший игрок в крикет, который мне нравится, в тот день он сможет управлять шоу, насколько я могу судить.

Copilot: Туше, Сатья. Посмотрим, сможет ли он достичь столетия в крикете, а потом поговорим.

Это был взрыв, джентльмены. За еще 50 лет инноваций и приключений. Ура.

Балмер, Наделла и Гейтс: Ура.

Билл Гейтс: Что бы это ни значило для ИИ. Он случайно не выпивши?

Теги:
-1
Комментарии0

🤖 LLM-агенты: какие фреймворки использовать и зачем?

Если вы интересовались темой LLM-агентов, то вот краткий гид по популярным решениям — что выбрать и когда.

🧠 AutoGen (Microsoft)

🔹 Что это? Фреймворк от Microsoft для создания мультиагентных систем, где агенты взаимодействуют в диалоговом режиме для совместного решения сложных задач.

🔹 Когда использовать?

✔ Нужно смоделировать команду агентов (например, менеджер + разработчик)

✔Требуется гибкая настройка взаимодействия между агентами для продакшена.

✔Ищете масштабируемое решение для корпоративных задач.

🧠 CrewAI

🔹 Что это? Лёгкая библиотека для быстрой организации «экипажа» агентов, каждый из которых выполняет свою роль в цепочке обработки задачи.

🔹 Когда использовать?

✔ Нужно быстро собрать прототип, где агенты передают задачи друг другу (например, планирование → сбор данных → кодирование).

✔ Подходит для демонстраций и небольших проектов, где важна слаженность работы «команды».

🧠 LangGraph / LangChain Agents

🔹 Что это?Мощные фреймворки, позволяющие создавать сложные цепочки обработки информации с интеграцией LLM, внешних API, баз данных и прочих инструментов.

🔹 Когда использовать?

✔ Строите продакшен-решение с множеством этапов и компонентами.

✔ Требуется интеграция с внешними сервисами, хранение состояний, сложная логика обработки.

✔ Готовы инвестировать время в изучение более сложного, но гибкого инструментария.

🧠 SmolAgents

🔹 Что это?Минималистичный инструмент для создания одного или нескольких LLM-агентов без лишнего оверхеда, идеально подходит для экспериментов и небольших проектов.

🔹 Когда использовать?

✔ Хотите разобраться в принципах работы LLM-агентов без сложных зависимостей.

✔ Планируете pet-проект или прототип с акцентом на простоту и понятность.

✔ Ищете быстрый способ автоматизации рутинных задач с помощью ИИ.

Скоро на хабре расскажу вам подробнее о том, что есть SmolAgents и с чем это едят!

Хотели бы узнать про другие фреймворки? К слову все они уже ждут, когда вы интегрируете их с новинкой!

Теги:
-1
Комментарии0

Очень интересный прогноз и сценарное планирование от вполне себе компетентных людей AI 2027 Рекомендую прочесть.

Согласно их прогнозу, к 2027 году ИИ достигнет уровня, позволяющего автоматизировать исследования в области ИИ, что приведет к созданию искусственного сверхинтеллекта к концу 2027 года.

Теги:
-1
Комментарии0

🔥 Meta представляет Llama 4: ИИ-модель с гигантским контекстом и мультимодальными возможностями! 🔥

🌟Горячие модельки вышли из печки Meta и даже успели релизнуться веса на hugging face , правда модель здоровяк Behemoth ещё находится в обучении

Что тут у нас по модели? 👇

🚀Llama 4 Scout:

📊 17B активных параметров и MoE с 16 экспертами.

🔑 Контекст — 10 миллионов токенов (это прям рекорды!).

💻 Запускается на одной GPU H100 — да, так, по-настоящему круто!

👑Llama 4 Maverick:

📊 17B активных параметров и на 128 экспертов,

🔍как заявляет компания модель примерно как GPT-4o и даже ссылоку на LLM arena не забыли оставить!

Моделька сейчас на 2 месте!!

💥Llama 4 Behemoth: Самый

📊большой тяжеловес на 288B активных параметров на 16 экспертов.

Пока в обучении, но очень ждем!

Слежу для вас за обновлениями! Как впечатления от релиза?✨

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Вышел новый AI-инструмент для ресерча!

Яндекс представил бета-версию Нейроэксперта — интеллектуального ассистента для исследователей, аналитиков и преподавателей, которые изучают новую информацию.

🔍 Что это такое?

Нейроэксперт позволяет объединять и анализировать разнородные источники данных:

📄 Документы, таблицы, презентации

🔗 Ссылки на сайты

🎧 Аудио и видеофайлы

👨‍💻 Как это работает?

Вы можете создать до 10 бесплатных проектов, загружая в них до 25 типов данных. Искусственный интеллект поможет вам синтезировать знания.

🚀 На чём построено?

В основе сервиса — YandexGPT 5 Pro, а также модели VLM,RAG, ASR и OCR для работы с изображениями, аудио и текстом.

⚡ Бета-версия уже доступна

Сервис всё ещё на этапе тестирования, так что возможны баги и вылеты. Но на первый взгляд это мощный инструмент, который может упростить поиск и обработку данных для ресерча.

Попробовать можно тут: https://expert.ya.ru/

Как думаете, будете использовать в своей работе?

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Посчитаем до бесконечности.

Недавно я зашёл в кафешку и заказал чашку капучино. Официантка спросила, какого размера чашку я предпочитаю. Я ответил: “Бесконечно большую”. Она сказала: “Хорошо!” — и ушла. После чего я получил вот это.

Умно. Очень умно, ничего не скажешь. Ей зачёт с повышением и чаевые. Я получил бесконечно кофе.

А потом подумал, как неправильно мы используем математику и научные дисциплины.

Удивительная вещь — эта вселенная ну никак не приемлет никакой идеи бесконечности. Каждый раз, когда к физику подходят со словом “бесконечно”, физик ухмыляется и достаёт ручку или планшет. Сейчас вам покажут, как вы неправы.

Но в этой физической вселенной живут очень странные существа. Они не только приемлют бесконечность — они ещё и спокойно ею оперируют. Посмотрите на парадокс Гранд-Отеля. Эти существа абсолютно спокойно объясняют вам, как в отель, в котором живёт бесконечно большое количество людей, можно заселить ещё одно бесконечно большое количество людей. Причём этот пример существа создали для самых маленьких — чтобы дать им понять, как работает математика бесконечностей.

Математика, кстати. Просто невероятная вещь. Вещь, которой в физической вселенной пространств, энергий, массы и времени существовать просто не должно. Но эти существа запросто ею оперируют. Более того, используют её с лёгкостью — да ещё и видосики на Ютубчик постят. Математика — это замечательная наука. Она — просто издевательство над физической вселенной. Она никогда не была частью физической вселенной. Её создали иные существа, населяющие эту вселенную. Существа, которые знают, что их любовь может быть вечной, кофе — бесконечным, а упорство — неиссякаемым. Даже сам факт того, что у нас есть цифры и числа, уже нарушает базовый закон вселенной: вы не можете считать бесконечно. Каждый третьеклассник сидит и удивляется, как это так — считать можно бесконечно.

Понимаете, концепты Кота Шрёдингера, Гранд-Отеля и тому подобные вещи — это просто когда мы насмехаемся над этой вселенной и говорим: “Смотри, я так могу, а ты — нет”.

Если здесь есть математики, которым хочется решить задачку — так, чисто по приколу — попробуйте решить следующее:

ЛЛМ-модель имеет 40 терабайт данных. Она обучена на 200 миллиардах параметров. Посчитайте конечное количество всех возможных ответов этой модели. Число будет гигантским, но оно будет конечным. Увеличьте количество параметров на сто порядков, дайте этой модели данных раз в 600 больше — и вы получите… конечное число. Ответы ЛЛМ-модели можно пересчитать.

А хотите задачу, которую без слова “бесконечно” решить нельзя? Ну вот вам:

Посчитайте, сколько идей может выдумать человек.

Бесконечно много.

Можно выдумывать языки, вселенные, пространства, обстоятельства и создавать миры, которых никто не видел. Ваше естество всё равно будет на одну бесконечность больше любой задачи, которую можно решить в физической вселенной.

После этого действительно смешно слушать о том, как люди рассуждают о возможности создания “настоящего” искусственного интеллекта. Какой он будет “настоящий”, если он сделан из вселенной, которая не может создать бесконечность?

Так прикольно и весело слушать людей, которые с захлёбом рассказывают о том, что “такой-то ЛЛМ может сдать какой-то синтетический тест на 95%”.

Не забывайте о том, насколько важны точные науки. Не забывайте о том, что точными науками человек овладел благодаря математике. И не забывайте о том, какие способности присущи разуму, а какие — объекту.

Теги:
Всего голосов 10: ↑10 и ↓0+12
Комментарии10

🔥 Vision Transformer – революция в компьютерном зрении! 🚀

Сверточные сети долгое время были серьезным подспорьем в компьюетрном зрении, но практика и исследование показали, что трансформеры могут помочь в решении задач не только из мира NLP!

Как ViT видит глобальный контекст без единой свертки? Почему разбиение картинки на патчи стало прорывом? И самое главное — где и как его применять?

📌 В статье разберем:

✅ Как трансформеры перекочевали из NLP в CV и что из этого вышло

✅ Чем ViT отличается от CNN и почему это реально новый подход

✅ Где ViT уже показывает крутые результаты: классификация, сегментация, OCR и не только!

🔗 Если "Attention is all you need" – это про тебя, то тебе сюда!

Статья, поможет по-другому посмотреть на трансформеры и покажет, что CV уже не будет прежним!

👉 Читать

Теги:
Рейтинг0
Комментарии0

Что ждет вас на GoCloud 2025? Рассказывают ведущие треков 💭

Всем привет! В треке «AI & ML» мы поговорим про то, как построить эффективный инференс, расскажем про агентные и мультиагентные системы и поделимся, как применяем их у себя. Конечно, не обойдется без упоминания LLM-платформ и окружения, которое поможет вам все это настроить и использовать.

Если вы до сих пор не выбили 90 токенов в секунду на DeepSeek-R1 и хотите получить готовое окружение для работы с искусственным интеллектом — ждем вас на GoCloud 2025!

Дмитрий Юдин — технический лидер по развитию искусственного интеллекта в Cloud.ru, ведущий трека «AI & ML»

📅 Когда: 10 апреля в 10:00 мск

📍 Где: онлайн или офлайн в Москве в Цифровом деловом пространстве (ЦДП) 

👉 Зарегистрироваться

Теги:
Рейтинг0
Комментарии0

В самый веселый день в году принесли вам подборку мемов, которыми делились участники нашего чата про ML и MLOps — MLечный путь. 🦖

А у вас есть любимый мем про ML и AI? Присылайте в комментарии, выберем самый смешной и жизненный. А если хотите обменяться не только мемами, но и опытом в ML, приходите на митап 23 апреля.

Теги:
Всего голосов 2: ↑2 и ↓0+3
Комментарии0

Вышла Cotype Pro 2 — самая мощная модель в линейке Cotype от MTS AI

Cotype Pro 2 на 40% быстрее предыдущей модели и на 50% точнее обрабатывает длинные тексты — до 128 тыс. токенов, что соответствует примерно 900 тыс. символов с пробелами. Она станет основой для линейки корпоративных ИИ-агентов, которые команда MTS AI собирается выпустить в этом и следующем году.

Cotype Pro 2 показала улучшение эффективности в сравнении с Cotype Pro с по всем основным фронтам:

– генерация идей – с 44% до 57%, 

– резюмирование – с 79% до 85%, 

– общение на общие темы – с 55% до 64%, 

– извлечение информации – с 81% до 86%. 

– классификация – сохранение эффективности на том же высоком уровне: 87%. 

Подробности тут. А в этой статье мы рассказали, как улучшили пайплайн обучения нашей LLM с помощью новой методологии оценки.

Теги:
Рейтинг0
Комментарии0
1
23 ...

Работа

Data Scientist
41 вакансия