Вышла Cotype Pro 2 — самая мощная модель в линейке Cotype от MTS AI
Cotype Pro 2 на 40% быстрее предыдущей модели и на 50% точнее обрабатывает длинные тексты — до 128 тыс. токенов, что соответствует примерно 900 тыс. символов с пробелами. Она станет основой для линейки корпоративных ИИ-агентов, которые команда MTS AI собирается выпустить в этом и следующем году.
Cotype Pro 2 показала улучшение эффективности в сравнении с Cotype Pro по всем основным фронтам:
– генерация идей – с 44% до 57%,
– резюмирование – с 79% до 85%,
– общение на общие темы – с 55% до 64%,
– извлечение информации – с 81% до 86%.
– классификация – сохранение эффективности на том же высоком уровне: 87%.
Подробности тут. А в этой статье мы рассказали, как улучшили пайплайн обучения нашей LLM с помощью новой методологии оценки.
Я затеял исследование того, как люди взаимодействуют с ИИ по психологическим вопросам. ИИ у нас нынче очень популярен, к нему мы все приспосабливаемся, общаться с ним можно о разном, в том числе про себя любимого.
Прошу вас уделить 15–20 минут своего времени чтобы пообщаться с ботом, он будет спрашивать вас об эмоциональном состоянии и в итоге поделиться тем, что думает об уровне депрессии, есть она, в какой степени или ее нет. Основная цель понять, то что спросит и поймет ИИ соотноситься с реальностью или нет. Поэтому там будет две серии вопросов, одна от ИИ, вторая по стандартизованной и хорошо известной методике Бэка. Прошу вас ответить на обе серии вопросов.
За ваше участие бот поблагодарит вас «вкусняшками», а я уже вам благодарен, за то, что прочитали это. А если поделитесь ботом с друзьями буду благодарен еще больше:)
На данный момент бот собрал всего 99 ответов, из них 74 полных по обоим наборам вопросов. Корреляция между опросником Бека и тем, что говорит ИИ 0,802, и это очень хорошо.
Сегодня утром мне пришло письмо о том, что после ревью абстакта работу про психодиагностику с помощью ИИ готовы принять к публикации на конфе HAR 2025. У меня есть время до 25-го мая написать статью. Сейчас у меня в выборке 74 человека прошедших оба опросника, это неплохо, но можно больше.
Поучавствуйте, насладитесь и перешлите близким и знакомым!
С 1 апреля по 1 июня Coca‑Cola позволит использовать ИИ для создания индивидуальных смесей напитков в своих автоматах Freestyle. «Отсканируйте QR‑код „Поделиться колой“ на автомате, который с помощью ИИ создаст (надеюсь, вкусную) смесь напитков на основе названия и наклеек, которые пользователь выбирает для украшения своего цифрового стакана», — пояснили в Coca‑Cola.
Как мы меняем клиентский сервис с помощью AI — расскажем на IT-конференции GoCloud 2025 ☁️
Привет! Внедрение искусственного интеллекта и создание AI-агентов стали одними из самых обсуждаемых тем за последние два года. В своем выступлении я расскажу о практическом применении этих технологий в процессах поддержки пользователей, покажу, на какие метрики можно повлиять, зачем это делать и какие усилия потребуются.
Обсудим co-pilot и боты в поддержке, новые инструменты, аналитику, будущее AI-агентов и реальные результаты.
Максим Михайлов — менеджер продукта в Cloud.ru
Трек: AI & ML — про будущее искусственного интеллекта, опыт работы с AI-инструментами и продукты, меняющие индустрию.
Наконец сделал открытый доступ к протеганным подборкам новостей в Feeds Fun. Безвозмездно, то есть без регистрации :-)
🔬 Свежие научные статьи с ArXiv — подборка особенно полезна, если вы хотите следить за узкой областью: генетическими алгоритмами там или особой математикой. Пошарьте с вашим друзьям-учёным, им должно зайти.
Google сделали свою новую модель Gemini 2.5 Pro бесплатной
Теперь она доступна абсолютно всем юзерам. Все что нужно – аккаунт Google 🥳
Напоминаем, что сейчас Gemini 2.5 Pro занимает первое место во всех номинациях на арене (с отрывом), бьет на кодинге o1, o3-mini и Sonnet 3.7. А еще она мультимодальная и контекст у нее – миллион (!) токенов.
В своём телеграм-канале я стараюсь публиковать эти самые новости раньше всех. А ещё регулярно даю глубокую аналитику по отрасли и всем событиям, рассказываю как создавать собственных ИИ-агентов и приложения с ИИ. И много других интересных непотребств. Велком!
📌 Сохраняем самые интересные нейросети за неделю, которые вы могли пропустить.
• InfiniteYou — вышла нейросеть для создания дипфейков от Bytedance; • Venice — новый приватный чат-бот; • Riffusion — выкатили бесплатную бета-версию обновленного генератора треков; • G-Assist — вышел ИИ-помощник для геймеров от Nvidia; • ChatGPT — круто прокачался генератор изображений; • Gemini 2.5 Pro — новая думающая модель от Google; • Ideogram 3.0 — обновленная нейросеть для генерации изображений; • Qwen — в чат-бот завезли голосовой режим и видеочат; • Pika — добавили видеоэффект для селфи с собой в детстве; • Ghibli Anime Maker — приложение для превращения фото в аниме в стиле Ghibli.
В своём телеграм-канале я стараюсь публиковать эти самые новости раньше всех. А ещё регулярно даю глубокую аналитику по отрасли и всем событиям, рассказываю как создавать собственных ИИ-агентов и приложения с ИИ. И много других интересных непотребств. Велком!
Думал написать большую классную статью по кейсам с новым генератором картинок в ChatGPT. И рассказать, как экономлю часы работы себе как продуктовый дизайнер
Но в процесса написания статьи получился еще и такой пост, который больше про мои наблюдения за AI трендом, чем про что-то конкретное
Сгенерено за 10 минут вместе с ChatGPT
Я часто бываю на митапах, рабочих созвонах и сижу в профильных чатах. Смотрю на дизайнеров, аналитиков, продактов и разработчиков — основное моё окружение — многие вообще не инвестируют в AI. Ни временем, ни вниманием, ни деньгами. И мало у кого поменялся подход к работе за последние пол года. Это не плохо, но мне интересно понять, почему так 🤨
Основная часть населения планеты застала 3 технологические революции ⏺ Компьютеры ⏺ Интернет ⏺ Смартфоны
Но ни одна из них не была настолько быстрой и всеобъемлющей
То, чему многие учатся несколько лет и думают, что этот навык будет кормить их еще 30 лет — теперь делается нейросетью за 10 минут. В моем окружении есть дизайнеры, проджекты и разработчики, которых можно спокойно заменить парой промптов уже сейчас.
AI-powered сотрудники будут в разы конкурентоспособнее 👨💻
Я предполагаю, что в 2025 году произойдет разделение на 10% тех, кто использует AI в своей работе и делают за день то, на что раньше уходила неделя.
И 90% тех, чей труд будет стоить дороже и выполняться значительно медленнее, чем сделанный AI. Соответственно, нанимать таких людей будет просто незачем
А что делать то?
Учиться. Много и быстро. Пробовать все подряд 🫂
Даже самые влиятельные люди в AI не знают, что выстрелит и как надо. Они скупают доли во всех AI стартапах. Что Sam Altman со своим OpenAI Startup Fund, что Microsoft, что Nvidia. Все инвестируют во все подряд, потому что никто не знает, что сработает а что нет
Про мой опыт
У меня уже нет интереса делать те задачи, которые я делал последние 5 лет Зачем работать «по-старому», если через пару месяцев еще одну профессию оптимизируют. А затем еще одну и еще одну
• Зачем дальше изучать дизайн, когда я уже большую часть делегирую ИИ • Зачем детально изучать программирование, когда LLMки справляются или будут справляться с этим лучше • Зачем изучать другие языки, когда скоро появится real time translator • Зачем изучать 3д, когда... ну вы поняли
Из прикладных навыков я все больше времени стараюсь инвестировать в метанавыки
Сейчас 90% своего рабочего времени я изучаю 🔵 AI и кейсы использования 🔵 Автоматизация моих процессов 🔵 Создание продукта как solopreneur 🔵 Создание продукта и маркетинг без инвестиций и большой команды 🔵 Выстраивание личного бренда В планах — заботать vibe coding 💻
Каждый день у меня уходит по 3–4 часа на взаимодействие с разными видами AI Я переучиваюсь, ищу новые подходы и меняю привычки. Пока не понимаю, куда это всё приведёт, но и оставаться в старой модели мышления мне было бы страшно
Одна из самых опасных мыслей для меня сейчас это «ну через пол года разберусь с AI, пока нет времени на это 🗿»
Я для себя решил воспринимать AI как новую префронтальную кору 🧠 И также, как ее развитие миллионы лет назад отделило нас от животных Так и навыки работы с AI разделят людей на два лагеря
Петля времени в пайплайне для уменьшения числа галлюцинаций в LLM
Это — грубая схема работа RAG-пайплайна, который использует одна из ML-команд в YADRO.
Задача команды: улучшить качество выдаваемых ответов на запросы пользователей, исключив галлюцинации.
Что сделали инженеры?
Решили дообучить базовую модель при помощи LoRA на специально собранном датасете для ситуаций, когда в контексте нет ответа на вопрос пользователя. На тот момент в качестве базовой модели LLM использовали saiga_mistral_7b, которая нетребовательна к ресурсам и долгое время была в топе на Russian SuperGLUE. Есть модели лучше, но, как правило, они либо огромные, либо имеют проблемы с лицензией в России, в том числе все, что основаны на LLaMa.
Самое главное: в этом RAG-пайплайне ML-инженеры решили сделать опциональную петлю, в которой проверяли бы каждый найденный фрагмент контекста на релевантность вопросу пользователя. Только те куски контекста, которые пройдут проверку, будут попадать в финальный вопрос для LLM.
Чтобы петля фильтрации работала правильно, нужен некий маркер, который позволяет однозначно определить, что модель считает кусок контекста нерелевантным.
Что это и за маркер? И к каким результатам привела оптимизация работы модели, читайте по ссылке →
Спойлер: Модель DeepSeek-R1-Distill-Qwen-7B уступила saiga_mistral_7b по качеству, несмотря на то, что первая намного новее и вооружена механизмом reasoning.
Каждую неделю появляются новости о мошенниках, которые с помощью подделанного голоса крадут деньги. Но если спросить: «Как именно они это делают?», в СМИ чаще всего встречаются общие фразы вроде «используют ИИ». [1][2][3][4]
Многих устраивает такой ответ, но давайте все-таки разберемся, как именно происходит эта "подделка"?
В 2022 году, на 5-м курсе, я писал научно-исследовательскую работу (НИР) на тему «Атаки на систему верификации диктора по голосу».
Мне дали экспериментальную систему верификации диктора по голосу (СВДГ), и задача была проста: сгенерировать образцы аудио, которые обманут эту систему.
После долгих поисков я наткнулся на проект DiffVC— реализацию диффузионной модели для преобразования голоса. Этот код выложили в открытый доступ буквально за несколько дней до начала моей работы, что было особенно ценно, так как тогда это была действительно передовая технология.
Как это работает (если упростить)? 1. Берем два аудиофайла: - Голос А (человек 1 говорит фразу X) - Голос B (человек 2 говорит фразу Y) 2. Подаем их в модель 3. На выходе получаем аудио, где человек 1 говорит фразу Y голосом человека 2
Генерация одной записи занимала ~10 секунд (на слабом железе), а качество было почти неотличимо от оригинала — никакого «робоголоса» или шумов.
Эксперимент Я сгенерировал несколько образцов и прогнал их через СВДГ. Результат: ✅ 21,7% успешных атак (из 2256 тестов).
До этого (из предыдущих научных работ, которые я изучал) другие методы давали максимум 5% успешных атак. Cтало ясно, что подделка голоса скоро станет массовой.
Таким образом, аудио и видео по умолчанию уже нельзя считать достоверными, а способы их подделки с каждым годом сильно дешевеют и довольно просты в реализации.
Если кому-то интересно, то полный текст работы закинул в комментарии к соответствующему посту в своем авторском Telegram-канале! .
Рассказываем, какие темы ждут вас на конференции GoCloud 2025 ☁️
Сегодня разработка ML-моделей требует не только мощной инфраструктуры, но и удобных инструментов для экспериментов, развертывания и масштабирования решений. В своем докладе я расскажу, как новые продукты AI Factory нашей платформы Cloud.ru Evolution помогают ML-инженерам и исследователям работать быстрее, эффективнее и проще.
Приходите послушать доклад, чтобы узнать:
как эффективно использовать вычислительные ресурсы и динамически управлять нагрузкой на GPU;
какие инструменты будут доступны для адаптации моделей, чтобы ускорить вывод решений в продакшн;
как сделать мощные ML-технологии доступными не только разработчикам, но и обычным пользователям без глубоких знаний в коде.
Дмитрий Юдин — технический лидер по развитию искусственного интеллекта в Cloud.ru
Трек: AI & ML — про будущее искусственного интеллекта, опыт работы с AI-инструментами и продукты, меняющие индустрию.
OpenAI только что показали ОГРОМНУЮ обнову для GPT-4o.
Всё самое интересное:
— Может редачить изображения; — Модель научилась САМА генерировать изображения — качество лучше Midjourney, особенно текст на картинках (гляньте на коктейли); — ChatGPT теперь может генерировать видео через Sora; — Видосы можно генерировать даже если у вас нет подписки. Дают ~3 видео в сутки; — Может миксовать кучу разных изображений (или отдельных объектов из них) в одну фотку! — УДАЛЯЕТ ФОН! — Качество в разы лучше, чем у конкурентов.
В своём телеграм-канале я стараюсь публиковать эти самые новости раньше всех. А ещё регулярно даю глубокую аналитику по отрасли и всем событиям, рассказываю как создавать собственных ИИ-агентов и приложения с ИИ. И много других интересных непотребств. Велком!
Вот чем хорош текущий ИИ: пришла мне ночью в голову "гениальная" идея: "Что, если наблюдаемая вселенная расширяется, потому что находится на краю огромной черной дыры, а не из-за темной энергии?". Моих познаний в физике не достаточно, чтобы привести аргументы или контраргументы, кроме того, что эфыект может быть похож. Но идея зудит. Раньше бы пошел это с кем то обсуждать, а тут закинул ИИ - и он сразу выдал и тех, кто ранее уже предлагал эту идею, и аргументы, почему это не так. Я так обрадовался, что написал этот пост)
👍 Google выпустила экспериментальную Gemini 2.5 Pro.
Новая думающая модель взлетела на 1 место в LMArena, обходя конкурентов в кодировании, математике и науке. По бенчмаркам опережает o3-mini, GPT-4.5, Claude 3.7 Sonnet и Grok 3. Контекст — до 1М токенов, в будущем завезут 2М.
В своём телеграм-канале я стараюсь публиковать эти самые новости раньше всех. А ещё регулярно даю глубокую аналитику по отрасли и всем событиям, рассказываю как создавать собственных ИИ-агентов и приложения с ИИ. И много других интересных непотребств. Велком!
Что такое метод дистилляции знаний? Рассказывают наши коллеги из лаборатории искусственного интеллекта. #нейрословарь
В сфере искусственного интеллекта используются разные методы оптимизации нейросетей. Среди них метод KD (knowledge distillation) часто применяется для переноса «знаний» от более сложной модели (учителя) к более простой (ученику).
Идея дистилляции знаний в том, чтобы научить упрощённую модель не только предсказывать верные классы, но и подражать поведению «учителя». Особенно это востребовано для смартфонов, интернета вещей (IoT) и граничных вычислений (edge-computing), словом — везде, где нужно «добавить нейронку» на слабое железо.
При обучении «ученика» используются как мягкие, так и жёсткие цели (one-hot метки как в обычном обучении). «Мягкие цели» содержат больше информации, чем простые метки классов. Они показывают не только какой класс правильный, но и как учитель воспринимает другие классы, какие из них считает более вероятными.
Для этого на стороне «учителя» увеличивается гиперпараметр «температура». Он смягчает распределение вероятностей классов, выдаваемое функцией softmax, в результате чего вероятности неправильных классов заметнее отличаются друг от друга.
Оба типа целей учитывает комбинированная функция потерь. Она вычисляет потерю дистилляции (разницу между предсказаниями ученика и мягкими целями учителя), а также стандартную кросс-энтропию (степень несоответствия предсказаний ученика жёсткими метками классов).
Есть три разновидности KD:
оффлайн — учитель обучается без взаимодействия с учеником, а затем генерирует ему мягкие цели;
онлайн — учитель и ученик обучаются параллельно, чтобы адаптироваться друг к другу;
cамодистилляция — модель учит сама себя. Одни слои сети играют роль «учителя» для других слоёв.
Модели, обученные с помощью дистилляции, обычно достигают лучшей точности и обобщающей способности, чем такие же модели, обученные только на жёстких метках классов с нуля.
Также дистилляция знаний используется для сжатия. Она позволяет создавать более компактные модели, которые занимают меньше места в памяти и работают быстрее. В частности, так создавались облегчённые версии больших языковых моделей (LLMs), включая BERT () и DeepSeek.