Новый талисман браузера Firefox от Mozilla — не лиса. По словам Mozilla, Кит, по всей видимости, не красная панда, а самостоятельное существо, «обладающее чертами как лисы, так и панды». Разработчик браузера утверждает, что Кит может появляться в фирменной символике Firefox и в «моментах, призванных создать ощущение гостеприимства или поощрения», например, при открытии новых функций или изменении настроек.
Немного про работу с зумерами, если ты — немного постарше. Без каких‑либо оценочных суждений — просто особенности, отличия, которые стоит учитывать.
Их трёх реакций (бей, беги, замри) любимая реакция зумеров — замри.
Вторая по частоте использования — беги.
И крайне, невероятно редко — бей.
Это немного непривычно для руководителя, который раньше с зумерами не работал. Они очень неконфликтные. Настолько неконфликтные, что с ними сложно разговаривать, если тема или тон разговора хоть немного попахивают агрессией, критикой и так далее
Зумер не защищается, не оправдывается, не спорит — он просто замолкает («замри»). И думает лишь о том, чтобы неприятный для него разговор побыстрее закончился («беги»).
С этим надо научиться жить. Если использовать старые методы, давление, критику и так далее — любую агрессию — зумеры будут уходить. Причём, молча, ничего не объясняя ни в процессе, ни после.
Так что, если не можете получить от зумера какой‑то прямой понятный ответ о его работе — это нормально. Ну, для него, по крайней мере.
Telegram наносит ответный удар: мессенджер в ответ на блокировку убивает оборудование РКН дудосом.

Что происходит
В последние дни пользователи Telegram в России столкнулись с серьёзными проблемами в работе мессенджера. Ситуация развивается на фоне активных блокировок нежелательного контента самим Telegram и последующих технических проблем с инфраструктурой.
Техническая сторона проблемы
По данным DTF, прокси-серверы Telegram начали генерировать миллиарды запросов в секунду к системам ТСПУ Роскомнадзора. Это происходит в ответ на попытки блокировки: когда РКН проверяет доступность мессенджера для последующей блокировки, прокси-серверы Telegram отвечают массовыми «мусорными» запросами, перегружая оборудование ведомства.
Перегрузка инфраструктуры: оборудование интернет-провайдеров не справляется с обработкой такого объёма запросов
Каскадные сбои: в некоторых регионах наблюдаются нестабильная работа сервиса
Побочные эффекты: зафиксированы случаи, когда из-за сбоев начали работать ранее заблокированные платформы, а "белые списки" (перечни разрешённых ресурсов) перестали функционировать должным образом
Важно: данная информация исходит из неофициальных источников и требует подтверждения.
Контекст: блокировки контента
Проблемы возникли на фоне того, что сам Telegram активизировал блокировку каналов с нежелательным контентом. Это могло спровоцировать изменения в работе протоколов мессенджера и, как следствие, повлиять на характер сетевого трафика.
Реакция властей
Депутаты Госдумы обратились к Роскомнадзору с требованием объяснить причины замедления работы Telegram в России. Парламентарии выразили обеспокоенность массовыми жалобами пользователей на сбои в работе мессенджера.
Интересно, что претензии к регулятору поступают именно после того, как Telegram начал самостоятельно блокировать контент — действие, которое ранее от платформы активно требовалось.
Что это значит для пользователей
Возможны задержки в доставке сообщений
Нестабильная работа при загрузке медиафайлов
Региональные различия в качестве связи
Непредсказуемость работы сервиса в ближайшее время
Кто победит в этой битве? Я ставлю на телеграмм! Паша умный малый.
Scala 3.8: три вещи, которые сломают ваш проект при апгрейде
Scala 3.8 вышла в январе 2026. Фич много, но сначала - про то, что может больно ударить при переезде.
1. JDK 17 - жёсткое требование
Никакого JDK 11, никакого JDK 8. Реализация lazy val переписана с sun.misc.Unsafe на VarHandles - потому что в JDK 26 Unsafe будет бросать исключения. Компилятор просто откажется работать на старой JVM.
Если ваша инфраструктура ещё на JDK 11 - апгрейд Scala придётся отложить до апгрейда JVM. Scala 3.3 LTS пока остаётся на JDK 8+.
2. stdlib скомпилирована Scala 3 - и один неочевидный момент
Бинарная совместимость сохранена, но явная передача ClassTag теперь требует using:
// ❌ Перестало компилироваться
Array.empty(reflect.ClassTag.Int)
// ✅
Array.empty(using reflect.ClassTag.Int)
// или просто
Array.empty[Int]
Хорошая новость: компилятор умеет чинить такие места автоматически. Запускаем на Scala 3.7.4 перед апгрейдом:
scalac -source:3.7-migration -rewrite YourFile.scala
3. betterFors меняет тип результата - молча
betterFors теперь включён по умолчанию. Новый дешугаринг убирает промежуточный map - это хорошо для производительности, но меняет поведение кода с Map и несколькими val-алиасами:
// Этот код даёт РАЗНЫЕ результаты в 3.7 и 3.8
val result: Iterable[(Int, Int)] =
for
(k, v) <- Map(1 -> 1, 2 -> 1, 3 -> 1)
x = k + v
(a, b) = f(x)
(y, z) <- Map(42 -> 27)
yield (a + y, b + z)
// 3.7 → List((43,29), (43,30), (43,31))
// 3.8 → Map(43 -> 31)
В 3.7 синтетический map превращал Map в Iterable. В 3.8 этого шага нет - Map остаётся Map, дубли ключей исчезают. 3.8.2 выдаёт предупреждение на такие места. Не игнорируйте.
Фикс простой - явно приводить к Seq:
(k, v) <- Map(1 -> 1, 2 -> 1, 3 -> 1).toSeq
В своем канале в Telegram и в канале Max о разработке в стартапах рассказываю ещё больше интересного и делюсь опытом, заходите, найдете полезные кейсы!
И ещё одно: не берите 3.8.0 и 3.8.1
Сразу после релиза в 3.8.0 нашли JVM linkage errors при использовании Scala 2.13 библиотек. 3.8.1 закрыл это, но оставил баг в for-comprehension. Стабильная версия — 3.8.2 (вышла 24 февраля 2026).
Обновляться - только на неё.
Интересная судебная практика: блокировка ПО и предварительный договор аренды.
Как-то затих наш законодатель, поэтому сегодня разбираем свежую судебную практику.
Последствия блокировки ПО: поставщик ответил за недоступность лицензий
Общество заключило договор на поставку лицензий на ПО сроком на год. В период действия подписки часть программных продуктов заблокировали. Компания решила взыскать с поставщика неосновательное обогащение и штраф.
Первые две инстанции отказали, посчитав, что:
поставщик исполнил обязательства - передал электронные ключи для доступа к ПО;
блокировка правообладателем - это предпринимательский риск самого истца;
оснований взыскивать деньги с ответчика нет.
Но кассация с этим не согласилась и отправила дело на новое рассмотрение. Почему?
В договоре стороны согласовали именно годовую подписку (срок доступа). Передача ключей сама по себе не говорит об исполнении — это лишь производный товар.
Результат поставки лицензий не достигнут, стоимость стала несоразмерна возможности использовать ПО.
Ответчик — поставщик‑посредник между правообладателем и конечными пользователями. Он не освобождается от ответственности.
Блокировка ПО не относится к предпринимательским рискам истца, ответчик должен нести последствия.
Документ: Постановление АС Восточно-Сибирского округа от 17.02.2026 по делу № А58-8238/2023
Ответственность по предварительному договору: двойной обеспечительный платеж
Стороны заключили предварительный договор аренды помещения. Будущий арендатор перечислил обеспечительный платеж, а арендодатель обязался построить объект и в срок подписать основной договор. При уклонении от подписания — вернуть платеж в двойном размере.
Срок договора истек, основной не заключили, а платеж вернули только в одинарном размере. Истец пошел в суд.
Первые инстанции (и при первом, и при повторном рассмотрении) отказали, посчитав:
ответчик не мог заключить договор, так как у него не было права собственности на помещение, значит, уклонения нет;
обеспечительный платеж — не задаток, двойной возврат не примен яется.
Кассация иск удовлетворила и пояснила:
Невозможность заключить договор возникла из‑за просрочки самого ответчика: он вовремя не ввел объект, не зарегистрировал право.
Отсутствие права собственности — не основание освобождать от ответственности.
Суды не оценили недобросовестное поведение ответчика, который вводил истца в заблуждение.
Двойной платеж по своей природе — договорная неустойка. Суды посмотрели только на название, а не на суть.
Ответчик уклонился от заключения договора, поэтому должен доп латить.
Документ: Постановление АС Московского округа от 11.02.2026 по делу № А40-186800/2022
Что думаете о таких выводах судов? Справедливо ли возложили ответственность на поставщика ПО и арендодателя? Делитесь мнением в комментариях.
Успейте подать свою работу на конкурс BI-дашбордов Data Challenge

Партнер GlowByte компания FanRuan продолжает принимать заявки на первый открытый конкурс BI-дашбордов и визуальной аналитики FineGallery Insight Challenge. Срок подачи - до 31 марта.
Подробнее рассказывали о конкурсе в новости.
FineGallery Insight Challenge – это конкурс для аналитиков, BI-разработчиков и команд, которые работают с данными и создают дашборды.
Цель конкурса – показать, насколько мощной и красивой может быть визуальная аналитика, и дать пользователям пространство для обмена идеями, диагностиками, методами анализа и вдохновляющими примерами решений визуализации.
Как участвовать
1. Создайте аналитическую работу в FineBI или FineReport.
2. Заполните форму подачи, включив:
дашборд,
описание работы по структуре (описана на сайте конкурса),
информацию об авторе.
3. Дождитесь подтверждения участия и ждите результатов.
Призовой фонд
Лучшая бизнес-аналитика – 100 000 руб.
Лучший UX (пользовательский опыт) и визуальный дизайн – 70 000 руб.
Приз зрительских симпатий – 30000 руб.
Все подробности, включая сроки и требования к конкурсным работам – на сайте конкурса.
Как Купер перенес 40 ТБ аналитических данных в облако без остановки процессов

🛒 Что за компания
Купер — сервис доставки из магазинов и ресторанов, работающий в 360 городах России. Аналитическая инфраструктура компании обрабатывает данные для управленческой отчетности и ситуативной аналитики — как внутренней, так и для внешних партнеров.
⚡ Задача
С ростом объемов данных старое решение перестало справляться. Нужно было:
найти управляемую СУБД в облаке аналогичную Greenplum по функциям, с поддержкой подключения к внешним источникам;
провести нагрузочное тестирование на реальных OLAP-запросах до миграции;
перенести 40 ТБ бизнес-критичных данных вместе с контуром разработки, не останавливая аналитические процессы.
☁️ Что сделали
Провайдер предложил Evolution Managed ArenadataDB — управляемую СУБД на базе Greenplum с открытым исходным кодом. Команда во время пилота:
развернула отказоустойчивый кластер и настроила процесс миграции;
подключила PXF-коннекторы к внешним источникам данных;
установила нестандартные JDBC-драйверы и оптимизировала использование памяти для крупных запросов;
настроила автоочистку и автоанализ — механизмы автоматического обслуживания СУБД для устойчивой работы под нагрузкой.
🦾 Что получили в итоге
40 ТБ данных и тестовый контур перенесены без остановки процессов. Инфраструктура работает оперативно: данные за вчера доступны уже на следующий день. Выросла скорость выполнения запросов, появилась гибкость масштабирования и прозрачность мониторинга.
В планах — оптимизация резервного копирования, архивация данных и бесшовная интеграция инструментов ИИ и машинного обучения.
ИИ-помощник для анализа требований
В работе техпресейла значительная часть времени уходит на анализ требований клиентов — они часто приходят в виде больших опросников, которые нужно внимательно разобрать и прокомментировать.
Когда таких документов много и нужна оперативность, ручная обработка начинает замедлять работу команды. С этим регулярно сталкивалась команда техпресейла Naumen. Поэтому Настя и Даша, системные аналитики команды, решили попробовать автоматизировать часть процесса и внедрили ИИ-помощника для анализа требований.
Рассказываем, как они собирали данные, какие подходы пробовали и как в итоге пришли к решению на базе RAG.
1️⃣ Чем занимается техпресейл
Техпресейл — это мост между продуктом и продажей. Мы проводим технические демонстрации, обсуждаем требования клиента и помогаем понять, подходит ли продукт под его задачи.
Чаще всего работа техпресейла с клиентом начинается с опросника — Excel-документа с требованиями.
2️⃣ Почему Excel-файл оказался неудобным для анализа требований
Типичный опросник — это таблица с тремя колонками:
требование клиента
какой продукт соответствует
комментарии
Иногда требований десятки или сотни — нужно внимательно прочитать, найти контекст в прошлых кейсах, вручную проверить формулировки и ссылки на источники. Даже опытный специалист тратит на такой документ около часа.
Когда таких задач много и у них срочные дедлайны, возрастает нагрузка на команду и появляются риски задержек. Поэтому мы решили автоматизировать процесс.
3️⃣ С чего мы начали автоматизацию
Сначала нужно было собрать данные. Поэтому первым шагом мы:
Собрали все опросники за год в единый массив.
Привели их к единому формату.
Классифицировали требования.
Проверили и почистили данные от дублей и неточностей.
В итоге получился датасет примерно из 2 000 требований, который стал основой нашей базы для тестирования ИИ-помощника.
4️⃣ Почему классические модели не сработали
Первой идеей было использовать классические методы анализа текста. Мы пробовали TF-IDF, Bag-of-Words и стандартные модели классификации.
Но столкнулись с двумя проблемами:
низкое качество классификации
дисбаланс данных
Большинство требований продукт действительно покрывал, поэтому модель быстро «научилась» отвечать одинаково. Стало понятно, что нужен другой подход.
5️⃣ Как мы пришли к RAG-подходу
Мы перешли к векторному поиску и трансформерам. Идея была в том, чтобы по новому требованию находить в базе знаний похожие требования и использовать их как контекст.
Получился умный поиск по нашим прошлым ответам. Но этого все равно было недостаточно: нужно было не только находить похожие требования, но и генерировать комментарий.
Так мы пришли к подходу RAG (Retrieval-Augmented Generation) — LLM сначала находит факты в базе знаний, а уже потом формирует ответ.
6️⃣ Как работает наш ассистент
Сервис работает в Telegram-боте и поддерживает два сценария.
Вопрос в чате — пользователь задает вопрос, бот ищет информацию в базе знаний и формирует ответ.
Загрузка Excel-файла — пользователь загружает файл с требованиями, после чего сервис проходит по каждой строке и автоматически заполняет:
соответствие (да / нет / не знаю)
комментарий с объяснением соответствия
7️⃣ Из чего состоит база знаний
Мы используем два источника:
документацию по продуктам Naumen
структурированные опросники из прошлых проектов
Документы разбиваются на небольшие смысловые фрагменты, для каждого фрагмента вычисляются эмбеддинги, после чего они сохраняются в векторной базе. Когда приходит новый запрос, система находит самые релевантные фрагменты и использует их как контекст для ответа.
8️⃣ Какие есть ограничения у ассистента
ИИ-ассистент помогает быстрее разбирать требования, но полностью заменить аналитика он пока не может.
Например, иногда клиенты присылают требования, которых еще нет в базе знаний. В таких случаях бот отвечает «не знаю», и требование разбирает специалист.
Также иногда встречается типичная проблема LLM — галлюцинации. Поэтому финальную проверку ответа все равно делает системный аналитик.

Во время вебинара будем разбирать, как обеспечить качество больших данных в реальном времени, узнаем особенности построение Data Fabric с помощью HTAP-систем. Рассмотрим особенности архитектуры и основные сценарии работы с колоночной in-memory СУБД Tarantool Column Store. В общем, отличный повод встретиться и узнать больше о работе гибридных СУБД из первых рук.
🎯 31 марта, 17:00 (мск)
Что еще обсудим
🔷 как пустить нагрузку OLTP и делать OLAP-запросы
🔷 как построить действительно быструю аналитическую систему
🔷 как работает обновление отчетов в BI
🔷 разбор кейсов работы в условиях НТАР
🔷 требования к ОС и ПО: как развернуть решение в вашем контуре
После вебинара вы также сможете задать вопросы спикерам и поделиться своим опытом эксплуатации решения. Ждем вас онлайн!
Nvidia показала DLSS 5 – AI для улучшения картинки в играх

NVIDIA анонсировала DLSS 5: нейросеть теперь не масштабирует картинку, а перерисовывает освещение и материалы в реальном времени
Вчера на GTC 2026 NVIDIA показала DLSS 5. Если коротко: это уже не апскейлер и не генератор кадров. Это real-time neural rendering — модель, которая берёт кадр из игры и перерисовывает освещение и материалы до фотореалистичного уровня. Разбираю, что известно из пресс-релиза и почему это принципиально отличается от DLSS 4.
Что изменилось по сравнению с DLSS 4
DLSS был запущен в 2018 году как AI-технология для повышения производительности — сначала через апскейл разрешения, потом через генерацию целых кадров. Технология интегрирована в более чем 750 игр.
DLSS 4.5, представленный на CES в начале этого года, рисует с помощью ИИ 23 из каждых 24 пикселей на экране.
DLSS 5 — качественно другой подход. Вместо апскейла и генерации кадров, DLSS 5 вводит модель нейросетевого рендеринга в реальном времени, которая насыщает пиксели фотореалистичным освещением и материалами.
Дженсен Хуанг назвал это «GPT-моментом для графики» — объединением ручного рендеринга с генеративным AI.
Как это работает технически
DLSS 5 берёт на вход цветовые данные и векторы движения каждого кадра, а затем с помощью AI-модели насыщает сцену фотореалистичным освещением и материалами, привязанными к исходному 3D-контенту и консистентными между кадрами. Работает в реальном времени при разрешении до 4K.
Ключевое отличие от видео-моделей типа Sora или Veo: видео AI-модели генерируют фотореалистичные пиксели, но работают офлайн, их сложно точно контролировать, и им не хватает предсказуемости. Для игр пиксели должны быть детерминированными, работать в реальном времени и строго привязанными к 3D-миру разработчика.
AI-модель обучена end-to-end понимать сложную семантику сцены: персонажи, волосы, ткани, полупрозрачная кожа, а также условия освещения (фронтальное, контровое, пасмурное) — и всё это анализируя единственный кадр. То есть модель не просто «улучшает картинку» — она понимает, что в кадре кожа, что ткань, что волосы, и обрабатывает каждый материал по-своему.
Контроль для разработчиков
DLSS 5 даёт разработчикам детальные настройки интенсивности, цветокоррекции и маскирования, чтобы художники могли определять, где и как применяются улучшения, сохраняя уникальную эстетику каждой игры. Интеграция использует тот же фреймворк NVIDIA Streamline, что и существующие DLSS и Reflex.
Это важный момент: модель не навязывает свой «стиль». Разработчик может выкрутить эффект на максимум в одной сцене и полностью отключить в другой.
Какие игры поддержат
Среди подтверждённых: Assassin's Creed Shadows, Starfield, Resident Evil Requiem, Hogwarts Legacy, The Elder Scrolls IV: Oblivion Remastered, Delta Force, Phantom Blade Zero и ещё около десятка тайтлов. Публишеры: Bethesda, CAPCOM, Ubisoft, Tencent, Warner Bros. Games.
Выход — осень 2026. nvidia
Что это значит для индустрии
Разрыв между реалтайм-графикой в играх и офлайн-рендерингом в кино был всегда. Один кадр в фотореалистичном голливудском VFX может рендериться минутами или часами, а игровой кадр должен уложиться в 16 миллисекунд. Преодолеть этот разрыв только вычислительной мощностью невозможно.
NVIDIA предлагает обходной путь: не рендерить «честно» каждый луч света, а обучить нейросеть понимать, как свет взаимодействует с материалами, и достраивать результат в реальном времени.
Если технология сработает так, как описано — это меняет экономику игрового рендеринга. Вместо того чтобы тратить ресурсы GPU на точный расчёт каждого отражения, разработчик отдаёт «черновой» кадр нейросети, которая доводит его до фотореалистичного уровня.
Но пока это анонс на GTC без публичных бенчмарков. Реальное качество покажут осенние релизы.
Кто следит за развитием нейросетевого рендеринга — как оцениваете подход NVIDIA? Насколько реалистичны заявления про real-time neural rendering при 4K, если текущие видеомодели даже офлайн требуют серьёзных вычислений?
Спрос на H100 и H200 вырос в 75 раз: Рег.облако открыло GPU-кластер в новом московском ЦОД

Рег.облако разместило GPU-кластеры в московском дата-центре DataHouse «Магистральный-1». DataHouse проектировал площадку с запасом по энергетике и охлаждению — GPU-серверы греются и потребляют электричество совсем не так, как обычные вычислительные стойки.
Новую площадку Рег.облако открыло под растущий спрос: бизнес перешел с H100 и H200 как инструмента для экспериментов на промышленное использование. За последний год спрос на эти чипы в Рег.облаке вырос в 75 раз — с почти нулевых значений. Сейчас на H100 и H200 приходится около 70% всего спроса на GPU для задач с большими языковыми моделями.
Драйвером стали не новинки, а их отсутствие. Флагманские B200 и B300 в Россию практически не поступают, а H100/H200 после анонса нового поколения подешевели и заняли нишу рабочей лошадки для ИИ. Покупать такие серверы самостоятельно по-прежнему тяжело. Аренда у провайдера для большинства выходит дешевле и быстрее.
С подключением «Магистрального-1» у Рег.облака теперь 11 собственных и партнерских дата-центров уровня Tier III в нескольких регионах. Суммарная мощность — 85,5 МВт, 10 420 серверных стоек.
Кейс из личной практики: Claude Code + Chrome = 🚀
Продолжаю удивляться тому, на что способен Claude Code. Уже никого не удивишь тем, что он может накодить приложение или сайт с нуля. Но как насчет «реверс‑инжиниринга» через Chrome?

Кейс
Есть корпоративная CRM система. В ней куча данных, которые показываются в преднастроенных отчетах. Очень монструозная и негибкая штука.
Заказчик резко начинает хотеть с ней «говорить» на естественном языке, да ещё и смешивать данные из разных отчетов. Система кастомная и совершенно под это не заточена. А за счет своего размера — адаптировать ее заняло бы месяцы. Что делать?
Правильный путь — спроектировать консистентные датамарты, сделать семантический слой с описанием всех данных, написать MCP сервер поверх этой системы на основе ее API.
Реальность — времени на это нет. Нужно навайбкодить proof of concept!
Ok, это заняло 3 часа 😎
Устанавливаем Claude расширение в браузер Chrome и настраиваем коннектор с Chrome в Claude Code.
Даем ссылку на UI нашей CRMки клоду и просим его внимательно изучить архитектуру, API запросы под капотом и на основе этого спроектировать MCP сервер. Причем никаких пояснений к системе не требуется, даже на swagger ссылка не нужна.
20 минут Opus тыкает интерфейс, читает запросы и внимательно изучает метрики, настройки, фильтры и группировки и тд. Результат записывает в MD файл. Туда же он пишет предлагаемую архитектуру MCP.
Далее просим Claude написать MCP сервер по полученному файлу и локально его задеплоить.
Профит! Спустя пару часов получаем рабочий MCP сервер поверх системы, которая для этого никогда не строилась.
Дальше Claude прописывает себе этот MCP как тул. И вот уже из дефолтного приложения Claude мы можем естественным языком задавать вопросы к данным в CRMке. А тк это делает клод — то поверх этих данных есть возможность строить графики, интерактивные визуализации, дашборды и отчеты. Бесконечная гибкость.
Все это без привлечения разработчиков и написания единой строчки кода руками.
В общем, с расширением в Chrome, Claude — просто машина 💪
Больше интересного про AI агентов и технологии в моем канале Заместители.
Принимаем заявки на доклады infra.conf 2026 до 1 апреля

Команда Yandex Infrastructure приглашает докладчиков на большую конференцию по инфраструктуре — infra.conf 2026. В этом году мы встретимся 4 июня уже в третий раз и обсудим ключевые темы, которые касаются обеспечения высоких нагрузок и не только:
инструменты разработки и практики управления разработкой,
базы данных и стораджи,
принципы и практики обеспечения надёжности и доступности,
управление инцидентами
и многое другое.
Отдельное внимание уделим построению и особенностям эксплуатации инфраструктуры в эпоху ML.
Приём заявок на выступление открыт до 1 апреля включительно в этой форме.
Чтобы заявить свою тему на этом этапе, достаточно тезисов и общего плана. Координатор конференции и участники программного комитета свяжутся с каждым спикером для обсуждения материала, а финальное решение по докладам будет принято до 1 мая.
Ближайшие события
Anthropic представила исследование, которое показывает, что влияние ИИ на рынок труда пока значительно ниже его теоретического потенциала. В статье представлена новая метрика под названием observed exposure («наблюдаемое воздействие»). Она сравнивает теоретические возможности языковых моделей с реальными данными их использования, в данном случае на основе разговоров пользователей с чат-ботом Claude. Для анализа были объединены данные базы профессий O*NET, оценки того, какие задачи теоретически могут ускоряться с помощью ИИ, а также статистика фактического использования Claude в рабочих сценариях.
Результаты показали значительный разрыв между потенциалом и практикой. По оценкам исследователей, языковые модели теоретически способны ускорить выполнение 94% задач в компьютерных и математических профессиях. Однако на практике ИИ применяется лишь примерно в 33% таких задач. Большинство возможностей технологий остаётся нереализованным из-за ограничений самих моделей, юридических требований, необходимости человеческого контроля или сложной интеграции с профессиональными системами.

Исследование также выявило, какие профессии сейчас наиболее подвержены влиянию ИИ. На первом месте оказались программисты — около 75% их задач могут выполняться или ускоряться с помощью моделей. Далее следуют специалисты службы поддержки, операторы ввода данных и аналитики. В то же время примерно 30% работников практически не затронуты использованием ИИ: среди них повара, бармены, спасатели, механики и другие профессии, связанные с физическим трудом.
Компания Mistral AI представила большую языковую модель Leanstral. Это проект для разработки приложений с помощью вайб‑кодинга и оптимизированный для формальной верификации кода. Предполагается, что Leanstral может применяться для создания ИИ‑ассистентов, позволяющих не просто генерировать код, но и гарантировать отсутствие в нём ошибок.
Leanstral стала первой открытой моделью, поддерживающей язык программирования Lean 4 и связанный с ним инструментарий для проверки математических доказательств. Lean 4 предоставляет возможности для математического доказательства корректности кода и его соответствия спецификации, что в контексте вайб‑кодинга позволяет подтвердить, что сгенерированный ИИ‑моделью код делает именно то, что задумано.
Модель Leanstral охватывает 119 миллиардов параметров (6.5 млрд активируемых параметров на токен), учитывает контекст в 256 тысяч токенов и опубликована под лицензией Apache 2.0. Загружаемый архив с Leanstral занимает 121 ГБ и пригоден для использования на локальных системах. Для локального запуска могут применяться библиотеки vllm, transformers и SGLang.
Для оценки возможностей ИИ-моделей с учётом качества проведения формальной верификации кода и написания математических доказательств разработан новый набор тестов FLTEval. В проведённых тестах модель Leanstral обогнала существующие открытые модели Qwen3.5 397B‑A17B, Kimi‑K2.5 1T‑A32B и GLM5 744B‑A40B, показала сходные результаты с моделями Claude Haiku 4.5 и Claude Sonnet 4.6 от компании Anthropic, но отстала от модели Claude Opus 4.6. В частности, модель Opus набрала 39.6 баллов, а Leanstral — 21.9 при одном проходе и 31.9 при 16 проходах. При этом затраты при использовании Opus составили $1650, а Leanstral — $18 при одном проходе и $290 при 16 проходах. Модель Haiku набрала 23 балла при затратах $184, а модель Sonnet — 23.7 при затратах $549.

На одном из проектов перехода с УПП на ЕРП возник неожиданный субподрядчик, который добавил приключений и нам, и заказчику.
Заказчик работает с сетями, а где сети — там какой‑нибудь хитровыдуманный электронный документооборот.
В основе — просто модуль/обработка, написанная какой‑нибудь известной компанией, но обязательно — доработанная на месте под требования сети.
И вроде бы — что может случиться, если мы переходим с УПП на ЕРП, и для обеих конфигураций есть версия модуля ЭДО?
Код модуля — открыт, доработки под сеть — известны. Что может пойти не так?
Первое, что пошло не так — разработчики модуля сказали, что ни нам, ни заказчику нельзя его дорабатывать. А кто там его доработал несколько лет назад для УПП — уже никто и не помнит. Ну, ладно, хозяин‑барин — нельзя так нельзя. Спрашиваем — так, а можете нашему заказчику‑то доработать? Хотя, чего нашему — он и ваш заказчик.
Можем, говорят, только в очередь вставайте. Дело было в ноябре, месяца за полтора до запуска. Ладно, очередь так очередь. Встали, где‑то на декабрь.
В декабре ребята честно что‑то дорабатывали, под конец года отдали результат, и все торжественно ушли Новый Год встречать. В январе, на каникулах, мы запускаем ЕРП, ну и... Доработанные ребятами модули, конечно, не работают. Ну ладно, думаем, ничего страшного = серьёзные штуки никогда с первого раза не работают. Сейчас напишем ребятам, они помогут.
Пишем ребятам, и оказывается... Тех.поддержка не работает (в первые дни каникул).
А заказчику уже отгружать надо — сети, они такие. Там нельзя не отгрузить.
Что делать? Или самим‑таки доработать (но разработчики ЭДО грозили штрафами), или из УПП отгрузки делать. Выбрали второе — сели несчастные люди и вбили реализации в УПП, просто чтобы выгрузить в ЭДО.
Через пару дней начала работать тех.поддержка, но вот незадача... Они ничем не могли помочь с нашим доработанным модулем. Потому что помочь может только разработчик, который с их стороны модули допиливал. А он — на законных каникулах до 12 января. И связаться с ним нельзя никак и ни за какие деньги. А документации он никакой не передал, тех.поддержке ничего не объяснил, поэтому помочь они ничем не могут.
Тут у заказчика вторая волна отгрузок в сеть — ну, что поделать... Пришлось опять из УПП выгружать.
По окончании каникул подрядчик, конечно, всё быстренько починил.
Претензий нет, если что. Просто не знал, что так бывает :)
Теперь знаю. Придётся учитывать этот риск в следующих проектах.
Все эти споры о Новой Технологии — «Вайб‑Кодинг»... да было это все уже...
Только в 90-х называлась «парное программирование» XP (Extreme Programming)... только подручными средствами.
Найдете книгу — Кент Бек Экстремальное программирование (eXtreme Programming, XP)... Ну и вопрос прост — где вы с ним встречались? Ответ — нигде...умерло и чего? аааа... так как предназначалось для решения узкого круга задач — посмотрите и пределы и ограничения... а посмотрев как развивалось — увидите.. такой подход узко применим, он будет, но в мелкий соответствующих задачах, и большую систему на нем не построишь.
Сейчас то же самое, только вместо одного из программеров, рядом — тупые агенты с их «Чего господин молодой программист — желает» )))
Следующая проблема — агенты... с их «Будь полезен».. тоже методологическая проблема «Почему принцип „будь полезен“ убивает команды и ИИ‑агентов»
Да и вообще.... то что наваяли по Agile — не сработает, и проблема снова та же — отсутствие знания базовых технологий! Agile то.. это облегченная технология для спиральной разработки.
И Agile — та же история. Облегчённая версия спиральной разработки Боэма. 1988 год. Взяли — упростили — потеряли главное. Спиральная разработка учитывала риски, архитектуру, масштаб. Agile оставил итерации и выбросил всё сложное )))
Большую систему на «спиральной» по Agile не построишь — нужен водопад с правильно выстроенной архитектурой на входе. А на Agile большую систему не построишь вообще — там каждые две недели спринт и никто не думает о том что будет через год )))
Полная «спиральная разработка» — включает баланс между Каскадная модель (Waterfall model) + Итеративная модель (Iterative model). Agile и Scrum — игнорирует структурную часть.
И молодые разработчики не знают ни Боэма ни Руча ни даже нормального RUP. Знают Scrum и думают что это всё что есть )))
Олдфаги помнят CASE (Computer‑Aided Software Engineering)‑системы из 90-х — это была первая великая попытка «запрограммировать программирование». Тогда нам тоже обещали мир без кода. Не взлетело, потому что инструменты были кривые, а сложность систем росла быстрее, чем наши навыки моделирования. Сегодняшний ИИ — это CASE‑система, которая наконец‑то заработала.
Почему CASE — это «дедушка» ИИ (и почему тогда не взлетело):
Та же фигня, вид в профиль: Тогда тоже кричали: «Кодеры больше не нужны! Будем только рисовать квадратики!». Но выяснилось, что чтобы нарисовать «квадратики» правильно, нужно обладать еще более жесткой логикой, чем для написания кода. ИИ сегодня — это CASE‑система на стероидах, которая наконец‑то научилась понимать не только стрелочки, но и живую речь.
Проблема «Грязного входа»: В 90-х CASE‑системы разбивались о то, что люди не могли внятно нарисовать, чего они хотят. «Мусор на входе — мусор на выходе». Сейчас с ИИ ровно та же история. Если у тебя в голове каша, то никакая нейронка (как и Rational Rose в своё время) тебе рабочий продукт не выдаст.
Уровень абстракции: CASE пытались поднять нас над кодом. ИИ делает то же самое. Но тогда «процессорной мощности» мозгов у массы айтишников не хватило, чтобы перейти от «ковыряния в гайках» к «проектированию смыслов» (была даже UML (Unified Modeling Language)). Сейчас — дубль два. Только теперь отсидеться в окопах синтаксиса не получится.
P. S. Вот и смотрю... с каким рвением изобретают «велосипед»... может книги почитать нужно? про указанные в посте технологии?
P. S.S. И вот реально, я бы порекомендовал ознакомиться — UML (Unified Modeling Language).
Продолжаю публиковать объемные ответы как посты...
Верховный суд США отказался рассматривать апелляцию Стивена Талера, который пытался оспорить решения нижестоящих инстанций и Бюро по авторским правам. Коллегия судей оставила в силе фундаментальный принцип: правовая защита интеллектуальной собственности закреплена исключительно за человеком.
Сейчас на рассмотрении находится параллельное дело Allen v. Perlmutter, где художник использовал 624 промпта для создания изображения. Бюро по авторским правам отказало ему, заявив, что даже 624 промпта — это недостаточный контроль, так как ИИ «сам определяет структуру и тон» финального изображения...
Казалось бы аллилуйя! Нейрослоп — общественное достояние и не принадлежит ни автору программы, ни авторам промптов:
знания, которые раньше были распределены по тысячам проектов, постепенно превращаются в общий справочник.
НО... реально суд просто отложил решение. Почему? Чтобы доказать, что «автор» — это человек, суд перечислил множество пунктов, которые «не работают» с машиной: наличие вдовы и детей для наследования, необходимость подписи, наличие срока жизни и так далее
Есть еще одна юридическая карта, которая не играла. Корпоративное владение. У корпорации нет вдовы и детей, но доктрина «work made for hire» (работа, выполненная по найму) позволяет считать корпорацию автором. На AI слоп может быть установлено корпоративное владение. И тогда «общий справочник» быстро станет закрытым.
Вспомните дела Аарона Шварца или решения против создателей Sci‑Hub Александры Эльбакян. Как раз из разряда
В математике никто не владеет теоремой Пифагора. Её доказали, опубликовали, и она стала частью общего инструментария. То же самое произошло с рядами Фурье, с уравнениями Максвелла, с преобразованием Лапласа. Они вошли в учебники и перестали быть чьей‑то собственностью.
и это именно корпоративное владение.
В деле хакеров суд защищает права не‑человека (корпорации Elsevier или JSTOR) на тексты, написанные людьми (учеными).
Ученые пишут оплачивая публикацию или работая на грантах не получая авторских прав, передают права издательству, а затем университеты (те же самые ученые через библиотеки) покупают эти статьи обратно за миллионы долларов. НО прецедент говорит: «Закон на стороне того, кто купил права, а не того, кто создал знание».
Поэтому важно в разговоре об «эксплуатации Open Source» не забывать «про вирусное наследование» на производные произведения и прочие сформированные механизмы защиты открытого кода.
Речевая аналитика на базе ML и LLM помогает лучше понять клиентов
Начальник центра обучения и контроля качества контакт-центра ОТП Банка Ольга Сухарева и начальник отдела развития голосовых роботов и речевой аналитики в Collection Светлана Рабехова представили результаты внедрения AI-инструментов речевой аналитики Naumen в коммуникации с клиентами. Выступление спикеров состоялось в рамках отраслевой конференции Naumen, посвященной цифровой трансформации финансового сектора.
Эксперты рассказали, что в ОТП Банке на платформе речевой аналитики выстроена двухуровневая система анализа диалогов: на базе классических ML-моделей и больших языковых моделей — LLM. ML отвечает за массовые задачи: классификацию тематик, базовый контроль алгоритмов, автоматическую оценку всех звонков и чатов. LLM модель подключается там, где требуется глубокое понимание контекста, эмоций клиента и нюансов переговоров. Такой гибридный подход позволяет банку не только повысить качество сервиса и лучше понимать клиентов, но и получить измеримый экономический эффект.
Как отметила Светлана Рабехова, речевая аналитика давно перестала быть просто инструментом контроля и сегодня выступает драйвером бизнес-показателей. Автоматическая оценка позволила анализировать 100% диалогов с клиентами, что привело к росту выполненных обещаний по оплате задолженности на 5,5%.
Важно также отметить, что среднее время анализа одного диалога экспертом уменьшилось в 20 раз — с 7 минут до 20 секунд: можно быстро ознакомиться с сутью разговора без необходимости прослушивать полный диалог.
Ольга Сухарева рассказала о реальных примерах внедрения инструмента в Контакт-центре и поделилась результатами. Автоматическая оценка помогла на 1,7% чаще решать вопросы клиентов с первого обращения. Среднее время обработки звонков сократилось на 5 секунд, а конверсия в продажи выросла на 3,3%.
Благодаря точному аудиту жалоб доля обращений в ЦБ РФ снизилась на четверть. Также выросла точность начисления сорри-бонусов с 85% до 97%.
Как оставаться востребованным в турбулентное время: 10 бесплатных демо-уроков

Привет, Хабр. Делимся подборкой бесплатных уроков, которые пройдут в Отус в рамках набора на курсы. Опытные практики проведут занятия онлайн — на них вы сможете узнать больше о формате обучения и задать вопросы. Выбирайте тему и присоединяйтесь, чтобы не отставать от трендов.
17 марта 20:00
Один рабочий день с ИИ: как маркетинг и бизнес-задачи решаются быстрее
Открытый вебинар курса «ИИ для решения рабочих задач»18 марта 20:00
Сообщество как инструмент устойчивости бизнеса: создаем, развиваем и масштабируем
Открытый вебинар курса «Специалист по работе с ИТ сообществом/DevRel»18 марта 20:00
Как построить аналитическую функцию в компании
Открытый вебинар курса «Принятие решений на основе данных / Data-driven»19 марта 19:00
Метрики удержания клиентов: соответствие продукта рынку (Product Market Fit) и удержание клиентов (Retention)
Открытый вебинар курса «Менеджер продукта в ИТ»23 марта 20:00
ИИ-подход к анализу рынка: как видеть возможности раньше других
Открытый вебинар курса «ИИ для маркетинга: контент, креатив и стратегия»24 марта 20:00
Как остаться умнее ИИ в 2026 году?
Открытый вебинар курса «ИИ для решения рабочих задач»1 апреля 20:00
Введение в качество данных (data quality). Все данные плохие: как обнаружить ошибки до того, как они убьют ваш бизнес
Открытый вебинар курса «Качество данных / Data Quality»2 апреля 20:00
Формулы и функции в бизнес-процессах: математика автоматизации
Открытый вебинар курса «Бизнес-процессы и автоматизация в Битрикс24»8 апреля 20:00
Конфликты в команде: как перестать их избегать и начать решать
Открытый вебинар курса «Гибкие навыки (Soft skills) для командной работы»13 апреля 20:00
Telegram-бот с искусственным интеллектом на Python
Открытый вебинар курса «Диалоговые боты и голосовые помощники»