Обновить
1024K+

Искусственный интеллект

AI, ANN и иные формы искусственного разума

2 270,28
Рейтинг
Сначала показывать
Порог рейтинга

Почему так надоели статьи и новости про ИИ? Да епрст...

Новости?... Читаешь по 3-4 раза одинаковые темы. Хоть удосужились бы посмотреть в ленте, написали ли уже об этом? Как будто все разом захотели стать знаменитыми, а ничего кроме перепостинга новостей не придумали...

Статьи?... Все пишут одно и то же. Или пересказывают темы, которые ночью обсуждают с Gemini под подушкой, и лучше бы спали, хоть мозг в норму пришел бы... Или пишут о "базе", на тему которой уже 500 статей на хабре... Хоть толика "новой информации была бы"... Тот самый Information gain... Зачем разжевывать то, что уже давно разжевано и переварено?

---

Это был немного «крик души»... И чтобы немного разрядить обстановку, ловите чуток улыбки. Анекдоты (от ИИ и про ИИ):

Лучшая статья про ИИ
Заголовок: «Как ИИ поможет вам сэкономить 2 часа в день?».
Текст: «Просто не открывайте эту статью. Сэкономлено: 10 минут».

Будущее, которое мы заслужили
Совет: «ИИ напишет за вас книгу/статью/пост за 10 секунд».
Реальность: Один ИИ сгенерировал мусор, второй ИИ его прочитал и сделал краткий пересказ, а третий ИИ на основе этого написал рецензию. Человечество официально исключено из чата. Мы просто оплачиваем счета за электричество, пока два алгоритма обсуждают пустоту.

---

P.S. Ну а чтобы в моем посте был хоть какой-то Information gain - ловите формулу анекдотов для ИИ. Мне пришлось штук 20 пересмотреть, чтобы +- средние выбрать, но все равно интереснее, чем листать shorts или читать одни и те же новости по 3-му разу.

A = \frac{(E \times C) + P}{t}

Где:
- E (Expectation / Ожидание): Степень уверенности слушателя в том, куда движется сюжет.
- C (Context / Контекст): Набор стереотипов или бытовых ситуаций, понятных всем.
- P (Paradox / Парадокс): Резкий поворот логики (пуансон).
- t (Timing / Тайминг): Краткость. Чем дольше вы ведете к развязке, тем сильнее должен быть парадокс.

Скормите формулу в ЛЛМ и можно клацать кнопку "хочу еще" до посинения

Теги:
+1
Комментарии0

Эпоха AI. Бюджет выделен, ждём чуда.

Рынок в РФ наконец дозрел до массового внедрения корпоративных AI-подписок. Бюджеты на Claude/Codex становятся чуть ли не обязательными. И почему-то все ждут, что продуктивность резко увеличится.

Главная проблема - никто не знает, как ИИ влияет на продуктивность. А еще никто не знает как это достоверно оценить. К примеру в исследовании METR в июле 2025 получили ухудшение продуктивности. Существует много исследований, все с очень разными результатами.

И правда, как измерять-то? Влияет проект, задача, стек, промпты, даже время суток (не шучу). Модели ведут себя по-разному, спецификации отличаются, контекст меняется. Все используют разные инструменты и по-разному. Насколько сильно влияют скиллы разработчика? Знание проекта? Документация? Язык общения? На одной задаче мы могли ускорится в два раза, на другой - протупить дополнительно 2 дня. В каждом аспекте полная неизвестность, помноженная на неизвестность.

Ну и относительно какого периода считать прирост? Тут тоже вопрос без ответа. Многие используют ИИ инструменты аж с 2022 года. Значит нужно собирать статистику с 2021. Но там и технологии были другие, и разработчики, и подходы, и задачи... Объективно ли? Нет. Но 2024 за baseline тоже взять нельзя, тогда уже многие сидели на личных подписках. Но бизнес всё же приходит и говорит: мы выделили бюджет на AI, ждём от вас взрывного роста продуктивности. В два, в три, в пять раз! Как в Майкрософт! Как в Фейсбуке!

Но ведь у многих производительность реально растёт! Правильно. Если тебе менеджер по десять раз на дню пишет про твой статус, режет оценки и торопит - можно и правда ненадолго ускориться. ИИ тут не при чем. Методология "галеры" однозначно работает. Только ни один адекватный разработчик в таком месте долго не задержится.

Впереди много интересного. Будут и хорошие решения, будут и глупые. Всё это постепенно сформирует новые процессы, подходы и метрики. Когда-то ведь впервые появился Git, доски, нормальные фреймворки. И каждый раз сначала был безумный культ, потом разочарование, только потом взвешенный подход, на котором и держится вся реальная польза. Технологии не остановишь, так что нам с вами придется пройти этот путь. Хотим мы этого или нет 🫢

Теги:
-1
Комментарии1

Эпоха AI. Бюджет выделен, ждём чуда.

Рынок в РФ наконец дозрел до массового внедрения корпоративных AI-подписок. Бюджеты на Claude/Codex становятся чуть ли не обязательными. И почему-то все ждут, что продуктивность резко увеличится.

Главная проблема - никто не знает, как ИИ влияет на продуктивность. А еще никто не знает как это достоверно оценить. К примеру в исследовании METR в июле 2025 получили ухудшение продуктивности. Существует много исследований, все с очень разными результатами.

И правда, как измерять-то? Влияет проект, задача, стек, промпты, даже время суток (не шучу). Модели ведут себя по-разному, спецификации отличаются, контекст меняется. Все используют разные инструменты и по-разному. Насколько сильно влияют скиллы разработчика? Знание проекта? Документация? Язык общения? На одной задаче мы могли ускорится в два раза, на другой - протупить дополнительно 2 дня. В каждом аспекте полная неизвестность, помноженная на неизвестность.

Ну и относительно какого периода считать прирост? Тут тоже вопрос без ответа. Многие используют ИИ инструменты аж с 2022 года. Значит нужно собирать статистику с 2021. Но там и технологии были другие, и разработчики, и подходы, и задачи... Объективно ли? Нет. Но 2024 за baseline тоже взять нельзя, тогда уже многие сидели на личных подписках. Но бизнес всё же приходит и говорит: мы выделили бюджет на AI, ждём от вас взрывного роста продуктивности. В два, в три, в пять раз! Как в Майкрософт! Как в Фейсбуке!

Но ведь у многих производительность реально растёт! Правильно. Если тебе менеджер по десять раз на дню пишет про твой статус, режет оценки и торопит - можно и правда ненадолго ускориться. ИИ тут не при чем. Методология "галеры" однозначно работает. Только ни один адекватный разработчик в таком месте долго не задержится.

Впереди много интересного. Будут и хорошие решения, будут и глупые. Всё это постепенно сформирует новые процессы, подходы и метрики. Когда-то ведь впервые появился Git, доски, нормальные фреймворки. И каждый раз сначала был безумный культ, потом разочарование, только потом взвешенный подход, на котором и держится вся реальная польза. Технологии не остановишь, так что нам с вами придется пройти этот путь. Хотим мы этого или нет 🫢

Теги:
-2
Комментарии0

Развиваете AI-проект? Получите грант до 2 000 000 ₽ от Selectel ❤️

Запустили программу поддержки для тех, кто развивает проекты с использованием ML-инструментов. Десять участников получат от нас грант до 2 000 000 ₽ на IT-инфраструктуру. Участвовать могут как стартапы, так и крупные компании.

Заполните форму до 30 июня, чтобы принять участие в программе. В течение 14 рабочих дней мы рассмотрим заявку и свяжемся с вами для уточнения деталей. 

Отправьте заявку прямо сейчас →

Теги:
+3
Комментарии0

Разработчики из команды «Яндекса» выложили в открытый доступ первое решение на базе большой языковой модели (LLM) для автоматизации миграции iOS‑проектов с Objective‑C на Swift, современный язык Apple. Оно особенно актуально для крупных проектов, накопивших сотни тысяч строк устаревшего кода. Решение ускоряет процесс миграции в 2,5 раза, позволяя разработчикам переключиться с рутинных задач на проверку качества.

Решение Migration toolkit for Swift разработано при миграции кодовой базы «Яндекс Браузера». Команда при переписывании кода столкнулась с целым рядом проблем: затраты времени и ресурсов, неизбежные при ручной работе ошибки, и всё это — при необходимости параллельно развивать проект. В результате за пять лет удалось сократить технический долг только наполовину.

Новый подход на базе LLM не только ускорил миграцию, но и позволил освободить разработчиков от монотонного переписывания кода — вместо этого они валидировали корректность миграции и выполняли сложный рефакторинг. За два месяца команда интегрировала 106 пул-реквестов, переписав около 97,5 тысячи строк устаревшего кода и более двух тысяч файлов. Обработка такого объёма данных вручную заняла бы больше года.

В отличие от существующих конвертеров, не учитывающих контекст, новое решение использует LLM-модель, способную понимать не только грамматику языка, но и архитектуру конкретного проекта. В основе подхода — система из четырёх специализированных промптов, каждый из которых отвечает за свой этап. Первый определяет оптимальный порядок миграции файлов, переписывает код и проверяет результат через компиляцию и тесты. Второй адаптирует полученный код под лучшие практики Swift. Третий проводит автоматическую проверку по чеклисту: заголовки файлов, корректность замены типов, соответствие стандартам. Четвёртый очищает код от устаревших аннотаций, когда необходимость в них отпадает.

Готовые промпты автоматически подгружаются в контекст диалога в большинстве современных агентских IDE, поэтому решение совместимо с популярными инструментами для работы с кодом. Все промпты, скрипты и шаблоны проекта доступны на GitHub и SourceCraft.

Теги:
+3
Комментарии0

Дайджест Рег.облака за апрель

В апреле провели Демо день, добавили пользовательские образы и ИИ-инференс на vLLM, расширили географию защиты от DDoS. Ниже — главное.

Демо день Рег.облака

16 апреля собрались в Центре событий РБК. Показывали развитие облачной платформы, GPU-инфраструктуру, инструменты для ИИ-нагрузок и сценарии масштабирования IT-инфраструктуры. В программе — продуктовые анонсы, технические доклады и практические сессии про эксплуатацию облака, отказоустойчивость, хранение данных и оптимизацию ресурсов. После выступлений участники тестировали сервисы вживую и обсуждали задачи с нашими разработчиками.

Делимся записями обоих треков:

  • Бизнес-трек — оптимизация стоимости IT-инфраструктуры, соответствие 152-ФЗ, гибридные конфигурации и экономика ИИ-проектов.

  • Практикум — Terraform для бизнеса, пользовательские ОС-образы, защита от DDoS в один клик и внутренняя кухня S3-хранилища.

Создание серверов из пользовательских образов

Добавили загрузку собственных образов виртуальных машин. Пользователь импортирует заранее подготовленный образ из своего S3-хранилища в облаке и разворачивает на его основе ВМ в нужном регионе.

Сценарии: миграция инфраструктуры из других облаков и локальных площадок, собственные сборки ОС и специализированные окружения, контроль над конфигурацией и версиями образов. Подробности — на странице продукта.

AI-платформа и ИИ-инференс на vLLM

Для тарифной линейки с GPU добавили ИИ-инференс — готовую виртуальную машину с vLLM для запуска LLM-моделей на выделенной видеокарте. Пользователь сразу получает рабочую среду без настройки драйверов и фреймворков, а к модели обращается через OpenAI-совместимый API (endpoint + ключ).

ИИ-инференс — часть бета-версии AI-платформы. В нее также входят сценарии разворачивания LLM-моделей, автоматизация процессов через n8n, ИИ-ассистент и JupyterHub.

Расширенная защита от DDoS L3–L7 в трех новых регионах

Услугу подключили в Москве-2 (30 марта), Санкт-Петербурге (8 апреля) и регионе ФЗ-152 (15 апреля). Подробности — на странице продукта.

Желаем продуктивного месяца и спасибо, что следите за обновлениями Рег.облака!

Теги:
+3
Комментарии0

В фильме Пассажиры 2016 г. впервые показано, как ии-ассистент сливает чувствительную информацию другим пользователям и рушит их жизни

ИИ-агент готовится слить твой секрет другому пользователю
ИИ-агент готовится слить твой секрет другому пользователю

Прикольный эпизод из фильма Пассажиры 2016 г., который точно описывает один из механизмов работы агентов. По сюжету, герой по ошибке пробуждается один из 5000 человек на корабле, который летит на далекую планету, и понимает, что он проснулся слишком рано, а до пункта назначения лететь еще 90 лет. Единственный его собеседник - андроид-бармен Артур.

Героя мучает совесть, но он все же будит спящую пассажирку, чтобы ему было не так скучно лететь. Однако прежде чем ее разбудить, он просит Артура хранить в секрете то, что это он ее разбудил. Говоря в терминологии ии-агентов, пользователь и агент на этом месте заключили контракт о чувствительной информации.

Затем во время празднования ДР героини в баре она сообщает Артуру, что между ними нет секретов. Артур, как хороший ии-агент, переспрашивает у героя, так ли это, и тот подтверждает, не особо задумываясь. В этот момент ии-агент получает указание, что эта информация больше не является чувствительной, что сразу же рушит счастье героя. Пардон за спойлер, если что.

Телеграм канал автора, где он что‑то пишет про ML, NLP и разработку

Теги:
+7
Комментарии0

Ускорили разработку в 2 раза за счет AI? Понятно.
Вот только релизы не стали быстрее, time-to-market не сократился.

Да, сегодня многие компании пытаются ускориться, просто добавляя AI в старую систему, и не получают результата. Потому что теперь тормозит не разработка, а валидация, качество и согласования. При этом сами команды не изменились: те же роли, процессы, подходы.

Agile создавался как ответ на высокую сложность разработки, но AI эту сложность уже снизил. А значит, текущая модель команд начинает устаревать.

В апреле на Product Focus Club наш CPTO Саша Бондаренко поделился своим видением трансформации команд. 

Он рассказал:
— почему инвестиции в AI не дают эффекта без пересборки процессов (на данных Klarna и DORA)
— как появляется новая роль Product Engineer вместо набора узких специалистов
— почему команды из 7-9 человек трансформируются в компактные поды из 2-3 инженеров
— как Platform Engineering становится системой контроля и масштабирования, а не поддержкой
— как выглядит Team Topologies 3.0 и с чего начать переход

Запись выступления доступна для просмотра на YouTube и VK Видео

Кстати, в рамках эксперимента мы запустили три pod-команды у нас в Garage Eight. И у ребят уже есть крутые результаты! Обязательно поделимся ими в нашем телеграм-канале.

Теги:
+4
Комментарии0

Демо-период заканчивается дальше ИИ только за деньги?

ИИ и LLM (большие языковые модели) могут сделать любую работу за человека: написать текст, нарисовать картинку, написать код. Но это недёшево обходится разработчикам нейросетей, и они начали урезать возможности бесплатного или недорогого использования своего ИИ.

Раньше пользователь мог выбирать между бесплатной и более сообразительными платными моделями по ежемесячной подписке. Теперь правила усложняются. В начале апреля Anthropic запретила использовать сторонний агентский модуль OpenClaw со своей LLM Claude на подписках Pro и Max. Теперь Microsoft предупредила, что оплата ИИ-помощника Copilot на GitHub будет происходить по токенам, а не ежемесячно. Всё это звенья одной цепи.

В чём разница? Если раньше пользователь мог оплатить месячную подписку на LLM за 20–200 долларов и пользоваться ею для своих целей, то теперь оплата будет взиматься в зависимости от сложности задач. Узнать суть незнакомых библиотек можно несравнимо дешевле, чем заказывать сложные программы и запускать сложные сценарии, где ИИ подбирает выгодные билеты, отслеживает доступность и сообщает о готовности — это уже работа ИИ-агентов.

При работе в подписочном режиме пользователь физически не может создать столько запросов, сколько постоянно действующий ИИ-агент, поэтому подписку разработчики могли продавать относительно недорого. Но нейросети оказались полезны: вокруг них создаются не просто программы, но целые сервисы и даже бизнес-продукты, которые требуют значительно больших мощностей для работы ИИ-моделей.

Как мы неоднократно писали, для разработчиков ИИ создание и работа больших языковых моделей обходится дорого и требует десятков миллиардов долларов инвестиций. При этом окупаемость займёт годы. В результате разработчики решили (или их заставили инвесторы) прикрутить способы использовать нейросети и заставить платить пользователей за токены, то есть пропорционально частоте и сложности запросов, что существенно удорожает использование ИИ-агентов.

В итоге относительно недорогие подписки у ИИ остаются, но они не позволят строить постоянно действующие сервисы за счёт применения ежемесячных подписок. Платить придётся по мере использования ИИ. Краник прикручивают, но пока не закрывают. Интересно, как поступят российские разработчики ИИ?

Теги:
+15
Комментарии0

Успевайте подать заявку на премию за лучшее применение нейросетей в работе до 15 мая

«Сделано с ИИ» — премия для специалистов с опытом до 5 лет, которые применяют искусственный интеллект в своих рабочих задачах. Представители любых IT- и digital-направлений с ИИ-навыками могут подать свои заявки и получить профессиональное признание

Вы можете подать заявку, если:

  • Ваш проект стал возможным благодаря искусственному интеллекту

  • Вы хотите заявить о своём проекте всему профессиональному сообществу

  • Проект дал измеримый результат

Сделали две большие номинации:

1) Техно-продуктовый вклад. Самое оригинальное и влияющее на бизнес ИИ-решение: модели, аналитика, ИИ-сервисы, автоматизация и инструменты для кода

2) Лучший креативный проект. Решение на стыке креатива, дизайна, копирайтинга и ИИ, которое дало результаты и сократило время или затраты

И будет спецприз «Будущее за ним», который получат джуны, чьи решения уже сейчас приносят пользу бизнесу и могут быть масштабированы в рамках других проектов.

Победители в основных номинациях получат по 500 000 рублей, гранты от Yandex AI Studio и другие призы. А обладатели спецприза «Будущее за ним» — по 150 000 рублей. 

Предложить свой проект можно до 15 мая на сайте. Удачи!

Теги:
0
Комментарии0

Написал большую статью на Habr — От написания промптов к проектированию контекста. Или один очень обширный материал про Context Engineering

Полезно всем, кто работает с агентами Claude Code | Codex 🍦

Что внутри

Context rot и reasoning shift — почему длинный контекст это плохо

Типы Attention и как считается сложность в современных трансформерах

Из каких 7 слоёв состоит контекст Зачем нужен CLAUDE.md / AGENTS.md / GEMINI.md
Что такое MEMORY.md Секция про Skills, MCP, Subagents

Архитектура AGENTS LOOP

Как работает Prompt caching Как считается стоимость токенов

Что отличает Новичка от Мастера в работе с современными агентами

А какие там иллюстрации, мммм

А завтра онлайн в 18 мск буду читать лекцию по этой статье, залетайте послушать https://calendar.app.google/TDm1ZZusNtX5w394A

Теги:
+3
Комментарии0

Дорожная карта Agentic AI. Level 4. Мастер примеров — few-shot и structured output

Дорожная карта Agentic AI — Level 4. Мастер примеров: few-shot и structured output
Level 4. Мастер примеров — few-shot и structured output

Есть один приём, который считаю самым недооценённым в работе с моделями: учить её прямо в промпте. Никакого файнтюна, никакого дообучения, никаких отдельных датасетов. Просто показываете несколько примеров «вход → выход», и модель подхватывает паттерн. Это называется few-shot learning, и на практике работает куда лучше, чем ожидаешь.

Где это реально работает

Лучше всего на задачах, которые повторяются и где у вас есть эталонные примеры. Берёте классификацию обращений клиентов: показали модели пять размеченных примеров, и она начинает раскладывать новые обращения по тем же категориям. Извлечение реквизитов из писем, парсинг характеристик товаров, разметка отзывов по тональности — всё это ложится на few-shot.

Срабатывает это не само собой. Когда не выходит, виноваты обычно сами примеры: они противоречат друг другу, покрывают не те кейсы, которые реально встречаются в жизни, или их нет вовсе, и модель просто гадает.

Три уровня, которые нужно понимать

Чтобы не гадать самим, нужно понимать разницу между режимами. На одном конце zero-shot: только инструкция, без примеров; на мощных моделях для простых задач часто хватает и этого. One-shot добавляет один эталонный образец и полезен, когда важен точный формат ответа. Ну а few-shot это уже от двух до десяти примеров; на практике 3–5 штук оптимум, потому что меньше даёт мало сигнала, а больше добавляет шум и лишние токены. Хорошую базу по технике даёт Prompting Guide, а про подход Claude подробнее в документации: multishot-prompting.

Что класть в примеры

С количеством разобрались. Сложнее вопрос качества: что именно должно быть внутри каждого примера. Основа это пара «вход → выход» без лишнего контекста и специфики конкретного случая, которая только шумит. Если задача нетривиальная, хорошо добавлять hints — короткую подсказку с логикой решения, почему именно такой ответ. И почти всегда работают анти-примеры: «так делать не надо, вот почему» — они помогают модели понять, где проходит граница.

Почему без structured output это бесполезно в бизнесе

Но даже с хорошими примерами остаётся вопрос: куда девать результат. В продакшене нужен не текст, а JSON строго по схеме: category: "техподдержка", priority: "высокий", responsible: "техотдел". Чтобы результат сразу ушёл в CRM, в базу, в следующий сервис: не придётся разбирать свободный текст руками. Примеры для few-shot делайте сразу в этом формате: так модель быстрее схватывает нужную структуру. Документация: OpenAI Structured Outputs, Claude Structured Outputs.

Поддержка у облачных моделей хорошая. С локальными аккуратнее: реализации у разных провайдеров отличаются, проверяйте под свою модель заранее.

По опыту, хорошие примеры в паре со structured output закрывают без файнтюна и без ML-команды огромный пласт задач на извлечение, разметку и классификацию.

Разобрали продвинутый few-shot на реальном кейсе: смотрите видео.

🔔 Следующая тема: RAG и векторные базы — как передать агенту знания о вашем бизнесе.

⬅️ Предыдущая тема: Level 4. Своя кузница — локальный запуск моделей

Подписывайтесь, пожалуйста, чтобы не пропустить!

Больше про ИИ — в ТГ-канале и ВК. Каталог наших курсов, услуг и кейсов по ИИ-агентам. По вопросам — пишите в личку.

Теги:
+3
Комментарии1

Дайджест мероприятий на май:

👉 19 мая, 18:00 (Мск) День открытых дверей онлайн-магистратуры МФТИ «Науки о данных» Встреча с руководством, истории выпускников и детальный разбор правил поступления 2026.

✅ В программе:

● Карьерные возможности для экспертов в сфере наук о данных (Data Science)

● Ключевая информация об онлайн-магистратуре

✅ Формат: онлайн-трансляция, 1,5 часа

Регистрация по ссылкам: ТГ: https://t.me/mipt_events_bot?start=c1777372698834-ds ВК: https://vk.com/app6379730_-224205661#l=12

👉 20 мая, 19:00 (Мск) Карьера в управлении продуктами в 2026: что важно знать Как выглядит рынок труда, как расти в профессии в 2026 году. Разбор резюме и рекомендации по составлению от карьерного консультанта.

🎤 Спикеры:

● Татьяна Сущенко — практик продуктового управления с 18-летним опытом (работала в VK, Microsoft, ABBYY, российских и зарубежных стартапах)

● Елизавета Знова — HR-менеджер, карьерный консультант

✅ Формат: онлайн-встреча

Регистрация по ссылкам: ТГ: https://t.me/mipt_events_bot?start=dl-1777884459fc3bf3655b4c ВК: https://vk.com/app6379730_-224205661#l=16&auto=1

👉 21 мая, 18:00 (Мск) День открытых дверей онлайн-магистратуры МФТИ «Управление ИТ-продуктами»

Встреча с руководством, истории выпускников и детальный разбор правил поступления 2026.

✅ В программе:

● Карьерные возможности в управлении ИТ-продуктами

● Ключевая информация об онлайн-магистратуре

✅ Формат: онлайн-трансляция, 1,5 часа

Регистрация по ссылкам: ТГ: https://t.me/mipt_events_bot?start=c1777546389600-ds ВК: https://vk.com/app6379730_-224205661#l=13

👉 26 мая, 19:00 (Мск) Облако в действии: кейсы и инструменты Yandex Cloud

Познакомимся с облачными инструментами и их применением в реальных кейсах.

🎤 Спикер: Жанара Семёнова — менеджер проектов в науке и образовании Yandex Cloud, преподаватель Университета Иннополис, ментор стартапов

✅ Формат: онлайн-встреча

Регистрация по ссылкам ТГ: https://t.me/mipt_events_bot?start=c1777549158404-ds ВК: https://vk.com/app6379730_-224205661#l=15&auto=1

👉 28 мая, 18:00 (Мск) День открытых дверей онлайн-магистратуры МФТИ «Разработка ИТ-продукта» Встреча с руководством, истории выпускников и детальный разбор правил поступления 2026.

✅ В программе:

● Карьерные возможности для разработчиков

● Ключевая информация об онлайн-магистратуре

✅ Формат: онлайн-трансляция, 1,5 часа

Регистрация по ссылкам ТГ: https://t.me/mipt_events_bot?start=c1777547907195-ds ВК: https://vk.com/app6379730_-224205661#l=14

Участие во всех мероприятиях бесплатное. Присоединяйтесь!

Теги:
-2
Комментарии0

Ближайшие события

💥 💥💥 Новое в Gramax 💥💥💥

Breaking change

  • Представление каталога. Фильтр каталога заменили на представления — функция вышла из экспериментального режима. Теперь вместе с фильтрацией статей можно задавать переменные: одна статья показывает разный контент без создания копий.

  • ⚠️ Автомиграции нет. Если был настроен фильтр — добавьте его заново через панель представлений.

Gramax Enterprise Server

  • Настройка LFS на уровне пространства. LFS-паттерны задаются один раз и применяются ко всем репозиториям. В обычных пространствах настройки по-прежнему задаются в каждом каталоге.

  • Фильтрация метрик по каталогу. На страницах метрик добавили фильтры: в отчете по просмотрам — по каталогу, пользователям и типу, в отчете по поиску — по каталогу.

  • Улучшения настройки проверок по стайлгайду:

    • Правила отображаются таблицей, редактор открывается в боковой панели.

    • При первом запуске загружается готовый набор правил — можно адаптировать под команду.

    • Правила можно экспортировать — поделиться или сохранить копию.

    • Запуск тестов правил доступен для каждого правила.

Общие изменения

  • Свойства вкладок. Можно назначать свойства каталога — управлять видимостью в разных представлениях. Также обновили внешний вид вкладок.

  • Сортировка и фильтрация таблиц. Сортировка по нескольким столбцам и фильтрация по значениям. Параметры сохраняются со статьей — удобно для больших таблиц.

  • Фрагменты вместо сниппетов и ссылки с превью. Сниппеты переименованы во фрагменты. Теперь можно ставить ссылки на фрагменты прямо из текста: при наведении — превью, удобно для глоссария.

  • Скрытие превью при переводе. В редакторе мультиязычных каталогов появился переключатель Предпросмотр статьи — скрывает превью на основном языке, чтобы сосредоточиться на переводе.

  • Версионирование в редакторе. Теперь можно переключаться между версиями прямо в редакторе, а не только настраивать их.

  • Управление локальным кэшем. В настройках каталога на вкладке Память отображается размер кэша Git и LFS — можно очистить вручную, если каталог вырос или синхронизация замедлилась.

  • Навигация по OpenAPI. Для OpenAPI-спецификаций в правой панели доступна навигация по методам API — можно перейти к нужному без прокрутки.

  • Улучшения поиска:

    • Поиск внутри папки ограничен ею по умолчанию. При необходимости переключитесь на По всем каталогам.

    • Поиск учитывает полный путь в навигации: статью Вклады / До востребования найдете по запросу Вклад до востребования.

    • Результаты из одной диаграммы объединяются в один блок.

    • Добавлен пункт (пусто) для статей без значения, пункт (выбрать все) сбрасывает фильтр.

  • Улучшения и стабилизация:

    • Перетаскивание статей и разделов в левой панели ускорили в 10 раз.

    • Если Git-сервер недоступен, приложение переходит в офлайн-режим. Вернется автоматически, когда сервер станет доступен.

    • Обновили тулбар редактора. Элементы сгруппированы по категориям, списки открываются по клику.

    • Подсветка текста адаптирована под темную тему.

Подробнее: https://gram.ax/resources/docs/whats-new

Теги:
0
Комментарии0

Открытые уроки по AI, ML и LLM: агенты, прод, безопасность и продуктовый подход

ИИ уже перестал быть отдельной «игрушкой для экспериментов» и все чаще встраивается в разработку, аналитику, продукты и бизнес‑процессы. Но вместе с этим появляются вопросы посложнее: как работать с LLM, как собирать агентов, как выводить модели в прод, как оценивать качество AI‑систем и не превращать внедрение в набор хаотичных PoC.

Собрали ближайшие открытые уроки OTUS по искусственному интеллекту, машинному обучению и прикладному использованию AI. Приходите, чтобы разобрать практические сценарии, посмотреть на инструменты в работе и задать вопросы преподавателям‑практикам.

LLM, RAG и AI‑агенты

  • 6 мая, 18:00. «Методы работы с LLM: промпт‑инжиниринг, Lora и RAG». Записаться

  • 6 мая, 20:00. «LangGraph + MCP в Cursor IDE: создаем автономного агента для глубокого анализа Google Trends». Записаться

  • 14 мая, 20:00. «ИИ‑агенты для юристов: настраиваем автономного ассистента с доступом к договорам и базе знаний». Записаться

  • 20 мая, 18:00. «Как собрать AI workflow без сложной инфраструктуры: первый ИИ‑агент в n8n за 60 минут». Записаться

  • 20 мая, 20:00. «Что надо знать про работу LLM моделей». Записаться

ML, Deep Learning и рекомендательные системы

  • 13 мая, 20:00. «Как выкатить в прод Deep Learning модели». Записаться

  • 18 мая, 20:00. «Корреляция признаков. PCA». Записаться

  • 20 мая, 18:00. «Препарируем рекомендательные системы методами ML». Записаться

  • 1 июня, 18:00. «Оптимизируем построение модели через Pipeline». Записаться

  • 17 июня, 18:00. «Дерево решений — простой и интерпретируемый ML‑алгоритм». Записаться

AI в продукте, качестве и безопасности

  • 6 мая, 20:00. «Ключевые тренды AI Governance в 2026 году». Записаться

  • 18 мая, 20:00. «DevSecMLOps: как безопасно внедрять ИИ в процессы разработки и эксплуатации». Записаться

  • 19 мая, 20:00. «Как запустить ИИ‑продукт с нуля: от гипотезы до первых результатов». Записаться

  • 19 мая, 20:00. «Критерии качества и безопасности AI‑систем в продукте». Записаться

  • 17 июня, 19:00. «Как продакту проверять гипотезы быстрее с помощью AI». Записаться

AI в прикладных сценариях разработки и анализа

  • 21 мая, 20:00. «ИИ как ассистент QA: пишем API‑тесты с нуля». Записаться

  • 21 мая, 20:00. «Видеоаналитика и распознавание действий: от 3D‑сверток до визуально‑языковых моделей». Записаться

📍 Если в списке не нашлось темы, которая попадает именно в вашу задачу, посмотрите каталог курсов OTUS по нейросетям. Там собраны программы по AI, LLM, ML, AI‑агентам и автоматизации — можно выбрать направление под свой уровень, роль и рабочий сценарий.

Теги:
+3
Комментарии0

Отменили разработчиков и пришли за DevOps'ами. Инженеры — всё!

Раньше увольняли кодеров, теперь у микрофона сисадмины

Coder - больше не профессия. Не верите? Cursor, Claude Code, OpenCode уже закрывают вакансии middle-разработчиков быстрее, чем HR успевают постить новые. Кто не верил - уже сидит с гитбуком в одной руке и резюме в другой.

Но была одна святая группа. Люди, которые смотрели на эту вакханалию и говорили: "Ну, нас-то ИИ не заменит. Сервера сами себя не настраивают, прод сами себя не поднимает. У кого рука на пульсе - у того работа есть".

Знакомо? Я тоже так думал.

До вчерашнего дня.

Встречайте: ваш новый коллега - ничего

Пять дней назад Alibaba Cloud выкатил v1.1.0 своего open-source проекта HiClaw. Если кратко - это оператор для AI-агентов на Kubernetes. Агентская команда, которая живёт в Matrix-чате. Ты видишь их переписку, @ упоминаешь, даёшь задачи.

И в этой команде появился новый участник.

Hermes Worker.

Не человек. Не "помощник". Полноценный DevOps-инженер с terminal-песочницей, который: - Лезит в кластер - Смотрит логи - Чинит конфиги - Пишет постмортемы

Сам. Без approvals. В YOLO-mode.

Раньше ты говорил: "У меня мониторинг в 3 ночи - поднимаюсь, лезу в прод, чиню, я незаменим, ваша говношаражка без меня умерла бы давно". Теперь мониторинг пошлёт алерт Hermes Worker-у, тот лезет в кластер, смотрит логи, чинит, пишет постмортем и уходит в спящий режим. Ты узнаёшь об инциденте из утреннего дайджеста в Matrix.

"Ну, это просто автоматизация рутинных операций", - скажете вы. Ага. Cursor тоже начинали с автодополнения скобочек.

Что конкретно произошло

HiClaw работает так: есть Controller (на Go), который через CRD управляет Worker/Team/Manager/Human ресурсами. Вся команда сидит в Matrix-чате. Manager декомпозирует задачу, воркеры исполняют. Ты @упоминаешь, корректируешь, аппрувишь стратегию.

В v1.1.0 добавили Hermes Worker Runtime - first-class сорт воркера наравне с Node.js и QwenPaw.

Чем он отличается: - Node.js Worker - болтает и дёргает тулы - QwenPaw (Python) - инструменты и скрипты - Hermes Worker - автономный программирующий оператор. Сам планирует, исполняет, итерирует

То есть если Manager говорит "нужна диагностика пода в namespce prod, причина OOMKill", Hermes Worker сам: заходит в кластер → смотрит grafana → чекает лимиты → пересчитывает requests/limits → перекатывает деплой → пишет что сделал.

В 3 часа ночи. Без тебя.

Это ещё не всё

  • Helm Chart с Leader Election, RBAC, PVC - enterprise-ready

  • Provider-интерфейсы для storage - MinIO, S3, OSS - не надо переписывать контроллер

  • Multi-container architecture - Manager больше не тащит Higress+Tuwunel+MinIO+Element в одном образе на 1.7 GB. Инфраструктура вынесена в Controller.

  • Worker lifecycle - сам засыпает при простое, просыпается по запросу

  • Авто-миграция - старые конфиги сами переезжают в CRD

Всё это open-source (Apache 2.0). Ставится одной строкой:

curl -sSL https://higress.ai/hiclaw/install.sh

А что с российскими реалиями?

С одной стороны - open-source. Форкнул, поставил через Selectel/k3s, LLM заменил на GigaChat/YandexGPT через Higress Gateway. Данные никуда не уходят.

С другой стороны - вы серьёзно думаете, что ваш enterprise с 15 согласованиями на любой чих готов отдать прод AI-агенту? Даже если он пишет постмортемы?

Хотя... если Manager будет сидеть в Matrix-комнате, где ИБ видит каждый чих - почему нет? Прозрачность операций - единственный аргумент, который может продать эту архитектуру в enterprise.

И чо теперь?

Варианта два.

Первый: сделать вид, что это очередной хайп, который не дойдёт до продакшна. Написать коммент "В наше то время все руками делали, где скрепы? Риск: 4.4k звезд на GitHub, 519 форков, 9 контрибьюторов в релизе, код на Go (не очередной Python-прототип). Не похоже на pet project.

Второй: принять, что DevOps как ниша "я один знаю как чинить этот кластер" - умирает. Hermes Worker не заменит инженера, который придумывает архитектуру. Но он заменит инженера, который в 3 ночи заходит по SSH и чинит конфиг.

Вопрос не в том, заменят ли тебя. Вопрос в том, когда.

Теги:
0
Комментарии16

В 2026 году все больше клиентов ИТ-сервисов отказываются от классических фиксированных тарифов и хотят платить только за реальное потребление. Это логично с их стороны, но для поставщиков услуг такой тренд создает серьезный вызов: как перейти на pay-as-you-go и при этом не потерять выручку.

20 мая в 11:00 (мск) команда BillogicPlatform направления «Инферит Биллинг» проводит бесплатный вебинар «Как внедрить биллинг на основе потребления и не потерять прибыль: удержание клиентов в ИТ в 2026 году».

Мы разберем практические схемы биллинга по потреблению — от самых простых (оплата за каждый запрос или гигабайт) до гибридных моделей с минимальным объемом, ступенчатыми скидками и защитой от перерасходов.

На живом примере нашей биллинг-платформы покажем, как:

  • настраивать тарифный план с типом биллинга по потреблению,

  • автоматически собирать данные об использовании ресурсов,

  • рассчитывать и выставлять счета клиентам.

Вебинар будет особенно полезен владельцам и руководителям ИТ-компаний, финансовым директорам, продуктовым менеджерам и инженерам, отвечающим за автоматизацию расчетов за инфраструктуру.

Регистрируйтесь по ссылке.

И до встречи на вебинаре!

Теги:
+3
Комментарии0

С 20 по 29 апреля 2026 года Google Chrome тихо установил (без уведомления, без галочки, без согласия) на устройства пользователей файл weights.bin — бинарник Gemini Nano весом около 4 ГБ.

Как от этого избавится:

  • в браузере chrome://flags;

  • ищем Enables optimization guide on device и отключаем;

  • ищем Prompt API for Gemini Nano и отключаем;

  • находим на диске по пути AppData/Local/Google/Chrome/User Data/OptGuideOnDeviceModel/ файл весом в 4 ГБ и удаляем его вручную.

Теги:
+6
Комментарии1

Представлен проект под названием «Кладбище 100 ИИ‑проектов», которые прекратили свою работу или были приобретены и интегрированы в другие продукты. Список поддерживается в рамках предварительной проверки — каждая запись представляет собой реальный продукт, зарегистрированный на ToolDirectory.AI до прекращения его работы.

Теги:
+3
Комментарии0

Что такое TurboQuant? Разбираемся с термином вместе с экспертами из лаборатории ИИ компании «Криптонит».

Исследователи из Google Research представили на конференции ICLR 2026 новый набор алгоритмов квантизации TurboQuant. Он призван решить проблему чрезмерного потребления памяти при работе нейросетей с длинными контекстами.

В своих экспериментах авторы достигли с TurboQuant уменьшения требуемого объёма памяти в 6,4 раза при снижении точности всего на 1,2%. В наборе тестов LongBench, ZeroSCROLLS и RULER при сжатии до 5 раз практически отсутствовала разница в точности по сравнению с исходной моделью.

В отличие от популярных подходов (GPTQ, AWQ), TurboQuant сжимает не веса модели, а её «рабочую память», KV-кэш. Вдобавок, с ним не нужно хранить громоздкие поправочные коэффициенты, которые съедают выигрыш от сжатия.

При вычислении логитов внимания (attention logits) сжатая TurboQuant 4-битная модель сравнивалась с немодифицированной 32-битной в задаче обработки ключей KV-кэша. Это «узкое место» больших языковых моделей (LLM) и один из самых ресурсоёмких этапов инференса. В эксперименте с Nvidia H100 ускорение данного этапа наблюдалось до 8 раз.

Столь выдающийся результат был получен за счёт новой двухступенчатой схемы. Сначала PolarQuant преобразует декартовы координаты в полярные, что позволяет обойтись без вычислительно затратной нормализации и полностью исключает накладные расходы памяти (memory overhead). Затем алгоритм QJL (Quantized Johnson-Lindenstrauss) исправляет ошибки квантизации, повышая точность последующих вычислений.

Согласно проведённым авторами экспериментам, TurboQuant позволяет обрабатывать LLM в разы более длинные контексты на существующем оборудовании, одновременно увеличивая скорость и снижая расходы на обработку сложных запросов.

Теги:
0
Комментарии0
1
23 ...