Обновить

Разработка

Сначала показывать
Порог рейтинга

Google представил топ лучших расширений для Chrome в 2025 году: 

  • HARPA AI: позволяет автоматизировать любую работу в интернете: мониторинг сайтов, напоминания, боты, поиск, скрапинг; 

  • Quillbot: если работаете с текстом — это вам. Проверка орфографии, рерайт ИИ‑текста, подборка синонимов и даже проверка осмысленности текста;

  • Monica и Sider: добавляют в браузер боковую панель с самыми полезными нейронками. Удобный доступ к сразу нескольким чат‑ботам, быстрой генерации картинок и видео, проверке и переводу документов; 

  • Fireflies и Bluedot: помогут в создании заметок и автоматической расшифровке бесконечных созвонов; 

  • QuestionAI и eJOY: школьники и студенты, а это вам — помощник по выполнению домашних заданий и разбору тем по любым предметам. 

  • Adobe Photoshop: быстрый доступ к Фотошопу. Веб‑версия проще, но там есть все нужные инструменты для редактирования фотографий, в том числе ИИ‑фотошоп;

  • Phia: шопинг‑расширение с ИИ для автоматического сравнения цен при покупках в браузере. Идеально, если все ещё мечтаете найти дешёвые ОЗУ.

Теги:
0
Комментарии0

Как я чуть не прошёл собеседование у «миллиардера» из Alchemy

Утро начиналось, как обычно — кофе, почта, LinkedIn.
И тут сообщение в linkedin:

«Здравствуйте! Мы хотим пригласить вас на позицию менеджера высшего звена в Alchemy!»

Листаю ниже — и кто, вы думаете, будет меня собеседовать? Сам Joseph Lau, вот его профиль.
Ну думаю, шутки в сторону. Миллиардер, всё серьёзно.

Назначаем митинг. У него всего одно свободное время — 9:30 утра по Лос-Анджелесу.
У богатых свои причуды. Я киваю в монитор: ладно, сыграем по-крупному.

Включаю режим «серьёзного специалиста»:
повторяю управление проектами, техстеки, quick refresh по Kafka — вдруг неожиданно спросят.
Даже откопал старые FIX-скрипты, которыми когда-то биржи Ближнего Востока подключал.

Волнуюсь, завариваю чай, сижу жду.
9:26. Google Meet пишет: «Ваш собеседник онлайн».

Подключаюсь — и вместо ожидаемого азиатского миллиардера вижу индуса. Сидит, улыбается в камеру. Глуповато.

Ну ладно, думаю, и Сатья Наделла индус. Бывает.

Парень оживляется, начинает интервью с комплиментов:

«Вы такой редкий специалист, мы давно искали именно вас!»

Я чуть растаял. Но быстро вернул фокус, когда он спросил, сколько я хочу зарабатывать.
Называю сумму. Он — ни моргнуть глазом:
— Отлично! Проверим ваши технические навыки.

Через секунду — ссылка на репозиторий:
👉 Bitbucket: alchemy-lab/p12-alchemy-mvp

«Посмотрите проект», — говорит.

Открываю. Пять абзацев, ноль смысла.
Пишу ему, что "документация" больше похожа на шутку.
Он улыбается — и бац, камера отвалилась.

— Простите, интернет плохой. Вы тоже выключите.

Думаю: ага, плохой интернет в Америке — классика.
Даже стало гордо за моего провайдера который даст фору всей Силиконовой долине.

Ладно.
Он предлагает запустить проект «вместе». Я не против.
Не стесняясь расшаренного экрана, открываю ChatGPT и прошу сгенерировать docker-compose.yml и Dockerfile для Next.js.

Он напрягся:
— Что вы делаете?
Я ему спокойно:
— Запускаю незнакомую дрянь в изолированной песочнице. Без лишних сюрпризов.

Через минуту проект крутится. Он смотрит, кивает, говорит:

«С вами обязательно свяжутся!» — и отключается.

Сижу, смотрю на экран. Что-то не даёт покоя.
Открываю код, бегло ищу глазами — и вот он, красавец:

const response = await axios.get('https://api.npoint.io/43c98e897c8540091987')

И тут всё стало на свои места.
Мой покойный нигерийский дядя с миллионами в банке воскрес — и решил поиграть в стартапера из Alchemy.

Дальше копать неинтересно.
Скучные жулики — даже без фантазии.

💡 Вывод:
Никогда не запускайте на своём компьютере никакой код — даже если вам прислали его «от имени Microsoft», Google или Alchemy.
Пока нет подписанного контракта и корпоративного ноутбука, — никаких экспериментов.

Берегите себя.
И помните народную мудрость:

Если красавица на х:% бросается — будь осторожен, триппер возможен.

P.S.
Да, всё это реально случилось.
А история про индуса — просто напоминание, что даже айтишная ловушка может начинаться с вежливого письма и золотого LinkedIn-профиля.

Теги:
+15
Комментарии8

Привет, это снова Егор Гаврилов. Сегодня я расскажу, что было сделано за последний месяц в рамках очередного своего пет-проекта - StingrayTV Alice.

Предыдущая статья была вынесена в черновики мной, однако если вкратце, StingrayTV Alice - это попытка интегрировать ресиверы Триколора на базе платформы StingrayTV с сервисом "Дом с Алисой". Это позволяет управлять ресивером через Алису, и интегрировать его в общий умный дом. Проект пережил несколько доработок, и сейчас там используется Keycloak, Spring Boot 4, и другие самые современные технологии. Также было сделано множество улучшений кодовой базы, что позволило избавиться от лишнего кода, и улучшить стабильность и производительность данного гейтвея.

Keycloak: теперь нормальная аутентификация - это реальность

Изначально планировалась аутентификация по физическому присутствию пользователя за консолью сервера. Однако реализовать это достаточно было нетривиально, и поэтому принято решение использовать уже готовый сервер аутентификации - а именно Keycloak. Оно даёт более гибкий контроль за процессом аутентификации, а также является проверенным и готовым решением для реализации OAuth2.

Куча рефакторинга

Проект подвергся обширному рефакторингу - как те, которые я сделал на всех своих пет-проектах (в частности, перевод проектов на Spring Boot 4, а также улучшения по части CI/CD в проектах - теперь там реализован полноценный пайплайн, который обеспечивает высокий уровень консистентности всего цикла), так и постепенная работа над чисткой кода (при помощи самых разных линтинг-инструментов - начиная от встроенных инструментов OpenIDE, и заканчивая SonarQube for IDE и Explyt Spring). Это позволило обеспечить гораздо большую чистоту и сопровождаемость кода.

В частности:

  1. Избавились от кривого механизма аутентификации - теперь там самый что ни на есть цивильный Keycloak.

  2. Убрали использование Preferences API для хранения нужных ключей для старого механизма аутентификации - Keycloak куда лучше во всём.

  3. Мелкие улучшения в кодовой базе - меньше ужаса и треша, больше чистого кода.

Итоги

Проект пережил многое - но теперь оно всё ближе к тому, чтобы можно было использовать у себя дома, безопасно и спокойно.

Мой сайт-резюме
Мой GitHub

Теги:
+2
Комментарии0

Пятница – самое время для осеннего дайджеста! Что было интересного этой осенью, вспоминаем вместе!

Главное событие сезона. Больше, чем конференция.

11 сентября провели нашу масштабную ежегодную конференцию! Красная дорожка, попкорн, вспышки фотокамер и классная энергетика. Всем спасибо, кто провел этот день с нами! А кто пропустил, могут посмотреть выступления в записи:

Наши проекты

  • Глобальное обновление в ОАО «РЖД». Провели одно из самых масштабных обновлений этой осени: крупнейший транспортный холдинг страны перешёл с Luxms BI v 4 на v10. Система «Рабочее место руководителя» с более чем 5000 пользователей обновилась без простоев и с полной обратной совместимостью, подтвердив надежность Luxms BI в одном из самых сложных ИТ-ландшафтов страны.

  • Целых 6 проектов на Luxms BI номинированы на конкурс «Проект Года 2025» от GlobalCIO – больше, чем у любой другой BI-системы! Отличный повод познакомиться с реальными кейсами наших клиентов. Мы будем очень рады вашим голосам и комментариям.

Обновления и новые возможности

Партнерства – вместе сильнее

Мероприятия

Читать и вдохновляться

На хабре выпустили три статьи из цикла «Больше, чем BI: 23 фичи Luxms BI, которыми мы гордимся».
Собрали то, что нас самих вдохновляет, и то, что мы чаще всего видим в успешных проектах наших клиентов и разделили их на 4 части, о трех уже рассказали:

  1. Платформенность и архитектурные возможности

  2. Функционал классической BI-системы

  3. Больше, чем BI - решения для специализированных задач

В журнале Т-банка для бизнеса «Бизнес-секреты» вышла статья «Тестирование в IT: экзамен, от которого не сбежать». Как устроено тестирование в ИТ и почему его роль выходит далеко за рамки поиска багов. Точно горячая тема, стоящая вашего внимания.

Осень была насыщенной, а мы настраиваемся на не менее вдохновляющую зиму!

Теги:
0
Комментарии0

Кейс: «Жива Технологии» арендует в облаке виртуальные машины с GPU для приложения с AI 🤖💬

👨‍💻 Что за компания

«Жива Технологии» — разработчик приложения JIVA, ассистента с AI, который помогает вести здоровый образ жизни. В приложении можно составить план, чтобы достичь поставленной цели: рассчитать норму воды, построить график тренировок или поправить технику упражнений.

А еще искусственный интеллект рассчитывает по фото питательность блюда: вес порции, количество калорий, белков, жиров, углеводов, микро- и макро-нутриентов. В результате такого анализа AI-помощник в JIVA советует, что можно заменить или добавить, чтобы прием пищи стал полезнее.

🕵️ Какая была задача

Искусственный интеллект внутри JIVA — это AI-модели для распознавания нутриентов по фото, встроенный AI-ассистент на базе LLM и каскад моделей по детекции и распознаванию физических упражнений. Все модели разработчик собрал на open source.

Клиенту были нужны видеокарты с GPU для инференса и обучения этих моделей. Закупать свои графические процессоры оказалось невыгодно, и он решил арендовать их в облаке. «Жива Технологии» хотел использовать виртуалки с GPU и другие облачные сервисы, чтобы мониторить работу моделей и управлять ресурсами в одном месте.

📈 Результат

Клиент использовал набор сервисов Cloud.ru, чтобы развернуть в облаке бэкенд приложения, тестовую и продовую среду и сами модели: 

  • Развернул бэкенд и модель для подбора упражнений на пяти ВМ платформы Cloud.ru Advanced. Там же подключил сервисы для мониторинга, логирования и работы с базами данных.

  • Для LLM выбрал две платформы: Cloud.ru Evolution для тестовой среды и дообучения и Cloud.ru Advanced для продовой среды и инференса моделей.

  • Тестовую среду развернул на виртуальных машинах Evolution Compute c GPU с гарантированной долей vCPU 30% 8vCPU 16GB RAM. Для тестирования взял одну GPU-карту A100 — она позволяет экспериментировать при обучении и тестировании LLM.

  • Чтобы собирать данные для дообучения и хранить бенчмарки, выбрал объектное хранилище Evolution Object Storage.

  • Для продовой среды выбрал виртуалки с такими параметрами: 20 vCPU 117 GB RAM 1 × A100 NVIDIA 80 GB.

🚀 Что дальше

В планах «Жива Технологии» — ускорить распознавание нутриентов по фото с 8–9 до 2–3 секунд, не арендуя при этом дополнительные GPU. У Cloud.ru есть сервисы, которые помогают в инференсе моделей, их дообучении и не только. Например, для запуска и развертывания ML-моделей предложили клиенту протестировать сервис Evolution ML Inference.

Теги:
-2
Комментарии0

Как внедрить ИИ в разработку и подружиться с безопасниками

ИИ-инструменты в разработке стали классикой. Но чем активнее команды используют ИИ, тем острее стоят вопросы безопасности. Об этом говорят гораздо реже, чем о новых моделях — хотя именно она определяет, выкатите ли вы фичу спокойно или поднимите команду в 3 ночи поднимать упавший сервер.

Чтобы разобраться, как это работает в реальных процессах, мы собрали за одним столом лидеров из Сбера, Positive Technologies, RuStore и Ozon FinTech. Эксперты поделились практиками, ошибками, риск-моделями и объяснили, почему безопасность — это не тормоз, а часть архитектуры внедрения ИИ.

Теперь запись доступна на YouTube. Вы узнаете:

  • Как защищать чувствительные данные, не превращая компанию в «закрытый контур». Какие подходы позволяют внедрять ИИ-инструменты в средах, где малейшая утечка — критический инцидент.

  • Три ключевых AI-риска, про которые редко говорят вендоры. Злоупотребление моделями, небезопасный код, сгенерированный без проверки, и ИИ-агенты с доступами ко всему — эксперты поделятся кейсами.

  • Как меняется соотношение безопасности и скорости при масштабировании. Почему крупные компании осторожнее, чем стартапы, и как учитывать репутационные и финансовые риски при внедрении автоматизации.

  • Что делать, если ИИ сгенерировал уязвимый код, и это привело к взлому системы. Где проходит реальная граница ответственности между разработкой, безопасностью и инструментами.

  • К чему готовиться в части регулирования. Почему регулирование ИИ будет идти по пути любых инженерных технологий, что происходит в Китае, и какие требования появятся первыми.

  • Как безопасники и разработчики приходят к партнёрству.
    Почему зрелые команды кибербеза не тормозят внедрение технологий, а помогают строить безопасный процесс — и почему к 2026 году в компаниях появятся команды, частично состоящие из ИИ-агентов.

Спикеры:

  • Сергей Марков — Директор по развитию технологий ИИ, Сбер.

  • Светлана Газизова — Директор по построению процессов безопасной разработки, Positive Technologies.

  • Александр Толмачев — ex-CDO Ozon FinTech, преподаватель Сколково и ВШЭ.

  • Сергей Кузнецов — Руководитель команды мобильной инфраструктуры, RuStore.

«Большинство серьёзных инцидентов происходит не из-за ИИ, а из-за плохо выстроенных процессов вокруг него. Агент с лишними правами доступа может привести к краху всего.»

— Сергей Марков, директор по развитию технологий ИИ, Сбер.

Смотрите полную запись круглого стола на YouTube — если вы внедряете ИИ, работаете с чувствительными данными или хотите адаптировать SDLC под новые риски.

Теги:
0
Комментарии0

🔥 Как спроектировать систему отопления многоэтажного дома без ошибок и лишней работы?

Многие инженеры сталкиваются с проблемой: проектирование сложной системы отопления занимает слишком много времени, расчеты приходится переделывать, а балансировка трубопроводов превращается в головоломку.

Мы решили показать, как это делается на практике, используя nanoCAD BIM Отопление. На вебинаре вы увидите полный путь проектирования многоэтажного жилого дома — от исходных данных до готовой сбалансированной системы.

Когда: 11 декабря, 11:00–13:00 (МСК)
Где: онлайн, бесплатно – зарегистрироваться

На вебинаре вы узнаете:

  • Как подготовить исходные данные для проекта отопления и какие ресурсы использовать

  • Как формировать систему отопления для разных этажей многоэтажного дома

  • Как подбирать диаметры трубопроводов и выполнять балансировку

  • Как ускорить выпуск рабочей документации без потери качества

  • Реальный проект: обзор многоэтажного дома, выполненного в nanoCAD BIM Отопление

  • Ответы на ваши вопросы

Спикер: Никита Иванов, инженер по сопровождению и внедрению ПО, участвовавший в пилотном проекте.

Будет полезно инженерам-проектировщикам ОВК, руководителям проектных групп, BIM-менеджерам и специалистам по теплоснабжению.

💡 Присоединяйтесь, чтобы увидеть реальный проект отопления многоэтажного дома в действии и узнать, как инженеры решают сложные инженерные задачи с nanoCAD BIM Отопление.

Теги:
0
Комментарии0

Привет, Хабр! Тем, кому регулярно приходится заглядывать в etcd — будь то QA, поддержка или разработчики — хорошо знакома ситуация, когда нужно разобраться с неожиданным состоянием сервиса, проверить конфиги или найти застрявший лок. И каждый раз всё сводится к одному: копировать ключ, запускать etcdctl get, читать многострочный JSON в терминале, ошибаться в пути… и в какой-то момент понимаешь, что это однообразие выматывает больше, чем сама проблема.

Поэтому наш коллега из Хайстекс сделал небольшой TUI-инструмент, который заметно упрощает работу с etcd и делает её куда дружелюбнее для тех, кто каждый день копается в окружениях. Он снимает рутину etcdctl, даёт привычную “каталожную” навигацию, подсвечивает скрытые _-ключи, позволяет комфортно открывать большие конфиги и помогает разбираться с локами, которые любят появляться в самых неожиданных местах.

Если вы в QA, поддержке или просто часто работаете с etcd, этот инструмент легко сэкономит вам время и нервы.

Статью можно прочитать здесь.

Теги:
0
Комментарии0

Почему мне не понравился Arch Linux

Однажды я решил попробовать Arch Linux — в качестве эксперимента, чтобы понять, подходит ли он мне как основная система. Спойлер: нет. Хотя я понимаю, почему Arch нравится многим, лично мне он не зашёл. Расскажу коротко — без холивара, просто субъективный опыт.

1. Слишком много ручной настройки

Да, это философия Arch — «собери систему под себя».
Но когда даже базовые вещи требуют:

  • поиска пакета вручную,

  • чтения вики,

  • настройки конфигов,

в какой-то момент это начинает отвлекать от работы.

Мне хотелось просто пользоваться системой, а не постоянно её собирать.

2. Установка превращается в квест

Я понимаю, что сейчас есть Archinstall, но это всё равно:

  • больше шагов,

  • больше точек, где можно ошибиться,

  • больше нюансов, которые надо держать в голове.

Для сравнения: Ubuntu/Debian/Fedora ставятся буквально за 10–15 минут без сюрпризов.
Arch — это отдельный процесс, который каждый раз занимает время, силы и концентрацию.

3. Постоянные обновления и риск поломок

Rolling release — это круто, но это также:

  • риск, что обновление завтра что-то сломает,

  • необходимость держать в голове зависимости,

  • желание обновляться реже, но при этом понимание, что массово обновлять ещё опаснее.

Мне нужен более предсказуемый рабочий инструмент, а не адреналиновый аттракцион.

4. Много времени уходит на поиск информации

Arch Wiki — одна из лучших в мире, но:

  • почти каждое действие требует чтения документации,

  • часто нужно искать решения на форумах,

  • иногда конфликты пакетов решаются вручную.

Да, можно привыкнуть, но мне не хотелось превращать рабочий компьютер в постоянную учебную площадку.

5. Минимализм оказался минусом

Arch устанавливается «голым».
Ты ставишь:

  • окружение,

  • драйверы,

  • кодеки,

  • шрифты,

  • инструменты,

  • конфигурируешь систему практически с нуля.

Кому-то это даёт свободу.
Мне — лишние часы, которые можно было потратить на реальную работу.

Итог

Я понимаю, за что любят Arch — скорость, свежие пакеты, гибкость. Но для моего сценария использования он требует слишком много времени и внимания. В итоге я вернулся к Debian/Ubuntu: они просто работают, а я могу заниматься задачами, а не конфигами.

Теги:
+2
Комментарии21

Привет, Хабр!

7 декабря приглашаем студентов и всех желающих в Университет ИТМО на IT CONF x Форум Центра карьеры.

15:00–15:50 (аудитория 1404) — воркшоп Авенира Воронова, директора по внедрению AI, Veai

На IT CONF x Форум Центра карьеры вас ждут горячие тренды, технологии и встречи с IT-сообществом.

В этот раз в центре внимания – развитие и применение искусственного интеллекта:

  • ИИ как партнер в разработке

  • влияние ИИ на рынок труда

  • современные компетенции и карьерные траектории в бигтехе

  • стек System Design в 2030 году: что нужно уметь разработчику

  • какая стратегия ИИ ждет нас в ближайшие десятилетия

📍 Где: ИТМО, Кронверкский пр., 49

Принять участие может каждый — вне зависимости от возраста, места учебы или работы.

👉 Регистрация

Будем рады встрече и вашим вопросам!

Теги:
0
Комментарии0

Настраиваем LLM для нестандартных задач

Если тема больших языковых моделей (LLM) вам известна, то, скорее всего, вы знаете, что в основе их работы лежит прогнозирование следующего слова, подкрепленное математическими вычислениями. Обычно на этом объяснения заканчиваются, а сам процесс предсказания остается своего рода «черным ящиком». В статье «Лабораторная работа по тонкой настройке LLM для нестандартных задач классификации» постарались углубиться в эту тему и показать, как с помощью тонкой настройки LLM можно решать вполне прикладные задачи, например, классификацию. В качестве примеров — код из одной интересной книги.

Материал организован так, чтобы вы могли самостоятельно повторить все шаги и в итоге получить набор скриптов для создания собственного пайплайна обучения LLM. Чтобы приступить к лабораторной работе, достаем двойные листочки, расчехляем питон и тиктокен.

Теги:
+1
Комментарии0

Привет, Хабр! Наступила очередная пятница, поэтому я несу полезные материалы на выходные для тех, кто хочет получше освоить Ubuntu. Информация по ссылкам довольно базовая, для начинающих. Все бесплатно, без регистрации и смс. Поехали!

Теги:
+3
Комментарии0

😎 СПИН — не техника вопросов. Это стратегия, без которой большие продажи не работают

Провели экспертный подкаст в прямом эфире на тему управления большими продажами и внедрения методики СПИН в CRM-систему.

🎙 Спикеры:
Александр Стародубцев, владелец продукта SimpleOne B2B CRM;
Игорь Шубин, эксперт по СПИН-продажам, Академия SPINCAT;
Максим Потапов, руководитель проектов и эксперт по внедрению CRM и BPM, КОРУС Консалтинг.

Практические кейсы, живой разговор и максимальная польза.

Приглашаем к просмотру: VK Видео | Youtube | Rutube

Полная версия с большим количеством методической части технологии СПИН

Теги:
-1
Комментарии0

Ближайшие события

Продолжаю играться с телетайпом.

Прежде всего, немного доработал схему адаптера. Добавил в нее автостоп. Автостоп выключает двигатель телетайпа, если определенное количество времени не принимается или не передается информация. Телетайпы часто комплектуются механическим автостопом, но в моем экземпляре он отсутствует. Поэтому сделаем электронный.

Схема электрическая принципиальная
Схема электрическая принципиальная

Автостоп реализован на реле К1 и двух транзисторах VT4 и VT5. При приеме или передаче символа стартовый импульс посылки проходит через диоды VD1 или VD3 и открывает транзистор VT4. Через открытый транзистор очень быстро разряжается емкость C3, которая затем медленно заряжается через высокоомный резистор R19. Если долгое время не было никаких посылок, то конденсатор потихоньку зарядится до порогового напряжения транзистора VT5, который закроется и отключит реле. Сопротивление резистора и емкость конденсатора подобраны так, чтобы отключение происходило примерно через минуту бездействия аппарата.

Переключателем S1 можно выбрать режим работы – OFF/ON/AUTO, то есть, мотор всегда выключен, всегда включен и автоматический режим.

Также, в схему была добавлена возможность как двухпроводного, так и четырехпроводного подключения. Для этого добавлены резисторы R1, R2 и R4, а также дополнительный каскад на транзисторе VT1. Этот каскад нужен только для трансляции импульсов передачи для автостопа при четырехпроводном подключении.

Еще добавлены светодиоды индикации питания, приема и передачи и сам источник питания из внешнего адаптера сделан встроенным, поскольку теперь 230 вольт все равно заходят в блок. Вся схема смонтирована на макетных платах в небольшом пластиковом корпусе.

С этой доработкой работать с аппаратом стало намного удобнее и комфортнее. Чтобы программно запустить аппарат необходимо лишь послать символ 11111 (команда переключения на латинский алфавит) и подождать примерно секунду раскрутки двигателя. Почему именно этот символ? Потому что только этот символ, состоящий из всех единиц, будет правильно распознан механикой аппарата при любой скорости вращения мотора.

В прошлый раз для подключения аппарата к компьютеру я написал некое подобие терминала. Программа транслирует код вводимых символов в МТК-2 и наоборот. Сейчас же я решил прикрутить этот транслятор к телеграмм-боту. На мой взгляд, это будет весьма символично – вместе соединятся технологии передачи сообщений далекой древности и настоящего времени.

Телеграмм-бот – это небольшое приложение, которое может работать отдельно от телеграмм-клиента и взаимодействовать напрямую с телеграмм-API для выполнения какой-либо функции. В нашем случае оно должно получать сообщение пользователя и выводить его на телетайп. А также введенное с телетайпа сообщение отправлять выбранному пользователю в ответ.

Почти полностью готовую библиотеку на Си я взял тут. После клонирования репозитория необходимо доустановить библиотеки curl4 и json-c и, после компиляции, все заработало с первого раза.

В примере, шедшем вместе с библиотекой, нужные мне функции (приема и передачи сообщений) были полностью реализованы. Ничего дополнительно делать даже и не пришлось. Необходимо было только дописать логику работы с телетайпом.

Если от пользователя приходит команда /start, ему выдается краткая инструкция. Также бот реагирует на команду /who, по этой команде выдается зашитый в комбинаторный валик автоответ телетайпа.

Что в итоге получилось, может проверить любой пользователь Телеграмм (бот teletypeT63_bot). А убедиться, что отвечает реально телетайп можно по видеотрансляции (с 12.00 до 13.00 МСК). Единственная просьба: воздержаться от посылки нецензурных, оскорбительных и политических сообщений. Также стоит ограничение на слишком длинные сообщения (более 100 символов).

Теги:
+7
Комментарии0

MWS AI представила платформу для создания корпоративных ИИ-агентов в едином интерфейсе (параллельно с Google AI Studio, кстати).

Платформа уже доступна корпоративным заказчикам, предварительно она прошла тестирование в МТС и еще у нескольких клиентов в финансовом секторе и здравоохранении. 

Главное:
- Можно создавать ИИ-агентов и мультиагентные системы в визуальном конструкторе без кода.

- Платформа vendor agnostic. По умолчанию доступны LLM семейства Cotype от MWS AI, но можно подключить любые другие – свои и с рынка. Ряд других компонентов тоже заменяемы при необходимости.  

- Есть инструментарий для подготовки и разметки данных, дообучения моделей под специфические задачи, мониторинга качества и эффективности агентов. А еще модули autoRAG, NER и пр.

- Уже встроены готовые ИИ-ассистенты для базовых бизнес-задач (копайлоты для HR, аналитики, общекорпоративной рутины, клиентского сервиса, разработки) – их линейка будет расширяться.

- Мультимодальные возможности: есть модели для синтеза и распознавания речи, OCR, VLM, а еще для речевой аналитики. 

- Интеграционный хаб: можно подключать агентов в любые рабочие среды и мессенджеры и интегрировать с платформой различные системы.

 MWS AI Agents Platform разворачивается в контуре компании или частном облаке, в нее встроены механизмы управления ролями и защиты данных, поддерживается multi-user и multi-project управление проектами. 

Узнать подробности и запросить демо можно на сайте: https://mts.ai/ru/product/ai-agents-platform/

Теги:
0
Комментарии0

📊 Multi‑LLM Orchestrator v0.6.0: метрики провайдеров и умный роутинг

На этой неделе на Хабре вышла статья про Multi-LLM Orchestrator — библиотеку для работы с российскими LLM через единый интерфейс. Сегодня релиз v0.6.0 добавляет метрики провайдеров и стратегию роутинга на основе health status.

Автоматический сбор метрик

Роутер отслеживает каждый запрос и собирает статистику по провайдерам. Latency, success rate, количество ошибок — всё фиксируется без дополнительной настройки.

from orchestrator import Router
from orchestrator.providers import GigaChatProvider, ProviderConfig

router = Router(strategy="best-available")
router.add_provider(GigaChatProvider(
    ProviderConfig(name="gigachat", api_key="...", model="GigaChat")
))

# После нескольких запросов
metrics = router.get_metrics()
print(f"{metrics['gigachat'].avg_latency_ms:.0f}ms")
print(f"Health: {metrics['gigachat'].health_status}")

Система отслеживает среднюю задержку и rolling average по последним 100 запросам. Если провайдер начинает деградировать, это видно сразу.

Health status провайдеров

Роутер классифицирует каждого провайдера автоматически:

  • healthy — error rate меньше 30%, стабильная latency

  • degraded — error rate 30-60% или задержки растут

  • unhealthy — error rate выше 60%

Классификация происходит на лету, без пороговых значений в конфигах.

Стратегия best-available

Новая стратегия роутинга выбирает провайдера на основе метрик. Приоритет отдаётся healthy-провайдерам, среди них — с минимальной задержкой.

router = Router(strategy="best-available")
router.add_provider(gigachat_provider)
router.add_provider(yandexgpt_provider)

# Роутер выбирает самого здорового и быстрого
response = await router.route("Вопрос")

Если GigaChat деградирует до 3 секунд, а YandexGPT стабильно отвечает за 500ms — роутер переключится на YandexGPT.

Тестирование на боевых API

Запущена серия тестов с реальными запросами к GigaChat и YandexGPT. Результаты подтверждают стабильность системы метрик.

Метрики провайдеров: GigaChat vs YandexGPT (fallback-тест)
Метрики провайдеров: GigaChat vs YandexGPT (fallback-тест)

Первый тест показал базовую работу: GigaChat отвечает за ~1.7 секунды со 100% success rate. Второй тест проверил fallback при ошибке авторизации — роутер переключился на YandexGPT без потери запроса. Третий тест подтвердил корректность метрик при streaming-запросах.

YandexGPT показал стабильные 500-700ms на серии из шести запросов. GigaChat медленнее (~1.7s), но это ожидаемо для более тяжёлой модели. Success rate обоих провайдеров — 100%.

Structured logging

Каждый запрос логируется в структурированном формате с полями provider, model, latency_ms, streaming, success. Интеграция с Prometheus или Grafana требует только парсинг JSON

# При успехе
logger.info("llm_request_completed", extra={
    "provider": "gigachat",
    "latency_ms": 1723
})

# При ошибке
logger.warning("llm_request_failed", extra={
    "provider": "yandexgpt",
    "error_type": "RateLimitError"
})

Ссылки

Следующий релиз (v0.7.0) добавит token-aware метрики: подсчёт токенов, расчёт tokens/s, cost estimation и экспорт в Prometheus.

Если используете российские LLM в production — буду рад обратной связи в комментариях.

Теги:
0
Комментарии0

Запуски 2025: программирование

В 2025 году мы запустили 25+ курсов и тарифов для ИТ-специалистов. В этой подборке собрали новые программы по разработке и архитектуре.

«Rust для действующих разработчиков» — 4 месяца
После курса сможете использовать Rust как основной стек и создавать отказоустойчивые системы с высоким уровнем безопасности.

«SRE — обеспечение надёжности систем» — 4 месяца
Освоите практики и подходы SRE, наладите мониторинг инфраструктуры и приложений, чтобы повышать стабильность и улучшать бизнес-процессы.

«DevSecOps: безопасная разработка и эксплуатация» — 3 месяца
Разберём, как выявлять и устранять уязвимости на ранних этапах и снижать риски на всём жизненном цикле приложения — от планирования до эксплуатации.

«MLOps для разработки и мониторинга» — 5 месяцев
Освоите принципы MLOps, чтобы ускорять и безопасно выводить ML-модели в продакшн, настраивать стабильную инфраструктуру и улучшать взаимодействие команд.

«Микросервисная архитектура» — 3 месяца
Научитесь проектировать и реализовывать масштабируемые и отказоустойчивые микросервисные системы. Разберёте паттерны SAGA и Transactional Outbox, подход DDD и другие инструменты.

«Мидл разработчик C++» — 4,5 месяца
Прокачаете владение современным C++: лучшие практики и идиомы языка, работа с диапазонами, библиотечными возможностями, асинхронностью и многопоточностью.

«Продвинутая разработка на C# и .NET» — 5 месяцев
Научитесь писать безопасный высокопроизводительный код, разбирать сложные продакшн-задачи, внедрять observability (логи, метрики, трейсы) и использовать современные возможности .NET.

Теги:
0
Комментарии0

Хабр бенч LLM

Здесь в комментах завязалась дискуссия про возможности тупых LLM. И вроде как тупыми оказались не LLM. Gemini распознала тавтограмму, распознала белиберду и написала рассказ из ровно 20 слов.

В этой связи хочу предложить сеанс разоблачения иинтелектуальной магии.

Скептики: накидывайте шарад уровня "дебил или нет". И делайте ставку.
Трудяжки: скармливайте задачу вашему инструменту и результат сюда. Первый, кто принес правильный ответ, получает банк.


Теги:
+1
Комментарии0

TDI: Как удвоить свет в кадре без смены объектива и проигрыша в скорости для линейной камеры.

Одна из самых частых головных болей для инспекции на производстве — это нехватка света. Особенно когда конвейер несётся с бешеной скоростью, а выдержку нужно выставлять минимальную, чтобы не было смаза. Использовать супермощный светильник — это дорого. Но что, если бы камера могла просто... вдвое эффективнее использовать тот свет, который уже есть?

У многих линейных камер сенсор представляет собой несколько линий, обычно это от 2 до 8. Изображение объектов как бы перетекает от одной линии к другой, такими образом: фактическое время нахождения картинки на сенсоре линейной камеры больше, чем на одном пикеле. Значит, можно его заснять повторно!

Можно использовать binning — простое сложение двух пикселей в один суперпикесль. Но это снижает разрешение камеры. Альтернативой стал режим TDI.

Пример работы TDI
Пример работы TDI

TDI (Time-Delay Integration) — технология в линейной камере, в которой изображение последовательно «перекатывается» со строки на строку. Электроника камеры синхронизирует эту скорость сдвига со скоростью объекта. В итоге, за время прохождения всей матрицы, сигнал (свет) от одной и той же точки объекта накапливается с двух и более пикселей. Результат — более яркий и менее шумный кадр без увеличения выдержки.

Теги:
+1
Комментарии0

Как перейти от пилотов к рабочим решениям, если вы работаете над ML-проектом в MedTech? 

Не пропустите ответ на митапе Pitch the Future.Med AI. Ровно через час, в 19:00, начнем трансляцию докладов для ML-команд в медицине. Программа будет насыщенной: разберем три кейса, проведем дискуссию и завершим мероприятие питчем ML-проектов.

Смотреть митап →

Подробнее про программу

♦️ Три кейса из MedTech. Вы узнаете, как пройти путь от пилота к внедрению, как включать новое решение в процессы клиники и как развивать AI-решение.

♦️ Дискуссия «Как драйвить инновации в медицине». Проведем диалог зала со спикерами о том, что реально влияет на развитие AI/ML-проектов.

🔥 Гвоздь программы — питч ML-проектов. Его участники получат экспертную оценку от специалистов, рекомендации по развитию проекта и возможность задать вопросы профессиональному сообществу и жюри.

Подключайтесь:

✔️ на YouTube;
✔️ в VK.

Теги:
+3
Комментарии0