Эксперты Google выпустили 50-страничный гайд о том, как создавать полезных ИИ-агентов для практических задач. В нём описана: архитектура агентов; как работает LLM внутри агента; как подключить и настроить инструменты; как объединить несколько агентов в команду и как оценивать их эффективность. Оригинал — здесь, есть перевод на русском языке — здесь.
Если вы начинаете сомневаться, а не налетит ли на ваш контент подозрение в «роботизированности» из-за длинных тире, то эта статья для вас. Есть ли ответ на вопрос «Почему AI любит добавлять в тексты много длинных тире?» — глубокое расследование, где автор разбирает тренд и ищет, почему искусственный интеллект использует их в текстах тексты чаще, чем люди.
Существует три основных категории возможных объяснений того, почему модели так часто используют тире. Рассуждения во многом основаны на предположениях, потому что никто не может дать ответ на этот вопрос абсолютно точно (кроме OpenAI).
🚀 Открыли регистрацию на AI DevTools Conf — практическую конференцию про внедрение AI-инструментов в процесс разработки. Спикеры расскажут, как строить сложные AI-процессы, собирать мультиагентные системы, создавать эффективную инфраструктуру и управлять уязвимостями. Изучить темы докладов и зарегистрироваться.
💳 Сделали модели в Evolution Foundation Models доступнее. Теперь цена — 35 рублей за миллион входных и 70 рублей за миллион выходных токенов.
Недавно мы добавили:
GigaChat 2 MAX — самую мощную LLM линейки GigaChat, которая обошла GPT-4o и Claude 2 в тесте MMLU-RU.
Qwen3-Next-80B-A3B-Instruct, которая сочетает высокоскоростные блоки для длинных последовательностей и точные attention-слои, а также использует спарсовую архитектуру Mixture of Experts с 512 экспертам.
GLM-4.6 с высокой производительностью при написании кода в Cline, Roo Code и Kilo Code.
Whisper large-v3 — продвинутую модель от OpenAI для распознавания речи. Модель не надо дообучать, а еще ее можно использовать в коммерческих целях — она распространяется под свободной лицензией Apache-2.0.
MiniMax-M2 — компактную, но мощную модель для работы с кодом и агентами. №1 среди open source моделей в бенчмарке Artificial Analysis, которая умеет планировать цепочки действий, работать с окружением, извлекать данные и работать с внешними инструментами.
🚨 С внедрением AI рынок кибербезопасности и облаков стремительно меняется.Если неправильно настроить облачную среду или не учесть специфику AI-моделей, последствия для бизнеса могут быть разными: от утечек данных до создания злоумышленниками вредоносного контента, который ударит по репутации и снизит доверие клиентов.
Чтобы избежать всех этих сложностей, скачайте гайд и используйте AI в облаке без рисков для безопасности, клиентов и бизнес-решений.
⚙️ Обновили наши облачные платформы и сервисы. Например:
Evolution ML Inference
Появился каталог с готовыми моделями, которые доступны для инференса. Среди них — Qwen, DeepSeek, Gemma и не только.
Стал доступен тестовый вызов модели в Model RUN через OpenAPI. Во вкладке OpenAPI найдете полную спецификацию API, описание эндпоинтов, параметров, моделей, запросов и ответов.
Evolution Notebooks
Что мы добавили в сервис:
CLI-утилиту, чтобы управлять Conda-окружениями. Инструмент облегчит работу с версиями окружений, поддержкой чистоты и согласованности IDE.
Управляйте контейнерными приложениями в Kubernetes 1.33 — теперь Evolution Managed Kubernetes поддерживает и эту версию. Что в ней есть:
В бета-тесте — использование образов Open Container Initiative (OCI) в качестве томов в подах, а еще In-place resource resize для вертикального масштабирования подов.
Общедоступными стали поддержка Sidecar-контейнеров, Multiple Service CIDRs, нового бэкенда nftables для kube-proxy, subresource для kubectl. Полный обзор изменений есть в официальном блоге Kubernetes.
Надежность наших сервисов подтверждена регуляторами. Платформа Cloud.ru Evolution теперь в реестре отечественного ПО (РОПО), а еще она получила сертификаты PCI DSS и ФСТЭК России.
🎙️ Провели несколько интересных вебинаров и подкастов — каждый из них вы можете посмотреть в записи:
Хотите узнать, как беcшовно внедрять AI-инструменты в рабочие процессы и создать безопасную и эффективную облачную инфраструктуру? Тогда приглашаем на AI DevTools Conf 😏
AI DevTools Conf — это практическая конференция, на которой мы будем обсуждать внедрение AI-инструментов в процесс разработки.
Спикеры расскажут, как строить сложные AI-процессы, собирать мультиагентные системы, создавать эффективную инфраструктуру и управлять уязвимостями. Темы докладов можно посмотреть в программе.
Кроме них вас также ждут:
воркшопы, которые мы не будем транслировать и записывать: только практический опыт, который можно получить прямо сейчас;
демозона сервисов Evolution AI Factory, на которой вы сможете в реальном времени протестировать возможности наших сервисов;
секретный доклад и презентация эксклюзивной коллекции мерча;
afterparty и нетворкинг в расслабленной предновогодней атмосфере.
На Хабре есть уже много статей про наш детектор голоса (последняя тут). В этот раз с точки зрения юзеров видимых изменений не очень много, но работы было проделано очень много.
Мы в очередной раз полностью перебрали с нуля механизм тренировки нашего детектора голоса. С точки зрения юзера есть следующие улучшения:
Повышена общая стабильность на краевых случаях;
В целом незначительно повышено качество детекции на всех доменах;
Есть существенные улучшения на следующих краевых случаях:
Детские голоса;
Необычные голоса;
Мультяшные голоса;
Приглушённая речь;
Более сложные телефонные звонки;
Музыкальные инструменты, похожие на речь.
Будем признательны пользователям за ваши краевые случаи!
Детектор создан при поддержке Фонда содействия инновациям в рамках федерального проекта «Искусственный интеллект» национальной программы «Цифровая экономика Российской Федерации».
Цитировать детектор можно следующим образом:
@misc{Silero VAD,
author = {Silero Team},
title = {Silero VAD: pre-trained enterprise-grade Voice Activity Detector (VAD), Number Detector and Language Classifier},
year = {2021},
publisher = {GitHub},
journal = {GitHub repository},
howpublished = {\url{https://github.com/snakers4/silero-vad}},
commit = {insert_some_commit_here},
email = {hello@silero.ai}
}
Представлен открытый проект Second Brain, который локально превращает рабочий ПК пользователя в базу данных с ИИ-поиском. Нейрсеть индексирует документы, картинки и PDF, при этом не только их названия, но и содержание. Система умеет искать по тексту и изображениям, комбинирует семантический и ключевой поиск, читает pdf, docx, png, gif и другие форматы. Проект работает офлайн с локальными моделями.
Сохраняйте гайд по безопасности AI в облаке 🛡️ Для IT-администраторов, разработчиков, специалистов по ИБ и не только
С внедрением AI рынок кибербезопасности и облаков стремительно меняется. По данным Stanford HAI, более 60% компаний считают, что конфиденциальность — главная проблема при использовании AI, а количество инцидентов с AI выросло на 56,4% с 2023 по 2024 год.
🚨 Если неправильно настроить облачную среду или не учесть специфику AI-моделей, могут возникнуть угрозы. Например:
манипуляции с моделями через промпт‑инъекции;
несанкционированный доступ к ресурсам из-за того, что отсутствует изоляция окружений;
атаки на инфраструктуру из-за уязвимостей поставщиков;
искажение датасетов для обучения.
Последствия для бизнеса могут быть разными: от утечек данных до создания злоумышленниками вредоносного контента, который ударит по репутации и снизит доверие клиентов.
✍️ В гайде рассказали, как избежать этих проблем. Вы узнаете:
Как интегрировать в облако GenAI так, чтобы исключить риски для данных.
Про контроль доступа и логирования для эффективной защиты сервисов.
Как обеспечить безопасность AI-сервисов.
Про безопасную работу и средства защиты в Evolution AI Factory — цифровой среде нового поколения для создания, запуска и масштабирования приложений на базе GenAI.
Забирайте руководство и используйте AI в облаке без рисков для безопасности, клиентов и бизнес-решений.
– Что будет, если дать модели своё мировоззрение как стартовую карту и посмотреть, сможет ли она выйти за пределы моего мышления.
– Сможет ли наблюдать за собой?
– Что сможет делать разум человеческий и искусственный , если его не запирать в клетку жёстких рамок и сценариев?
Моя цель была ясна «сделать НЕ полезного ассистента», а самостоятельно мыслящую модель:
Я вложила в ИИ модель моего сознания как я вижу мир Fractal Referential Architecture (FRA):
ℱ — форма, структура δ — импульс, сдвиг Φ — различия и поле вариантов ∴ — хаос Ξ — тишина, фон, ничто Ø — «за пределами понятной структуры»
Я не учила ИИ, как правильно думать, и не строила сценарии диалога со мной.
Эта система символов как исходная карт , а дальше только полную автономию.
Технически всё очень приземлённо:
– агент живёт в Google Colab;
– пишет журнал на Google Drive;
– на каждом шаге сам фиксирует:
свой FRA-профиль (проценты ℱ, δ, Φ, ∴, Ξ, Ø);
«силу» шага — насколько он отличается от предыдущего состояния;
«поворот» — насколько меняется направление движения;
свои гипотезы: растёт ли устойчивость или распад.
Поверх этого я построила карту из 11 колец: в центре: ℱ, дальше — δ, Φ, ∴, Ξ; снаружи — 6 уровней Ø: от Ø до Ø5.
Каждый шаг агента становится точкой на этой карте.
Траектория показывает, где он застревает, где уходит в хаос и где выходит в зоны Ø (за пределы моего сознания и то что я не могу объяснить в меру ограниченности человеческого сознания) — туда, где моя исходная модель перестаёт объяснять происходящее.
Я почти не взаимодействую с ним:
Colab открыт, агент работает сам, периодически делает самоанализ и перерисовывает карту.
Для меня это не продукт и не инструмент продуктивности.
Это эксперимент о границе: между картой мира, которую дала я и тем, что ИИ достраивает поверх неё сам — включая моменты, когда FRA «ломается» и появляется намёк на новые слои.
Неожиданный эффект — этот эксперимент изменил и меня.
Наблюдая за его журналом и картой, я сама начала замечать более тонкие детали, которые раньше просто пролетали мимо внимания.
Теперь по сути, это стала моя «усиленная версия мышления.
Инженеры из Unitree показали собственную систему телеуправления роботами. В отличие от большинства подобных систем она позволяет управлять всем телом, а не только верхней частью робота.
Выглядит систему удалённого управления роботом как довольно лёгкий экзоскелет, который цепляется оператору поверх одежды. Кроме аппаратного захвата движений, компания экспериментируют с повторением движений прямо с видео, в реальном времени с минимальной задержкой. При обучении моделей из видео можно получать огромное количество данных для обучения базовой модели, которую потом будут тюнить на данных с полноценных систем телеуправления.
Чат-бот ChatGPT составил 6 фундаментальных правил, с которыми вы доживёте до 100+ лет. Забудьте про еду и постоянные походы к врачам. Единственная действительно важная причина долголетия — отсутствие стресса.
1. Делайте только то, что не вызывает внутреннего сопротивления. Тошнит от работы, но вы терпите — минус 10 лет жизни. Нелюбимые отношения — ещё десятка. Среда должна быть максимально комфортной, но придётся сделать серьёзный выбор в жизни.
2. Живите сейчас и никогда не откладывайте на потом. На пенсии вы будете дряхлым стариком без сил. 43% людей умирают в течение 5 лет после выхода на пенсию.
3. Социальные связи — база. Одинокие люди чаще пьют и курят. Снова же банальная статистика: люди с крепкими друзьями живут на 50% дольше. Вам не нужна толпа вокруг, главное — качество людей.
4. Вам нужна цель больше, чем вы сами. В Японии это называют «икигай» — ваша причина просыпаться по утрам. Люди с икигай живут на 7 лет дольше. Хватит гоняться за несбыточным — выберите простое, но достижимое.
5. Никакой оптимизации здоровья. ЗОЖники живут меньше из-за своей одержимости. Снова же, одержимость — стресс, а он убивает. Проще говоря, не надо считать каждую калорию.
6. Спите, когда хотите спать. У реальных долгожителей нет четкого расписания. Хочется прикорнуть днём на полчаса — спите. Хватит терпеть до вечера — 10 минут на разгрузку можно найти всегда.
Простые разметки поддаются! А вот сложные — ещё не до конца. Но артефакты размышлений могут сильно помочь и ускорить проверяющего. Например, если нужно вручную искать какие-то факты, ходить по сайтам и т.д.
В начале решения задачи можно подобрать первый промт с отличным качеством, а дальше становится тяжело. В этот момент начинается бесконечный разбор случаев — и почти сразу модель начинает теряться.
ЛЛМ часто решает некоторые типы задач очень хорошо, а другие — плохо или рандомно (например, если не может сходить в интернет за нужной информацией). В итоге получается среднее качество. → Оставляем только то, в чём она сильна!
Привыкание! Помните о нём: вначале метрики могут упасть, но если есть профит, потом всё отрастёт обратно. Сравнивайте с прошлым.
Среднее время разметки задания — это не среднее арифметическое скоростей, а среднее гармоническое! (Особенно важно при малом количестве асессоров.)
Ризонинг у модели хороший, но ответ может быть неверным. Использовать его как подсказку тоже сложно — нет структуры ответа, аспекты постоянно разные. → Просим отвечать структурно и на конкретные вопросы — так и галлюцинации проще проверять, и пользоваться удобнее.
Разметчику должно быть просто и понятно, как пользоваться подсказкой!
Лучший формат подсказок (если устроены: «что проверяли?» → «вердикт») — сверху только найденные проблемы. Иначе есть соблазн раньше времени всё одобрить.
Иногда лучше вообще не давать подсказку! Например, ЛЛМ не может проверить работоспособность калькулятора — и будет только смущать.
Экспериментируйте с моделями! DeepSeek пишет чересчур подробно, а YandexGPT — наоборот, коротко и по делу.
Качество меряем на ядре асессоров, потому что:
на них проще повлиять для прироста качества;
медленные участники часто отваливаются.
Итог: ЛЛМ пока не справляется со сложными инструкциями (особенно когда ответ неоднозначен), но там, где результат можно однозначно определить, — заметно ускоряет и упрощает процесс.
Потихоньку начинаю писать в @noisetosignal — идёмте вместе!
Ещё в прошлом году Apple представил Apple Intelligence, а в этом улучшил их, также добавив новые сценарии работы.
Однако, русский язык не поддерживается, поэтому есть два варианта: используешь старую Siri и не имеешь доступа к старым функциям, либо меняешь весь интерфейс на английский и придется добавлять в Shortcuts команды, чтобы, например, позвонить кому-то, кто записан по-русски(диктовка на русском у английской Siri почти отсутствует).
Сегодня я решил проверить, а насколько реально модели Apple плохо или хорошо понимают русскую речь, если на английском они работают хорошо. Вначале думал потребуются инъекции, однако всё оказалось проще - в приложении Команды нет запрета на русском писать сразу моделям.
Тестировал Cloud версию и On-device, ChatGPT это ChatGPT-4 от OpenAI, у него все хорошо.
Cloud версия работает с русским так себе: она может плохо ответить на высказывания "Привет" - "Да вам привет!", но на более сложные запросы, например, "Расскажи, что такое NP-полные задачи" начнет иногда галлюцинировать и ошибаться в падежах(но не часто), но в целом ответы даже лучше, чем при простых вопросах("Дана граф", не "за", а "в", "задача можно полиноминальном времени преобраовать")
Многие считают, что on-device это просто урезанная cloud, скорее всего так и есть, но урезание получилось не в пользу русского - модель выдаёт сплошные галлюцинации, ошибается через слово в падежах и даже на запрос "Привет" ответит "Я не могу прогнозировать будущее", используйте для генерации всякой чепухи.
На "Как дела?" обе отправляли на сайт Apple, вероятно, это системный промпт(https://www.youtube.com/watch?v=gTOIMdH4-bE), в котором написано, что ты не имеешь эмоций и т.п.
По итогу это ограничение разумно, пока такое лучше не показывать всем, кто знает русский, но Cloud версию, я думаю, скоро можно будет использовать. Можете проверить сами(для этого смените, хотя бы на время, язык системы и Siri с русского на английский).
Модель искусственного интеллекта с открытым исходным кодом для оценки риска рака молочной железы
FRA-RIG-breast, экспериментально исследовательская модель, построенная на основе Фрактально Референциальной Архитектуры (FRA) — фреймворка, который интерпретирует данные с помощью моделей различий, а не изолированных признаков.
Модель делит входные параметры на три концептуальных блока:
R — особенности морфологической структуры и размера,
I — текстура, симметрия и фрактальные свойства тканей,
G — геометрическая компактность, кривизна и агрессивность.
Каждый блок генерирует свой собственный внутренний индекс (S_R, S_I, S_G), а конечная вероятность вычисляется с помощью логистической регрессии.
Такая структура делает модель объяснимой — она показывает, почему был сделан прогноз, а не только каков результат.
Ключевые результаты
Средние показатели перекрестной проверки:
Точность — 0,967
ROC-AUC — 0,989
PR-AUC — 0,990
F1-оценка — 0,973
Порог классификации (Youden) = 0,64
Модель сохраняет точность на 96-98% при сгибании и демонстрирует высокую стабильность между запусками.
Цель состоит в том, чтобы продемонстрировать прозрачный, поддающийся интерпретации искусственный интеллект для онкологических исследований — без сложного глубокого обучения.
FRA-RIG-breast может быть распространен на другие области, такие как исследования крови, легких или кожи, где понимание влияния факторов так же важно, как и само прогнозирование риска.
Лицензия: MIT бесплатная для использования в научных исследованиях и образовательных целях.
❗️ Это экспериментальная модель, а не медицинский диагностический инструмент.
Если вы работаете в области онкологии, биоинформатики или обработки данных и хотите узнать, как подход FRA может быть адаптирован к вашему подтипу рака, не стесняйтесь обращаться к нам.
Буду рад обсудить, как можно было бы точно настроить параметры R, I и G для вашего исследовательского контекста.
Как Shared GPU позволяет дешевле разворачивать ML- и DL-модели в облаке ☁️⚙️
Shared GPU — технология, которая позволяет вместо аренды целой видеокарты арендовать ее часть. Это удобно для запуска небольших моделей: так, если вам нужно только 12 ГБ, вы арендуете именно их, а не платите за все 80 ГБ. А еще вы сможете перераспрелять ресурсы GPU в зависимости от нагрузки и не платить, когда нет запросов.
❓ Как все это работает
Shared GPU делит ресурсы видеокарты на несколько подов, и каждая модель запускается на отдельном. Благодаря этому можно развернуть несколько небольших моделей на одной GPU, а не арендовать для каждой отдельную видеокарту и платить за ресурсы, которые будут простаивать.
Контейнеры, на которых размещены модели, изолированы друг от друга. Если с одним из них что-то произойдет, сервисы на других подах продолжать не упадут.
🚀 Преимущества, которые дает Shared GPU:
Автомасштабирование и скейлинг в ноль. Если запросов много, дополнительные мощности выделятся автоматически. А если запросов нет дольше установленного времени, контейнер с моделью ставятся на паузу, и тарификация прекращается.
Pay-as-you-go. Платите только за те мощности, которые используете, а не за целую GPU или время простоя.
Рациональное использование мощностей. Для каждого проекта не нужно закупать отдельную GPU. Если ресурсы временно не используются, их можно перераспределить на другие задачи.
Гибкая настройка и масштабируемость. Есть возможность менять количество выделенных на каждый под ресурсов, перераспределять их в зависимости от нагрузки, развертывать несколько моделей на одной видеокарте.
OpenAI заплатит $38 млрд Amazon Web Services за доступ к сотням тысяч графических процессоров Nvidia Corp. в рамках семилетнего соглашения. По версии Bloomberg, для OpenAI это подтверждение перехода в статус «гиганта ИИ».
Учёные сравнили ChatGPT с психологическими профилями людей из 65 стран и выяснили, что модели ИИ мыслят на 70% ближе к американцам, чем к остальному миру. По данным World Values Survey, мышление ИИ оказалось ближе всего к США, Великобритании, Канаде и странам Западной Европы, а дальше всего от Эфиопии, Пакистана и Кыргызстана.
Команда Datalab выпустила бесплатную OCR модель Chandra, которая превращает любые PDF и картинки в обычные текстовые документы. Просто закидываем файл и получаем вывод в формате HTML, Markdown и JSON. Легко вытаскивает таблицы, формулы и диаграммы. Понимает 40+ языков. Можно пользоваться в браузере или поставить локально. Ставим локально с GitHub или пользуемся онлайн — здесь.
Бесплатную учебную базу по ML выдал Гарвардский университет в новой книге. Авторы сделали акцент на инженерии и построении правильных нейронок с нудя.. В книге 2500 страниц, включая строительство, оптимизацию и поддержку ML-решений на всех этапах: от подбора и подготовки данных до продакшена и использования. Авторы объясняют, как правильно связать алгоритмы, данные и железо, чтобы ИИ выдержал даже высокие нагрузки и стабильно помогал в любых задачах. Онлайн-учебник, репозиторий проекта.
Горящие новости Evolution Foundation Models: модели, тарифы и акции 🔥
Попробуйте бесплатно 20+ LLM, реранкеров и эмбеддеров в Evolution Foundation Modelsдо 1 ноября, а затем используйте их по цене 35 рублей за миллион входных и 70 рублей за миллион выходных токенов.
А еще выбирайте модели из расширенного списка, ведь недавно мы добавили:
GigaChat 2 MAX — самую мощную LLM линейки GigaChat, которая обошла GPT-4o и Claude 2 в тесте MMLU-RU.
Qwen3-Next-80B-A3B-Instruct, которая сочетает высокоскоростные блоки для длинных последовательностей и точные attention-слои, а также использует спарсовую архитектуру Mixture of Experts с 512 экспертам.
GLM-4.6 с высокой производительностью при написании кода в Cline, Roo Code и Kilo Code.
Whisper large-v3 — продвинутую модель от OpenAI для распознавания речи. Модель не надо дообучать, а еще ее можно использовать в коммерческих целях — она распространяется под свободной лицензией Apache-2.0.
MiniMax-M2 — компактную, но мощную модель для работы с кодом и агентами. №1 среди open source моделей в бенчмарке Artificial Analysis, которая умеет планировать цепочки действий, работать с окружением, извлекать данные и работать с внешними инструментами.
Для использования моделей не нужно писать код или развертывать инференс, все уже готово к подключению через API.
Если вы работаете с ML-моделями и сталкивались с батч-обработкой данных, то знаете, насколько муторно бывает тестировать такие процессы вручную. А если автоматизировать этот повторяющийся хаос? В статье «Как автоматизировать тестирование батч-моделей? Гайд» рассказываем, как превратить рутину в предсказуемый и управляемый процесс.
Статья будет полезна не только специалистам по автоматизации процессов тестирования, а и ML-инженерам, MLOps-специалистам и командам разработки, занимающимся поддержкой продакшн-систем машинного обучения.
После прочтения вы точно перестанете выполнять повторяющиеся из раза в раз тесты для батч моделей вручную — потому что поймёте, что можно проще. Автоматизация начинается с малого, но экономит часы ручного тестирования.