GPU H200 в новой конфигурации выделенных серверов уже в Selectel
NVIDIA H200 — одна из самых мощных видеокарт для задач искусственного интеллекта с 141 ГБ памяти. В новой конфигурации — восемь GPU в формате SXM. Карты могут обмениваться данными на скорости до 4,8 Тбайт/сек. Поэтому конфигурация точно подходит для машинного обучения и инференса LLM.
Практическое применение:
Можно загружать большие параметры и контексты без постоянного свопа на диск — 141 ГБ vRAM в каждой карте позволяют работать с моделями и батчами, которые раньше требовали шардинга.
Высокая пропускная способность памяти (4.8 ТБ/с) ускоряет подачу данных в тензорные ядра для быстрого обучения и инференса больших языковых моделей и повышения скорости обработки токенов.
NVLink и SXM-формат минимизируют накладные расходы на обмен между GPU, что критично для крупных распределенных пайплайнов.
Selectel уже предлагает конфигурации с современными GPU и серверными платформами и готов собирать выделенные решения под H200-платформы. Берите в аренду 8×H200 в проверенной инфраструктуре вместо покупки и обслуживания собственного кластера.
До и после fine-tuning — что изменится в работе модели после дообучения? 🧠
Fine-tuning, или дообучение — это дополнительное обучение уже готовой модели на специализированных данных, чтобы она лучше выполняла узконаправленные задачи.
Это проще, чем обучение модели с нуля, так как нужно доработать лишь некоторые параметры, а не миллиарды. Файнтьюнить можно уже готовые модели, которые хорошо справляются с базовыми вещами, например, написанием текстов или генерацией изображений.
Для чего же подойдет fine-tuning? 👇
Исправление слабостей, если модель в чем-то проседает. Иногда стартовая модель не очень хорошо решает базовые задачи: путает термины, особенно если они схожи, или дает сложные нечитаемые ответы. Такое бывает, когда в обучающем датасете больше данных, например, на английском, а пользователи общаются на русском. Проблема решится, если дообучить модель на качественных данных с хорошими примерами, чтобы та поняла, что от нее требуется.
Обеспечить работу с минимумом задержек. В некоторых сервисах важно, чтобы модель отвечала мгновенно, а не обращалась за информацией к внешней базе знаний — это увеличивает время ответа. Вы можете дообучить модель на собственных данных, чтобы она быстро получала нужные сведения.
Глобально изменить датасет. Бывает, что многое из той информации, что использует модель, устаревает, или существенно меняются требования в предметной области. Тогда есть смысл собрать побольше качественных данных и провести дообучение на них.
Генерация текстов в специфичном стиле. Допустим, вы хотите, чтобы модель заполняла документацию в конкретном формате, использовала юридический стиль, оформляла тексты по ГОСТ или писала как Достоевский. Подогнать стиль ответов модели под нужный формат — задача, которую можно решить с помощью fine-tuning.
🤔 Что в итоге? Fine-tuning незаменим, если нужно поменять стиль ответов, подогнать тексты под конкретный формат, исправить изначальные слабости. Или когда важно, чтобы модель давала ответы без задержек и не ходила во внешние источники. Подробнее про fine-tuning, а еще про RAG и промпт-инжиниринг читайте в нашей статье.
А для дообучения вы можете использовать Evolution ML Finetuning — технология LoRA позволит сэкономить ресурсы GPU и ускорить процесс. Доступны модели из Hugging Face: сравнивайте их между собой, выбирайте подходящую и точечно настраивайте под свои задачи.
А у нас для вас сразу два вебинара про Kubernetes 🖥️☁️
Присоединяйтесь к встречам с экспертами Cloud.ru, чтобы узнать, как эффективнее работать в кубере и обеспечить безопасность контейнеров.
📅 16 сентября архитектор решений Илья Смирнов расскажет, как мультикластерная архитектура повышает отказоустойчивость сервисов. А еще — когда именно пригодится мультикластер и как его организовать с помощью фреймворка Karmada.
📅 18 сентября менеджер продукта Вера Орлова поделится, какую роль в защите контейнеров играет Admission Control, какие есть типы контроллеров и в чем разница между Kyverno и Gatekeeper.
Записывайтесь на вебинары и до встречи в 11:00 по мск ⏱️ Будет полезно всем, кого интересует, как организовать защиту и отказоустойчивость контейнеров: DevOps-инженерам, техлидам, специалистам по кибербезопасности — и не только.
Пять дней инженерного хардкора: с 15 по 19 сентября, 11:00-13:00 💪
Кажется, команда готова исповедоваться: за одну неделю расскажет не только, как работает PT NGFW, но и почему он работает именно так. Это будет не просто теория, а живой обмен опытом, разбор реальных кейсов и практические советы, которые можно сразу применить в работе.
В спикерах — вся команда PT NGFW.
🏆 Головоломки от наших экспертов и шанс выиграть собственный PT NGFW*🏆
*Срок проведения конкурса: 15.09.2025-19.09.2025, срок вручения Приза: с 19.09.2025-14.11.2025. Приз: ПАК PT NGFW 1010, а также брендированная продукция. Организатор АО «Позитив Текнолоджиз». Подробнее о сроках проведения, количестве призов, условиях участия в Правилах проведения Конкурса.
Создайте виртуальную машину в облаке за 1 минуту 30 секунд... с AI-помощником Клаудией 🤖☁️
В скринкасте показали, как развернуть ВМ для чат-бота за полторы минуты. И вы можете сделать так же в личном кабинетеCloud.ru.
Что еще умеет Клаудия:
подбирать для виртуалки нужную конфигурацию, в зависимости от ваших задач;
настраивать мониторинг и алертинг;
давать подсказки для терминала и работать с консолью как co-pilot;
отвечать на вопросы по всем платформам: Evolution, Advanced, VMware;
помогать в FinOps и SRE: мониторить по логам приложения и алерты, искать неэффективно используемые ресурсы и советовать, как все оптимизировать.
✨ Бонусом — до 31 октября 20+ моделей в Evolution Foundation Modelsбудут бесплатными. Протестируйте на своих проектах эмбеддеры, ранжировщики и мощные LLM, например GLM-4.5, Qwen3-235B, Qwen3-Coder или gpt-oss-120b.
Нам важно, чтобы тестировать и внедрять AI в свои проекты могли компании любого размера. Поэтому с 1 ноября 2025 года объявляем доступные цены на открытые языковые модели в Evolution Foundation Models.
Вы сможете использовать популярные модели:
GLM-4.5 — 55 рублей за миллион входных токенов и 220 рублей за миллион выходных токенов;
Qwen3-235B — 17 и 50 рублей;
Qwen3-Coder — 40 и 80 рублей.
При этом средняя цена составит:
35 рублей за миллион входных токенов,
70 рублей за миллион выходных токенов.
Во-вторых, расширяем возможности нашего AI-помощника Клаудии 🤖
Теперь Клаудия может помогать с FinOps и SRE. Возьмет на себя:
мониторинг приложений и алертов по логам;
поиск неэффективно используемых ресурсов и формирование рекомендаций по оптимизации.
Помимо этого, AI-помощник уже умеет подбирать сервисы и конфигурации под задачу, разворачивать виртуальные машины, работать с консолью в режиме co-pilot, настраивать мониторинг и алерты.
Немного статистики за пару месяцев работы AI-помощника:
больше 4 000 пользователей обратились к Клаудии,
свыше 12 000 сообщений отправили,
в 15 раз ускорили рутинные операции.
✨ Самый популярный сценарий использования помощника — создание виртуальной машины под веб-серверы, сайты, Telegram-боты, тестовые окружения, веб-хостинг и другие pet-проекты. Раньше это занимало от 5 до 30 минут, а с Клаудией можно запустить ВМ за пару минут.
Если еще не тестировали нашего AI-помощника, переходите в личный кабинет Cloud.ru и ищите Клаудию в нижнем правом углу главной страницы.
Подключайтесь к вебинару про работу с ПДн в соответствии с требованиями 152-ФЗ
В 12:00 (мск) в прямом эфире расскажем, как сделать хранение персональных данных безопасным: с чего начать, как выбрать подходящее решение и подтвердить эффективность реализованных мер.
Программа вебинара
Что обсудим на вебинаре
Из чего складываются требования к защите персональных данных.
Как определить уровень защищенности персональных данных.
Как реализовать меры защиты.
Защита персональных данных в облачной инфраструктуре.
Как подтвердить эффективность мер защиты.
Как Selectel помогает соблюдать требования 152-ФЗ.
Успей зарегистрироваться на GoCloud Tech 2025 — IT-конференцию про AI, облачную инфраструктуру и работу с данными ☁️ + 🤖 + 💿
Привет! Регистрация закроется 2 сентября в 17:00 по мск, так что еще есть возможность влететь в последний поезд и попасть на самое технологическое событие этой осени — IT-конференцию о создании решений на базе AI и облаков.
Напомним, что вас ждет:
4 трека: AI&ML, Cloud Infrastructure, Data&Analytics, Dev Platform Services;
демо и интерактивные зоны новых AI-сервисов и сервисов платформы Cloud․ru Evolution;
Мы расширили линейку GPU-карт, которые можно арендовать за рубль при создании кастомных конфигураций выделенных серверов. Список видеокарт пополнила NVIDIA RTX А2000.
Низкопрофильный дизайн позволяет установить GPU в самый компактный корпус сервера, а память GDDR6 с коррекцией ошибок — защитить данные и сохранить точность расчетов.
Какие особенности у RTX А2000
6 ГБ высокоскоростной памяти GDDR6 с ECC,
104 тензорных ядра четвертого поколения,
3 328 ядра CUDA третьего поколения.
Карта подходит, например, для сложных ML-задач, видеомонтажа и работы с графикой.
Что можно сказать и на баттле по Kubernetes, и на семейном застолье? 🥂
«Ну чего вы опять спорите, нормально же сидели!»
Именно так и прошел наш прямой эфир в прошлый четверг. Георг Гаал вкидывал неудобные вопросы, а Артем Гаврилов — парировал и рассказывал, как мы прокачали наш Кубер.
«Идея вебинара была в том, чтобы сделать проблемы более прозрачными. Такие сложные продукты не создаются за один день. Тарифы и конфиги нового Kubernetes не всегда способны сразу закрыть все возможные юзкейсы».
(с) Артем Гаврилов, продакт-лид Timeweb Cloud
До драки не дошло, но за спором понаблюдать можно на ютубе, рутубе и в вк.
Успей зарегистрироваться на IT-конференцию про облака, AI и данные — GoCloud Tech 2025 и попробовать новые сервисы на практике 🕹️
Привет! Совсем скоро закончится регистрация на нашу очередную технологическую конференцию о создании решений на базе AI и облаков. И мы хотим напомнить, что помимо демозон, Career Lab, активностей, мерча и afterparty, вас на площадке будут ждать воркшопы:
👩🔧 Вайб-кодинг с минимумом технического долга с сервисами Cloud.ru
Вайб-кодинг с минимумом технического долга — согласитесь, звучит дерзко? Но на самом деле, если подойди к вопросу грамотно, то это может стать реальность.
На воркшопе разберем практики чистого и безопасного вайб-кодинга, рассмотрим, как с помощью сервиса Evolution Foundation Models подключить кодовые LLM-модели к VS Code IDE и научим ее генерировать фичи в вашем стиле без пропуска уязвимостей. Затем настроим IDE так, чтобы она творила магию и ни разу не сделала rm -rf, а еще — рассмотрим сервис мониторинга качества кода и безопасности SonarQube, чтобы ловить проблемы раньше, чем они доберутся до продакшна.
👨🔧 Плейлист как на ладони: real-time аналитика для музыкального стриминга без боли и магии
New Music Friday — это традиция выпуска новых музыкальных релизов в пятницу, когда лейблы и артисты синхронно публикуют свежие треки, что вызывает «пиковый» всплеск внимания у слушателей в первые часы и дни их выхода. На воркшопе мы изучим это явление, используя потоковую обработку и мгновенный доступ к данным, и покажем, как в этом помогают сервисы Cloud.ru Evolution:
- Managed Kafka — принимать события прослушиваний в реальном времен;.
- Managed Spark — читать сообщения из Kafka, обогащать их и сохранять в объектное хранилище в формате Iceberg (мгновенный доступ к историческим и текущим срезам);
- Managed Trino — мгновенно объединять потоковые данные из Iceberg с static‑данными о треках и пользователях, хранящиеся в Managed Postgres;
- Managed Metastore — поддерживать схемы Iceberg и обеспечивать согласованность;
- Managed BI — визуализировать результаты на дашбордах в real-time.
👩🔧 Создание мультиагентной системы
Приглашаем всех, кто хочет попробовать:
- фреймворк Smolagents от Hugging Face,
- создавать кастомные инструменты для агентов,
- делать интеграцию с внешними API (Serper.dev и другими),
- координировать работу между несколькими специализированными агентами.
👨🔧 Маркетплейсы глазами вендора
Предлагаем взглянуть на весь путь партнера, который хочет вывести свой продукт или решение на Маркетплейс, на примере компании Русбитех-Астра. Вы узнайте про основные потребности и сложности, с которыми сталкиваются партнеры в процессе выхода на маркетплейсы, а еще — совместно создадите идеальную витрину.
Почувствуйте себя менеджером продукта, присоединяйтесь к дискуссии и делитесь идеями, чтобы мы могли сделать Маркетплейс Cloud.ru еще удобнее и полезнее для действующих и будущих партнеров и клиентов.
👩🔧 Быстрая разработка в GigaIDE Cloud
Что, еще одна IDE? Зачем нам еще одна IDE? Вопрос хороший, ведь ответ — возможно, низачем. На самом деле нам нужна среда, которая позволит решать больше актуальных проблем с помощью уже существующих инструментов (например, Visual Studio Code или Jupyter Notebook).
Репозиторий из GitHub или GitVerse так долго открывается, что уже легко забыть, зачем мы это делали. Чтобы изменить три строчки в ноутбуке, нужно разворачивать Jupyter Lab, а для того, чтобы воспользоваться AI-ассистентом, нужно ставить плагины, покупать учетки и настраивать прокси. Знакомо?
Чтобы закрыть этот гэп, Microsoft придумала GitHub CodeSpaces — онлайн-среду, встроенную в GitHub. А в России есть отличная альтернатива — GitVerse, которая позволит в пару кликов запустить полноценную среду разработки, уже настроенную на нужный репозиторий, с бесплатным AI-ассистентом и набором полезных плагинов. А на воркшопе мы как раз попробуем все это сделать и оценим, какие задачи это поможет упростить.
📅 Когда: 3 сентября
📍 Где: в Лофт-пространстве Goelro в Москве + трек «AI&ML» онлайн
Валидация RAG с помощью RAGAS — доклад на IT-конференции GoCloud Tech 2025 ☁️
Retrieval-Augmented Generation — мощный инструмент, но вы уверены, что ваш RAG действительно работает? RAGAS — это метрика, которая даст ответ. По ходу доклада разберемся, как оценивать качество генерации, релевантность документов и достоверность ответов. Поговорим о метриках и пайплайнах, а также покажем, как найти слабые места в RAG-системе до того, как это сделает пользователь.
Трек: AI&ML — про AI-продукты нашей разработки и работу с GenAI. Узнаете, как устроены RAG-системы и мультиагентные ассистенты, а также, для чего они уже применяются и как начать их использовать.
Буквально через пару дней после нашего исследования активности группировки Goffee была проведена еще одна атака, о которой сейчас мы вам расскажем.
👋 Все начинается с письма от лица якобы ГУ МВД России, в котором во вложении находится PDF-документ со следующим содержимым:
В документе жертва находит ссылку на скачивание прилагаемых материалов, однако сама ссылка ведет на поддельный сайт МВД, на котором для загрузки просят пройти капчу. После прохождения капчи скачивается архив 182-1672143-01.zip, внутри которого, помимо трех документов-приманок, лежит полезная нагрузка с именем 182-1672143-01(исполнитель М.Д).exe*.
В качестве полезной нагрузки остались ранее известные .NET-загрузчики. И если ранее злоумышленники рандомизировали название mutex-ов, методов и типов следующего стейджа, то теперь модернизируются и сами GET-запросы.
🔄 Классические параметры в URL — hostname= и username= — заменили на рандомные строки. Например, в одном из загрузчиков был составлен URL следующего формата:
К тому же некоторые загрузчики могли содержать документ-приманку с названием input.docx, по содержанию не отличавшийся от одного из документов в архиве.
По аналогичным названиям всего удалось обнаружить четыре архива с вредоносным ПО, описанным выше. Найти архивы и атрибутировать эти атаки к группировке Goffee в том числе помогают выделенные в статье (и выступлении OFFZONE) особенности сетевой инфраструктуры:
🔺 Все найденные домены в загрузчиках имеют .com/.org TLD, и сами домены — второго уровня.
🔺 Во всех загрузчиках для получения следующей стадии цепочки атаки используются ссылки четвертого и более уровня вложенности.
🔺 Все домены зарегистрированы в Namecheap.
🔺 Все домены хостятся на российских IP-адресах.
Дополнительные поиски по особенностям исполняемых файлов (схожие названия, сохраненные Debug Path и другое) помогли определить еще ряд семплов, принадлежащих Goffee.
Вместе с коллегами Selectel и экспертами из других компаний будем обсуждать вопросы, которые волнуют всех сетевых специалистов. Подключайтесь к Selectel Network MeetUp!
Программа
18:05-18:45 — Начнем вечер с доклада технического директора Selectel Кирилла Малеванова. Поговорим о переподписке в сетях CLOS’a, обсудим, зачем она нужна и какое значение коэффициента возможно в современных сетях.
18:45-19:25 — Передадим слово руководителю RnD Дмитрию Чигишеву. Присмотримся к разным открытым ОС и их архитектуре. Выясним, зачем нужен SAI, если есть SDK.
19:50-20:30 — После небольшого перерыва перечислим, что нужно знать при переходе на 400GE. Вместе с сетевыми инженерами Selectel Евгением Никифоровым и Алексеем Антоновым обсудим опыт работы с 400GE-решениями.
«Почта Банк» перевел критическую инфраструктуру на zVirt
«Почта Банк» заместил решение вендора VMware, мигрировав ИТ-инфраструктуру, в том числе критический контур, на платформу zVirt. Решение Orion soft обеспечило компании быструю миграцию более 2000 виртуальных машин.
«Почта Банк» — один из крупнейших банков России с государственным участием. Компания ответственно выполняет поручения регуляторов, связанные с импортозамещением ПО для ИТ-инфраструктуры, в том числе КИИ. Для проекта по импортозамещению виртуализации специалисты банка разработали чек-лист из более чем 20 критериев, которым должно было соответствовать российское решение.
Наиболее критичным для «Почта Банка» было наличие функциональности для гибкого управления ресурсами кластера, аварийного перезапуска виртуальных машин, кластеризации, управления доменами хранения.
Помимо этого банку было важно наличие функциональности для резервного копирования и восстановления виртуальных машин, а также возможность интеграции механизмов бэкапа с используемой в компании СРК. Также специалисты компании оценили zVirt с точки зрения удобства администрирования.
На сегодняшний день внедрение zVirt в «Почта Банке» завершено. Общий объем инсталляции достигает 80 хостов, идет активное тиражирование решения. Решение от Orion soft является единственным решением по виртуализации в критическом контуре компании.
«Среди функциональности zVirt особенно актуальным для нас оказался мигратор с VMware. В нашем случае речь идет о тысячах виртуальных машин, и на механическую работу по их пересозданию мы потратили бы слишком много ресурсов. Кроме того, у нас были достаточно жесткие требования к техподдержке, к наличию SLA. Коллеги из Orion soft оправдали наши ожидания — они оперативно подключаются к задачам и помогают решать даже те вопросы, которые находятся на стыке виртуализации и других систем», — комментирует Михаил Комстачев, директор по инфраструктуре и поддержке ИТ-сервисов «Почта Банка».
Тестируем Evolution SDN с помощью ovn-heater — доклад на IT-конференции GoCloud Tech 2025 ☁️
Не секрет, что тестирование производительности SDN — критически важный аспект в оценке эффективности и надежности работы сетевой инфраструктуры. В докладе поделимся подходом к тестированию производительности SDN c помощью открытого инструмента ovn-heater. Расскажем про наши доработки, математический подход к сбору и анализу данных, а также поделимся результатами, на сколько удалось ускорить управление и обмен данными.
Трек: Cloud Infrastructure — про построение устойчивой, масштабируемой и безопасной облачной инфраструктуры.
Когда-то писал о подходах, которые в эру нейронок получили еще аргументов к применению: WYNWYN и Vertical Slice – принципам, говорящим, что надо писать только то, что нужно и там где нужно.
Недавно работал с кодовой базой, где код обработки http запросов (авторизация, пойти в бд, посчитать что-то, сделать запрос в стороннюю систему, смерджить результат и отдать) лежал в папках по категории (все обращения в бд в одной папке, все модели в другой, все обращения к API в третьей, все операции по мерджу в четвертой, и т.д.).
Когда я пытался попросить нейронку (платные Claude, Codex, Gemini) что-то сделать с этими ручками, то для решения ей приходилось каждый раз собирать полный контекст папок, и как только она осознавала бесполезность сего предприятия, резко обрезала контекст, недобирала нужного кода и отвечала нерабочим куском галлюцинации.
Важно отметить, большинство функций, разбросанных по папкам, буквально вызывались всего один раз в конкретных местах (и такая ситуация встречается в 90% кодовых баз, с которыми приходилось работать).
Решил сделать эксперимент: сложил весь связанный код в одно место (причем не ctrl-c-v, а ctrl-x-v), запустил нейронку и да, она сначала прочитала весь связанный код из папок, и уже после пыталась добирать доп контекст из сторонних, но теперь ответы и код были почти 100% попаданием в мой запрос (опять же, в меру их текущих возможностей).
Далее я сделал тоже самое, вынеся целый модуль с его ручками в отдельную папку и получил идентичные результаты: нейронка быстрее разбиралась в коде, качественнее его описывала, добавляла рабочий код и писала полезные тесты.
И тут важно сделать несколько умозаключений:
Если нейронке НЕ дать хороший контекст, она отвечает абсолютным бредом, поэтому, если есть желание пользоваться благами ИИ, самая важная задача – создавать условия при которых она будет получать только нужные данные
Лоцирование связанного кода – одно из прекрасных решений этой задачи
На самом деле, для людей это работает точно так же – иметь возможность зайти в одно место и прочитать весь связанный код – ускоряет и улучшает итоговый результат, который выдают ~кожаные мешки~ мы
Как вы действуете, если кодовая база разбросана по проекту и нет возможности собрать ее в одном месте, а контекст нейронки надо задать?
С первого сентября 1 сентября 2025 года вводятся дополнительные ограничения по выдаче наличных через банкоматы.
С 1 сентября 2025 года банки, которые оформили клиенту платежную карту, обязаны при выдаче наличных через банкоматы проверять операцию на признаки мошенничества. Банк России определил девять признаков, "выдачи наличных денежных средств без добровольного согласия клиента с использованием банкоматов которыми будут руководствоваться кредитные организации". Решение о соотвествии операции признакам будет принимать конкретный банк(на практике антифрод-система банка).
Признаки можно разделить на мой взгляд три основные группы:
Нехарактерные для конкретного клиента виды и способы совершения операций, включая ошибочные операции, а так же совершения операций на сумму более 200 тыс. рублей.
Наличие информации, полученной от операторов связи, о подозрительном общении клиента по сетям связи за последние 6 часов до совершения операций.
Наличие информации, полученной от операторов связи о вредоносном программном обеспечении на устройствах абонента.
Если операция соответствует хотя бы одному из девяти признаков, банк немедленно сообщит об этом клиенту и на 48 часов введет временный лимит на выдачу наличных денег в банкомате — до 50 тыс. рублей в сутки. Снять более крупную сумму в этот период можно в отделении банка, если разумееться оно находиться в реальной досягаемости. Способ информирования предусмотрен договором клиента с банком.
Из вышеизложенного в частности следует, что банки будут еще одной структурой профессионально интересующейся Вашим общением через операторов связи.
Снятся ли управляемым СУБД быстрые NVME-oF RDMA-диски — тема доклада на IT-конференции GoCloud Tech 2025 ☁️
Мы задались вопросом улучшения производительности управляемой PostgreSQL и хотим рассказать, что из этого получилось. По ходу доклада обсудим:
- почему IO Latency имеет значение, а bandwidth нет;
- причем тут подключаемые диски NVME-oF;
- почему offloading — не панацея, а RDMA полезен лишь в малых дозах;
- как провести full-scale эксперименты в целой AZ и остаться вменяемым человеком.
Трек: Data&Analytics — обсудим тренды и возможности облачных сервисов, методы их интеграции с AI-агентами, а также инструменты для быстрого и эффективного решения задач хранения, обработки и анализа данных.