Все потоки
Поиск
Написать публикацию
Обновить
505.94

IT-инфраструктура *

Инфоцентры + базы данных + системы связи

Сначала показывать
Порог рейтинга

Помогает ли олимпиадное программирование в реальной разработке

Этот и ещё пять тезисов об олимпиадном опыте разобрали с бывшим олимпиадником, Антоном Чаплыгиным, и неолимпиадником, Мишей Усковым. Оба — ведущие инженеры-программисты в Контуре.

В тусовке олимпиадников существует определённая культура превосходства и часто эти ребята воспринимают неолимпиадников как менее квалифицированных программистов 

Неолимпиадник: Да. Я ощутил это, когда учился на первых двух курсах универа: перед сессией ребята-олимпиадники говорили, что даже не будут готовиться к экзамену, потому что и так всё знают. 👌 Потом они, конечно, всё заваливали, шли на пересдачу, но гонора до этого момента было много. =) Со временем такие ребята стали проще.

Олимпиадник: Подтверждаю! Например, я пришёл в универ из регионального лицея и у меня были проблемы с неалгоритмическими предметами, например, матанализом. Те, кто уже учил его, считали, что они-то всё знают, а я — нет.  

В олимпиадной среде есть соревновательный дух, на нём всё держится. Но считаю, когда попадаешь на учёбу, лучше этот гонор отложить в сторону и с людьми начать нормально общаться.

Олимпиадное программирование бесполезно в реальной разработке. 99% задач в индустрии не требуют сложных алгоритмов

Олимпиадник: Согласен с тезисом, что большая часть задач не требует каких-то алгоритмических подходов, особенно в продуктовых командах. В инфраструктуре этого обычно больше, и когда я сталкиваюсь с алгоритмами, кайфую от этого.

Неолимпиадник: Согласен, что в продуктах алгоритмических задач мало, но они часто критичные. Ты можешь делать 900 простых задач, но без сложных вообще никуда не уедешь. В Контуре есть своя база данных, своя очередь. Мы можем сделать в сервисе много красивых финтифлюшек, но если у нас не будет быстро работать база, мы никому не будем нужны. 

Вот ты пользуешься какими-нибудь библиотеками, фреймворками, но при этом не знаешь, что происходит внутри, — это не прикольно. А олимпиадные задачи часто про структуры данных, про Computer Science, и это всё хорошо бы знать.

При этом я считаю, что где-нибудь в промышленной разработке лучший олимпиадник — далеко не всегда лучший программист. Ведь программист — это не только про «У меня есть задача, я превратил её в код», а скорее про «Я знаю, с кем поговорить, что уточнить».

Олимпиадников сложно переучить, они склонны оптимизировать несущественные вещи 

Неолимпиадник: У нас в команде были олимпиадники, и когда они брались за задачи, было видно, что им интересно их «покопать», сделать из этого красивое решение, чтобы оно идеально работало. Это всё хорошо, но не всегда такое надо, особенно когда хочется уже быстрее получить результат. =) В этот момент приходилось немного поторопить человека. А потом подсластить ему пилюлю: например, дать прикольную задачу с Computer Science.

Олимпиадник: Считаю, что скорее всё зависит от человека. Бывают люди, которых в принципе трудно переучивать, а бывают те, которым можно объяснить один раз, и они всё поймут. Хорошо, что есть курсы и книжки по чистому коду, в которых ты можешь чему-то научиться и понять, как это применять. Так же, как ты научился писать алгоритмы когда-то.

Алгоритмические задачи на собеседованиях не всегда показывают реальные навыки разработчика 

Олимпиадник: Люди во время собеса часто нервничают, из-за этого забывают какие-то элементарные вещи. Но потом, когда приводишь человека в чувство, успокаиваешь, становится понятно, что он всё знает, просто запаниковал тогда и из-за стресса наделал ошибок. 

Неолимпиадник: Согласен с этим тезисом, потому что, во-первых человек может запаниковать, во-вторых — ему может попасться задача, с которой он ещё ни разу не сталкивался. Но он точно смог бы решить в спокойной обстановке, когда под рукой поисковик или нейронка. Поэтому считаю, что «валить» кандидата алгоритмами на собеседовании — не самый лучший способ проверить уровень его знаний.

Эти и другие тезисы подробно разобрали здесь ➡️ YouTube, Rutube, VK, Яндекс Музыка.

Теги:
+2
Комментарии1

+10% к производительности сервера с конфигурацией AR45-NVMe 

Нужна высокая производительность на одном узле, но серверная платформа не по бюджету и избыточна? AR45-NVMe — готовый сервер с передовым десктопным CPU, локальной сетью и быстрыми NVMe-дисками. Решение спроектировано именно для таких задач. Предложение ограничено, успейте заказать сервер по ссылке —>

Характеристики:

  • CPU: AMD RyzenTM 9 9950X, 16 ядер, до 4.3 ГГц;

  • RAM: 192 ГБ DDR5 (non-ECC);

  • Диск: 2×2000 ГБ SSD NVMe M.2;

  • Сеть и сервис: 1 Гбит/с приватная сеть, безлимитный трафик, SLA 99.8%,защита от DDoS, 24/7 поддержка, 3 часа на замену комплектующих.

Из чего состоит прирост производительности +10%

Высокая частота сокращает задержки в задачах, где важна оперативность: сборки, компиляции, отладки и CI-прогоны реагируют быстрее, потому что ядра решают мелкие задачи быстрее.

Больше RAM значит реже подкачка на диск, меньше простоев из-за swapping и стабильнее in-memory вычисления при аналитике и прототипировании ML.

Низкая задержка и высокая пропускная способность, плюс рост числа операций ввода-вывода в секунду (IOPS). Они ускоряют доступ к временным файлам, БД и scratch-пространству. Которые при хранении в сетевом сторадже тормозят работу.

Теги:
+13
Комментарии2

Как вайб-кодить с вайбом, а не с техдолгом и багами 👨‍💻✨

Разберемся в этом на вебинаре с нашим техническим экспертом Сашей Константиновым. Будет полезно всем, кто работает с кодом и данными — вы узнаете, как с помощью AI писать код быстрее и не проседать при этом в качестве.

Поговорим о том, как:

  • Научить IDE кодить в вашем стиле, предсказуемо и по нужным стандартам.

  • Подключить языковую модель к VS Code. Рассмотрим все на примере LLM из Evolution Foundation Models.

  • Мониторить безопасность и качество кода в SonarQube.

📅 Когда? 30 сентября в 11 по мск.

📍 Где? Онлайн — вам осталось только зарегистрироваться →

Теги:
0
Комментарии0

3 неочевидных способа сэкономить на инференсе ML-модели в облаке кроме автоскейлинга 💸💸💸

Привет! Сегодня хотим поделиться тремя полезными способами сэкономить на инференсе, которые работают в облаке, причем, не только у нас (что? да!).  

А то ведь как бывает: запустишь свою крутую LLM-ку в продакшен, а счет прилетает такой, что хочется отключить обратно. Горизонтальный скейлинг не всегда выход. Но дешевле — не значит менее производительно. Мы приведем алгоритмы для сервиса Evolution ML Inference, но их можно адаптировать для любого провайдера. 

Способ 1. Использовать Sleep Mode vLLM 🔧

Способ работает только для языковых моделей (LLM), таких как Qwen, LLaMA, Mistral и других, запускаемых через vLLM. С диффузионными моделями, CV и временными рядами фокус не прокатит. Sleep Mode временно выгружает веса модели из GPU в RAM, освобождая до 90% видеопамяти. А раз GPU-ресурс не используется, то и не тарифицируется. «Разбудить» модель можно за секунды и без полной перезагрузки. 

Что делать: 

1. Запустите модель в ML Inference с runtime vLLM.

2. Включите режим разработки:

   VLLM_SERVER_DEV_MODE=1

3. Добавьте флаг:

   --enable-sleep-mode   

4. Управляйте через HTTP:

   ⦁ POST /sleep?level=1 — выгрузить веса, сохранить возможность быстрого запуска.

   ⦁ POST /wake_up — вернуть модель в активное состояние.

Когда применять: 

  • В сценариях с неравномерной нагрузкой (например, днём активность, ночью — нет).

  • Между итерациями RLHF, когда нужно освободить GPU. 

Способ 2. Serverless + Scale to Zero 🔧

Способ подходит вообще для всего. Суть в том, что контейнер с моделью останавливается при отсутствии запросов, освобождая все выделенные ресурсы (GPU, RAM, CPU). Кеш модели сохраняется, но тоже не тарифицируется в период простоя — PROFIT! При поступлении нового запроса модель запускается из кеша — и тут, мы, конечно, имеем проблему с задержкой при «холодном старте». Но пара секунд ожидания экономит нам сотни тысяч.

Что делать: 

1. При создании инференса в ML Inference:

   ⦁ Установите min_replicas = 0.

   ⦁ Выберите тип масштабирования: RPS или Concurrency.

2. Убедитесь, что Idle-таймаут = 40 сек.

Когда применять: 

  • Для MVP, демо, внутренних API.

  • Сценариев с нерегулярной нагрузкой (например, 100 запросов в день).

  • Моделей, где допустима небольшая задержка при первом запросе.

Способ 3. Time Slicing GPU 🔧

Способ работает в рамках Managed Kubernetes (MK8s), при условии, что в кластере создана группа узлов с GPU NVIDIA Tesla V100. Суть в том, что одна физическая GPU делится между несколькими подами (например, 5 подов по 1 GPU): каждый получает свою долю времени, как если бы у него была выделенная карта. 

Что делать: 

1. Создайте кластер Managed Kubernetes с узлом, где:

   ⦁ GPU: NVIDIA Tesla V100.

   ⦁ Количество GPU: 1.

2. Настройте Time-Slicing. Создайте ConfigMap:

   apiVersion: v1

   kind: ConfigMap

   metadata:

     name: time-slicing-config

     namespace: gpu-operator

   data:

     tesla-v100: |-

       version: v1

       sharing:

         timeSlicing:

           resources:

             - name: nvidia.com/gpu

               replicas: 5

   Примените: kubectl apply -f cloudru-time-slicing.yaml

3. Установите NVIDIA GPU Operator. В Личном кабинете Cloud.ru:

   ⦁ Перейдите в кластер → Плагины → Добавить.

   ⦁ Выберите NVIDIA GPU Operator.

   ⦁ В расширенной конфигурации укажите:

     devicePlugin:

       config:

         name: time-slicing-config

         default: tesla-v100

4. Проверьте работу. Запустите Deployment с 5 репликами:

   resources:

     limits:

       nvidia.com/gpu: 1

Все 5 подов должны перейти в статус Running.

Когда применять: 

  • Для тестовых и демо-сценариев, стартапов или MVP.

  • Для низконагруженных задач — инференс небольших моделей, дообучение, RLHF.

  • Для команд разработки, чтобы работать в одном кластере и делить ресурсы.

А какие нестандартные методы оптимизации бюджета используете вы? Собираем коллекцию советов для экономных в комментариях!

Теги:
+2
Комментарии0

Как организовать хранение кадровых документов 1,5 млн пользователей в облаке: опыт HRlink 📄

Когда ваш бизнес обслуживает более 6 400 корпоративных клиентов, а платформу используют 1,5 млн человек, вы точно задумаетесь об отказоустойчивости, надежном хранении данных, соответствии 152-ФЗ, да и на вопросы производительности СУБД взглянете по-новому.

С такими задачами столкнулась компания HRlink. Рассказываем, как на IT-инфраструктуре Selectel она:

  • развернула сервис в облаке с возможностью гибкого масштабирования,

  • повысила производительность более 5 000 баз данных,

  • организовала надежное хранение кадровых документов,

  • обеспечила безопасную обработку персональных данных.  

Подробности кейса читайте в Академии Selectel, а также оставляйте заявку на бесплатную миграцию ➡️

Теги:
+10
Комментарии2

Как облако помогает нанимать людей

Привет, Хабр! На связи Ольга, в Хайстекс я занимаюсь развитием бизнеса и корпоративных связей. В блоге компании мы опубликовали перевод статьи с отличным примером того, как управляемые облачные сервисы перестают быть только техническим инструментом и становятся стратегическим фактором даже там, где главная ценность бизнеса — люди и их экспертиза.

В статье рассматривается кейс SkillGigs, сервиса для подбора специалистов в сфере здравоохранения и технологий. Управляемые облачные сервисы позволили внедрить 3D-резюме, выстроить мультиоблачную архитектуру, обеспечить безопасность и упростить интерфейс для пользователей. Результат: поиск стал быстрее, рекомендации — точнее, а процесс найма удобнее. Этот пример хорошо показывает, что облако — это уже не просто «поддержка инфраструктуры», а реальный драйвер бизнеса.

Статья не перегружена кейсами, в ней собраны ключевые выводы и один практический пример. Хороший повод пересмотреть своё отношение к облачным сервисам и понять, где они реально дают бизнес-эффект.

Теги:
0
Комментарии0

Практические результаты внедрения базы знаний представит Анна Плужникова, ведущий специалист «Уральских авиалиний». Анна поделится, как проект помог трансформировать работу контакт-центра и повысить качество обслуживания пассажиров.

Дата: 30 сентября
Время: 11:00 (мск)
Формат: онлайн

Мы обсудим:

— эволюцию баз знаний и их классические функции;
— кейс внедрения L2U (BSS) в контакт-центре «Уральских авиалиний»;
— новые возможности AI-портала от BSS: преимущества, архитектуру и сферы применения — от клиентского сервиса и HR до внутренней поддержки и проектной деятельности.

Спикеры:

— Анна Плужникова, ведущий специалист, «Уральские авиалинии»
— Дмитрий Лактионов, директор по продукту, L2U (BSS)
— Николай Чекин, директор по развитию отношений с партнёрами, ITFB Group (модератор)

Вебинар будет полезен руководителям контакт-центров, ИТ-директорам, HRD, специалистам по цифровой трансформации и всем, кто отвечает за управление знаниями и качество взаимодействия с клиентами.

👉 Зарегистрироваться

Теги:
0
Комментарии0

Подборка бесплатных обучающих материалов для тех, кто хочет разобраться в сетях

Привет, Хабр! Я снова с подборкой статей, которые могут пригодиться начинающим специалистам. На этот раз будем разбираться в сетях. Как обычно, все материалы в подборке доступны бесплатно, никакими данными делиться тоже не нужно. Просто читайте и осваивайте новое. Поехали!

Сетевая инфраструктура

Эта подборка — практическое погружение в мир сетей и облачной инфраструктуры. Вы научитесь настраивать базовые сетевые схемы, поднимать выделенные и облачные серверы, разбираться в связанности, публичных IP и облачных маршрутизаторах. Все без лишней теории — только то, что пригодится в реальных задачах.

Компьютерные сети

Пять статей помогут вам изучить основы компьютерных сетей. Они плавно, шаг за шагом, погрузят вас в тему. Сначала вы разберете ключевые понятия, чтобы говорить с сетевиками на одном языке. Затем — узнаете, какие бывают сети и из чего они состоят, что такое MAC- и IP-адреса. Далее — освоите две основные модели: OSI и TCP/IP — на конкретных примерах посмотрите, как работает каждый уровень.

CDN

Мини-курс познакомит с базовыми принципами работы распределенной доставки контента. Вы научитесь подключать и настраивать такую сеть, оптимизировать изображения. Особое внимание — внедрению CDN для повышения безопасности.

Сетевая безопасность

Эта подборка сфокусирована на сетевой ИБ: межсетевые экраны и IDPS, средства шифрования трафика и DDoS-атаки. Теорию вы закрепите практикой, самостоятельно установив и настроив файрвол или проведя сканирование портов по инструкции.

Сетевые протоколы

В мире существует более 7 000 сетевых протоколов. В 12 материалах вы узнаете о самых популярных из них, а также о существующих сетевых моделях передачи данных.

Теги:
+6
Комментарии2

Кажется я опять удалил бэкап из бакета... А нет, у меня ж стоит блокировка 😮‍💨

Добавили в S3 новую функцию — блокировку объектов (Object Lock). Теперь можно зафиксировать, или по-айтишному — «залочить» версии объектов так, что их нельзя удалить или изменить в течение заданного времени. Даже админу бакета.

👌 Идеально для архивов, резервных копий и важных логов.

Есть несколько режимов:

GOVERNANCE — «админ может удалять, а другие нет»

Объекты защищены от случайных действий, но пользователи с особыми правами могут их удалять в любой момент

COMPLIANCE — «тут и админ бессилен»

Объекты остаются нетронутыми до конца срока блокировки, даже если у вас админские права

Без глобальной защиты — «по дефолту»

Блокировка версий объектов не будет устанавливаться в бакете

⚙️ Подробности в доке →

Ну все, осталось только включить блокировку в настройках →

Теги:
+13
Комментарии0

Про сеть и инфраструктуру RUTUBE в подкасте linkmeup

В этом выпуске Эльдар Ниязов, директор департамента развития и эксплуатации ИТ-инфраструктуры RUTUBE, рассказывает об устройстве видеохостинга, ЦОДах, сетях и делится историями, которые не вошли в доклад об архитектуре.

Из видео узнаете:

  • Сколько нужно серверов, чтобы построить национальный видеохостинг.

  • Сколько легаси осталось от прошлых итераций (спойлер: совсем мало).

  • Как пережить взрывной рост и с какими ещё вызовами сталкивается команда.

  • Где живёт RUTUBE.

  • Зачем понадобилось написать собственный S3 (а более подробно о том, как устроено хранилище — в этом видео).

  • Как оптимизируется CDN и многое другое.

Как видно на превью, это интервью было записано на конференции HighLoad++. Следующая встреча разработчиков высоконагруженных систем уже не за горами и там снова выступят специалисты из RUTUBE — в этом году фокус на ML:

  • «Как RAG ускоряет поддержку RUTUBE: от гибридного поиска до мониторинга галлюцинаций». Виктор Леньшин объяснит, как устроена архитектура системы, которая уже в 80% случаев генерирует готовый ответ на запрос в поддержку.

  • «Платформа для создания субтитров на весь UGC в RUTUBE». Дмитрий Лукьянов расскажет, как платформа сейчас обрабатывает новые видео почти без задержек, справляется с экстремально длинными записями и не привирает на музыке, шумах и спецэффектах.

Больше о том, как разрабатывают медиасервисы, читайте в телеграм-канале Смотри за IT. Там делимся опытом и рассказываем о жизни в цифровых активов «Газпром-Медиа Холдинга» таких, как PREMIER, RUTUBE и Yappy.

Теги:
+2
Комментарии0

GPU H200 в новой конфигурации выделенных серверов уже в Selectel


NVIDIA H200 — одна из самых мощных видеокарт для задач искусственного интеллекта с 141 ГБ памяти. В новой конфигурации — восемь GPU в формате SXM. Карты могут обмениваться данными на скорости до 4,8 Тбайт/сек. Поэтому конфигурация точно подходит для машинного обучения и инференса LLM.

Практическое применение:

  1. Можно загружать большие параметры и контексты без постоянного свопа на диск — 141 ГБ vRAM в каждой карте позволяют работать с моделями и батчами, которые раньше требовали шардинга. 

  2. Высокая пропускная способность памяти (4.8 ТБ/с) ускоряет подачу данных в тензорные ядра для быстрого обучения и инференса больших языковых моделей и повышения скорости обработки токенов.

  3. NVLink и SXM-формат минимизируют накладные расходы на обмен между GPU, что критично для крупных распределенных пайплайнов. 

Selectel уже предлагает конфигурации с современными GPU и серверными платформами и готов собирать выделенные решения под H200-платформы. Берите в аренду 8×H200 в проверенной инфраструктуре вместо покупки и обслуживания собственного кластера.


Закажите конфигурацию с H200 в Selectel по ссылке  

Теги:
+12
Комментарии1

До и после fine-tuning — что изменится в работе модели после дообучения? 🧠

Fine-tuning, или дообучение — это дополнительное обучение уже готовой модели на специализированных данных, чтобы она лучше выполняла узконаправленные задачи.

Это проще, чем обучение модели с нуля, так как нужно доработать лишь некоторые параметры, а не миллиарды. Файнтьюнить можно уже готовые модели, которые хорошо справляются с базовыми вещами, например, написанием текстов или генерацией изображений.

Для чего же подойдет fine-tuning?  👇

  1. Исправление слабостей, если модель в чем-то проседает. Иногда стартовая модель не очень хорошо решает базовые задачи: путает термины, особенно если они схожи, или дает сложные нечитаемые ответы. Такое бывает, когда в обучающем датасете больше данных, например, на английском, а пользователи общаются на русском. Проблема решится, если дообучить модель на качественных данных с хорошими примерами, чтобы та поняла, что от нее требуется.

  2. Обеспечить работу с минимумом задержек. В некоторых сервисах важно, чтобы модель отвечала мгновенно, а не обращалась за информацией к внешней базе знаний — это увеличивает время ответа. Вы можете дообучить модель на собственных данных, чтобы она быстро получала нужные сведения.

  3. Глобально изменить датасет. Бывает, что многое из той информации, что использует модель, устаревает, или существенно меняются требования в предметной области. Тогда есть смысл собрать побольше качественных данных и провести дообучение на них.

  4. Генерация текстов в специфичном стиле. Допустим, вы хотите, чтобы модель заполняла документацию в конкретном формате, использовала юридический стиль, оформляла тексты по ГОСТ или писала как Достоевский. Подогнать стиль ответов модели под нужный формат — задача, которую можно решить с помощью fine-tuning.

🤔 Что в итоге? Fine-tuning незаменим, если нужно поменять стиль ответов, подогнать тексты под конкретный формат, исправить изначальные слабости. Или когда важно, чтобы модель давала ответы без задержек и не ходила во внешние источники. Подробнее про fine-tuning, а еще про RAG и промпт-инжиниринг читайте в нашей статье

А для дообучения вы можете использовать Evolution ML Finetuning — технология LoRA позволит сэкономить ресурсы GPU и ускорить процесс. Доступны модели из Hugging Face: сравнивайте их между собой, выбирайте подходящую и точечно настраивайте под свои задачи.

Теги:
Всего голосов 2: ↑1 и ↓10
Комментарии0

А у нас для вас сразу два вебинара про Kubernetes 🖥️☁️

Присоединяйтесь к встречам с экспертами Cloud.ru, чтобы узнать, как эффективнее работать в кубере и обеспечить безопасность контейнеров.

📅 16 сентября архитектор решений Илья Смирнов расскажет, как мультикластерная архитектура повышает отказоустойчивость сервисов. А еще — когда именно пригодится мультикластер и как его организовать с помощью фреймворка Karmada.

Зарегистрироваться →

📅 18 сентября менеджер продукта Вера Орлова поделится, какую роль в защите контейнеров играет Admission Control, какие есть типы контроллеров и в чем разница между Kyverno и Gatekeeper.

Зарегистрироваться →

Записывайтесь на вебинары и до встречи в 11:00 по мск ⏱️ Будет полезно всем, кого интересует, как организовать защиту и отказоустойчивость контейнеров: DevOps-инженерам, техлидам, специалистам по кибербезопасности — и не только.

Теги:
Рейтинг0
Комментарии0

Ближайшие события

Впервые на экранах! Онлайн-марафон «PT NGFW: исповедь инженеров» 😲

Пять дней инженерного хардкора: с 15 по 19 сентября, 11:00-13:00 💪

Кажется, команда готова исповедоваться: за одну неделю расскажет не только, как работает PT NGFW, но и почему он работает именно так. Это будет не просто теория, а живой обмен опытом, разбор реальных кейсов и практические советы, которые можно сразу применить в работе.

В спикерах — вся команда PT NGFW.

🏆 Головоломки от наших экспертов и шанс выиграть собственный PT NGFW*🏆

Регистрируйтесь на сайте

*Срок проведения конкурса: 15.09.2025-19.09.2025, срок вручения Приза: с 19.09.2025-14.11.2025. Приз: ПАК PT NGFW 1010, а также брендированная продукция. Организатор АО «Позитив Текнолоджиз». Подробнее о сроках проведения, количестве призов, условиях участия в Правилах проведения Конкурса.

Теги:
Всего голосов 1: ↑1 и ↓0+1
Комментарии0

Создайте виртуальную машину в облаке за 1 минуту 30 секунд... с AI-помощником Клаудией 🤖☁️

В скринкасте показали, как развернуть ВМ для чат-бота за полторы минуты. И вы можете сделать так же в личном кабинете Cloud.ru.

Что еще умеет Клаудия:

  • подбирать для виртуалки нужную конфигурацию, в зависимости от ваших задач;

  • настраивать мониторинг и алертинг;

  • давать подсказки для терминала и работать с консолью как co-pilot;

  • отвечать на вопросы по всем платформам: Evolution, Advanced, VMware;

  • помогать в FinOps и SRE: мониторить по логам приложения и алерты, искать неэффективно используемые ресурсы и советовать, как все оптимизировать.

✨ Бонусом — до 31 октября 20+ моделей в Evolution Foundation Models будут бесплатными. Протестируйте на своих проектах эмбеддеры, ранжировщики и мощные LLM, например GLM-4.5, Qwen3-235B, Qwen3-Coder или gpt-oss-120b.

Теги:
Рейтинг0
Комментарии0

LLM и AI-модели для всех и новые возможности AI-помощника в облаке: главные новости с IT-конференции GoCloud Tech 2025 ☁️☁️☁️

Наша IT-конференция в самом разгаре, и мы уже готовы поделиться главными новостями.

Во-первых, делаем LLM доступнее 🤖

До 31 октября 2025 года больше 20 LLM в Evolution Foundation Models можно попробовать бесплатно

Нам важно, чтобы тестировать и внедрять AI в свои проекты могли компании любого размера. Поэтому с 1 ноября 2025 года объявляем доступные цены на открытые языковые модели в Evolution Foundation Models

Вы сможете использовать популярные модели:

  • GLM-4.5 — 55 рублей за миллион входных токенов и 220 рублей за миллион выходных токенов;

  • Qwen3-235B — 17 и 50 рублей;

  • Qwen3-Coder —  40 и 80 рублей.

При этом средняя цена составит:

  • 35 рублей за миллион входных токенов,

  • 70 рублей за миллион выходных токенов.

Во-вторых, расширяем возможности нашего AI-помощника Клаудии 🤖

Теперь Клаудия может помогать с FinOps и SRE. Возьмет на себя:

  • мониторинг приложений и алертов по логам;

  • поиск неэффективно используемых ресурсов и формирование рекомендаций по оптимизации.

Помимо этого, AI-помощник уже умеет подбирать сервисы и конфигурации под задачу, разворачивать виртуальные машины, работать с консолью в режиме co-pilot, настраивать мониторинг и алерты. 

Немного статистики за пару месяцев работы AI-помощника:

  • больше 4 000 пользователей обратились к Клаудии,

  • свыше 12 000 сообщений отправили,

  • в 15 раз ускорили рутинные операции.

✨ Самый популярный сценарий использования помощника — создание виртуальной машины под веб-серверы, сайты, Telegram-боты, тестовые окружения, веб-хостинг и другие pet-проекты. Раньше это занимало от 5 до 30 минут, а с Клаудией можно запустить ВМ за пару минут.

Если еще не тестировали нашего AI-помощника, переходите в личный кабинет Cloud.ru и ищите Клаудию в нижнем правом углу главной страницы.

Теги:
Рейтинг0
Комментарии0

Подключайтесь к вебинару про работу с ПДн в соответствии с требованиями 152-ФЗ

В 12:00 (мск) в прямом эфире расскажем, как сделать хранение персональных данных безопасным: с чего начать, как выбрать подходящее решение и подтвердить эффективность реализованных мер.

Программа вебинара

Что обсудим на вебинаре

  • Из чего складываются требования к защите персональных данных.

  • Как определить уровень защищенности персональных данных.

  • Как реализовать меры защиты.

  • Защита персональных данных в облачной инфраструктуре.

  • Как подтвердить эффективность мер защиты.

  • Как Selectel помогает соблюдать требования 152-ФЗ.

Смотреть трансляцию

📱на YouTube

📱в VK

Теги:
Всего голосов 5: ↑5 и ↓0+9
Комментарии0

Успей зарегистрироваться на GoCloud Tech 2025 — IT-конференцию про AI, облачную инфраструктуру и работу с данными ☁️ + 🤖 + 💿

Привет! Регистрация закроется 2 сентября в 17:00 по мск, так что еще есть возможность влететь в последний поезд и попасть на самое технологическое событие этой осени — IT-конференцию о создании решений на базе AI и облаков. 

Напомним, что вас ждет:

  • 4 трека: AI&ML, Cloud Infrastructure, Data&Analytics, Dev Platform Services;

  • демо и интерактивные зоны новых AI-сервисов и сервисов платформы Cloud․ru Evolution;

  • технические воркшопы;

  • нетворкинг, кастомный мерч и afterparty.

Основные темы конференции:

  • кейсы внедрения AI&ML,

  • тренды в создании облачной инфраструктуры,

  • актуальные практики для работы с данными в облаке,

  • инструменты, ускоряющие разработку.

📆 Когда: 3 сентября

📍 Где: в Лофт-пространстве Goelro в Москве + трек «AI&ML» онлайн 

Зарегистрироваться 👈

Будем рады видеть всех причастных!

Теги:
Всего голосов 1: ↑1 и ↓0+3
Комментарии0

Арендуйте RTX A2000 за 1₽ в Selectel

Мы расширили линейку GPU-карт, которые можно арендовать за рубль при создании кастомных конфигураций выделенных серверов. Список видеокарт пополнила NVIDIA RTX А2000.

Низкопрофильный дизайн позволяет установить GPU в самый компактный корпус сервера, а память GDDR6 с коррекцией ошибок — защитить данные и сохранить точность расчетов.

Какие особенности у RTX А2000

  • 6 ГБ высокоскоростной памяти GDDR6 с ECC,

  • 104 тензорных ядра четвертого поколения,

  • 3 328 ядра CUDA третьего поколения.

Карта подходит, например, для сложных ML-задач, видеомонтажа и работы с графикой.

Арендовать А2000 за 1 рубль.

Теги:
Всего голосов 5: ↑5 и ↓0+9
Комментарии0

Что можно сказать и на баттле по Kubernetes, и на семейном застолье? 🥂

«Ну чего вы опять спорите, нормально же сидели!»

Именно так и прошел наш прямой эфир в прошлый четверг. Георг Гаал вкидывал неудобные вопросы, а Артем Гаврилов — парировал и рассказывал, как мы прокачали наш Кубер.

«Идея вебинара была в том, чтобы сделать проблемы более прозрачными. Такие сложные продукты не создаются за один день. Тарифы и конфиги нового Kubernetes не всегда способны сразу закрыть все возможные юзкейсы».

(с) Артем Гаврилов, продакт-лид Timeweb Cloud

До драки не дошло, но за спором понаблюдать можно на ютубе, рутубе и в вк.

Теги:
Всего голосов 11: ↑11 и ↓0+16
Комментарии0

Вклад авторов