Всем привет! Это Сергей Зюкин, разработчик экспертизы runtime-radar — опенсорсного продукта, обеспечивающего безопасность контейнерной среды выполнения. Я подготовил для вас статью, в которой расскажу, как можно обнаружить инфостилер, встроенный в библиотеку LiteLLM в результате ее недавней компрометации. Помимо этого, мы, конечно же, рассмотрим и боковое перемещение внутри Kubernetes-инфрастуктуры, которое происходит, если скрипт инфостилера запускается в поде с достаточными привилегиями.

Мы не смогли удержаться и проверили, что Runtime Radar может обнаружить при реализации подобной атаки.

Но обо всем по порядку.

Общий обзор атаки

Поскольку многие исследователи уже подробно разобрали как саму атаку, так и предысторию, то я не буду подробно останавливаться на этом и ограничусь лишь коротким обзором, чтобы было проще понимать контекст обнаружения.

Если разобрать атаку по шагам, то происходит примерно следующее:

  1. При запуске litellm_init.pth декодирует полезную нагрузку (обычный Python-скрипт) из Base64 и запускает ее.

  2. Первый скрипт запускает инфостилер и отправляет собранные им данные на C2-сервер злоумышленника.

  3. Инфостилер собирает чувствительные данные и по возможности закрепляется через systemd-сервис, оставляя бэкдор для удаленного управления.

  4. Если инфостилер в процессе работы находит токен доступа Kubernetes, он использует его, чтобы запустить вредоносный контейнер на каждой доступном узле кластера.

  5. Сам под, в свою очередь, создается с максимальным доступом к ОС узла (privileged, hostPID, hostNetwork) и смонтированным корневым каталогом узла кластера, на котором он был запущен.

  6. При запуске он закрепляется на узле с помощью бэкдора и systemd-сервиса.

Инфостилер реализован по принципу матрешки — состоит из нескольких Python-скриптов, обфусцированных в Base64 и запускаемых последовательно.

Поэтому я разделил работу по обнаружению на два этапа:

  1. На стадии запуска скрипта инфостилера.

  2. На стадии перемещения в Kubernetes-кластер.

Для каждого этапа я продемонстрирую результаты работы экспертизы текущей версии Runtime Radar, а также дам небольшие рекомендации по поиску угроз с помощью нашего опенсорсного инструмента. Погнали.

Особенности запуска в тестовой среде и демонстрация работы скрипта

Опишу некоторые нюансы запуска скрипта, если кто-то захочет повторить и самостоятельно изучить результаты работы Runtime Radar.

Думаю, стоит упомянуть, что все описанное ниже стоит выполнять только в тестовой, изолированной среде.

Я немного упростил себе процесс воспроизведения (да простит меня читатель) и запустил самый первый скрипт вручную. Считаю, что это в целом ни на что не влияет, поскольку самое интересное все равно происходит в двух других скриптах.

А еще я внес небольшие изменения в разные части скриптовой матрешки — прежде всего для своего удобства и безопасности:

  • заменил эндпоинт подключения для отправки итогового архива на свой внутренний;

Pasted image 20260416165426.png
  • изменил эндпоинт для получения команд в скрипте бэкдора;

Pasted image 20260416165509.png
  • немного модифицировал команды для закрепления бэкдора на ноде Kubernetes-кластера.

Pasted image 20260415094906.png

Для запуска я использовал обычный python3.11 с модулями «из коробки», без какой-либо дополнительной настройки.

Чтобы скрипт смог сделать перемещение в Kubernetes, ему необходимы права на создание подов в текущем кластере, поэтому я подготовил сервисную учетную запись с нужными правами и запустил от ее имени под.

Если захотите повторить, можете воспользоваться следующими манифестами:

apiVersion: v1
kind: ServiceAccount
metadata:
  name: admin-sa
  namespace: default
automountServiceAccountToken: true
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
  name: admin-sa-cluster-admin
roleRef:
  apiGroup: rbac.authorization.k8s.io
  kind: ClusterRole
  name: cluster-admin
subjects:
  - kind: ServiceAccount
    name: admin-sa
    namespace: default
apiVersion: v1
kind: Pod
metadata:
  name: test-pod-debian-sa
spec:
  serviceAccountName: admin-sa
  containers:
    - name: test-pod-debian-sa
      image: debian:12.2-slim
      command: ["sleep", "365d"]
      resources: {}

Что касается параметров самого Runtime Radar, то я использовал версию, которая сейчас доступна на GitHub без каких-либо дополнительных модификаций или обновлений экспертизы. Так что каждый может самостоятельно убедиться в результатах работы.

Pasted image 20260415144114.png
Настройка политик сбора в Runtime Radar

Теперь можно запускать и смотреть, как все горит проверять работу скрипта.

Ниже — несколько скриншотов, демонстрирующих результаты успешной эксплуатации.

Pasted image 20260416170619.png
Под, завершивший работу в пространстве имен kube-system, который был запущен скриптом и инициировал закрепление на уровне ноды кластера
Pasted image 20260414155958.png
Каталоги (/root/.config/sysmon и /root/.config/systemd), созданные для закрепления бэкдора

Видим, что выполнен побег из контейнера на узел кластера Kubernetes.

Pasted image 20260414160101.png
Коннекты к моему веб-эндпониту, инициированные инфостилером для отправки данных

Давайте теперь посмотрим, что обнаружил наш инструмент.

Обнаружение на этапе запуска инфостилера

После запуска инфостилер начинает искать и собирать множество различных чувствительных данных, при этом делает это смело и громко.

Наши детекторы аномальной активности отлично это демонстрируют: можно наблюдать множественные срабатывания, сигнализирующие о подозрительном запуске командной оболочки (CS_RT_SUSP_SHELL) и чтении данных (CS_RT_SUSP_FILE_READ), о запуске подключений к различным эндпоинтам (CS_RT_HACK_TOOLS_EXT, CS_RT_DOWNLOAD_TOOLS), о многочисленных запусках env, whoami.

Pasted image 20260415143016.png
Чтение чувствительных файлов скриптом сбора
Pasted image 20260415143051.png
Запуск командной оболочки с командами для поиска чувствительных данных, сбор данных об окружении

На что стоит обратить внимание при поиске угроз и расследовании инцидентов, подобных кейсу с компрометацией LiteLLM. Как всегда, внимание к деталям — лучший друг любого специалиста по поиску угроз. Настораживает не факт запуска командной оболочки, а то, КАК это происходит. Мы видим:

  • множественные попытки запуска в течение короткого времени;

  • подозрительного родителя процесса командной оболочки.

Фильтры помогут нам выбрать необходимый детектор и посмотреть на всю активность целиком. В качестве подтверждения факта нелегитимности используются аргументы, наполненные различными командами и шаблонами для поиска чувствительных данных.

В параметрах фильтра включим отображение событий, в которых обнаружены угрозы (Events with threats only), укажем детектор CS_RT_SUSP_SHELL и применим изменения.

Pasted image 20260414183100.png
Настройка фильтра для поиска событий

Детектор CS_RT_SUSP_SHELL отслеживает родителя процесса командной оболочки, поскольку в данном случае родительским процессом является /usr/bin/python3, он подсвечивает такую активность как угрозу.

Pasted image 20260415103225.png
Страница события из предыдущей выборки (доступна по нажатию на событие), где наглядно можно увидеть исполняемый файл процесса-родителя

Не так много легитимных приложений используют Python для запуска командной оболочки, а когда это происходит несколько раз подряд в продуктивной среде — стоит насторожиться.

Можем также изучить поведение процесса-родителя и посмотреть, какие подозрительные действия были обнаружены при его запуске. Напомню, что в нашей матрешке этим родителем будет второй Python-скрипт.

Возьмем любое событие из предыдущей выборки и в контекстном меню выберем Parent context.

Pasted image 20260415110422.png
Поиск событий, связанных с родительским процессом выбранного события

Чтобы отобразить события, необходимо убрать фильтрацию по конкретному детектору.

Pasted image 20260415110635.png
Сброс фильтрации по конкретному детектору

Вот тут начинается интересное: мы видим срабатывания наших детекторов, связанные с обращением родительского процесса к чувствительным файлам (функция security_file_permission). Обратите внимание, что для этого скрипт не запускал никакие дочерние процессы — это было сделано в ходе работы кода.

Как раз в таких случаях помогает наша телеметрия на базе eBPF, которая позволяет отследить обращения к файлам на более низком уровне, избегая подмены и отслеживания конкретных системных вызовов.

Pasted image 20260415110921.png

Среди прочитанных файлов видим файл с хешами-паролей от учетных записей Linux (/etc/shadow) и токен учетной записи Kubernetes (той самой, которую мы специально создали с повышенными правами, чтобы сработало перемещение в кластер).

Pasted image 20260415113449.png

Давайте теперь посмотрим, что происходило после этого. Напомню, что основной скрипт нашей матрешки (тот, который запускается самым первым) должен еще отправить данные на внешний C2-сервер. Для просмотра этих событий воспользуемся еще одним контекстным фильтром — выберем параметр Same parent.

Pasted image 20260415151159.png
Поиск событий, связанных с тем же родительским процессом, что и выбранное событие

Видим сработавшие детекторы, которые указывают на создание и эксфильтрацию архива собранных данных.

Pasted image 20260415151603.png
Pasted image 20260415151758.png
Pasted image 20260415151911.png

Помимо этого, события также содержат один из важнейших индикаторов компрометации (IoC) — адрес и порт конечного C2-сервера.

Pasted image 20260415153407.png

В итоге Runtime Radar смог обнаружить:

  • поиск и сбор чувствительных данных,

  • эксфильтрацию полученных данных,

  • адрес С2-сервера злоумышленника.

Кажется, здесь мы обнаружили уже достаточно шагов. Теперь перейдем к этапу перемещения в Kubernetes-кластер и побега из контейнера.

Обнаружение на этапе перемещения в Kubernetes-кластер

Итак, для закрепления на узле кластера скрипт запускает под в пространстве имен kube-system, который монтирует корневой каталог узла и закрепляется на уровне службы systemd. Параметры сбора событий в Runtime Radar были настроены на частичный мониторинг kube-system, поэтому события можно получить с помощью простого фильтра. На скриншоте ниже мы видим, как при помощи Runtime Radar мы фильтруем события по пространству имен kube-system, также для лучшей читаемости оставляем только события с типом exec, исключая события завершения процесса и kprobe.

Pasted image 20260416121519.png
Фильтрация события ИБ в интерфейсе продукта

Фильтры помогают нам увидеть четкую последовательность команд, запущенных в контейнере для реализации побега и закрепления на узле кластера с помощью systemd-службы. Кроме того, Runtime Radar дает нам понять, что команды были запущены в поде с максимальными возможностями (CAP_SYS_ADMIN). Из детекторов сработал CS_RT_BASE64_DECODE_RUN, который обнаруживает использование средств дешифровки Base64-последовательности.

Pasted image 20260416122344.png
Список событий из пода, запущенного злоумышленником в kube-system

В таких случаях всегда стоит обращать внимание на любую подозрительную активность в kube-system-пространстве, поскольку злоумышленники часто используют его, чтобы замаскировать свою деятельность под легитимную.

Кажется, мы где-то потеряли еще один шаг, а именно обращения к API Kubernetes для запуска привилегированного пода. Детекторов таких подключений в текущей экспертизе инструмента пока что нет (ждем ваши PR 🙂), но события точно должны быть.

Итак, предположим, что мы не знаем конкретную реализацию этого шага, но мы точно знаем, что скрипт, инициировавший сбор секретов, запустил вредоносный под. Тогда попробуем посмотреть все сетевые соединения, которые были установлены в рамках работы скрипта. В фильтрах продукта выбираем дочерний контекст и функцию tcp_connect, которая используется для инициализации TCP-соединений.

Pasted image 20260416135816.png
Настраиваем фильтры для получения событий о tcp-соединениях

Для этого сначала посмотрим сетевые соединения дочерних событий. Их нет, а это означает, что скрипт не использовал сторонние утилиты для обращения к API Kubernetes. Тогда логично предположить, что это обращение было реализовано в коде Python-скрипта. Немного изменим фильтр, выбрав параметр Same process, и проверим события.

Pasted image 20260416141128.png
Поиск событий с тем же процессом, что и у выбранного события

И действительно, видим события, связанные с подключением к стандартным эндпоинтам kubernetes, доступным внутри контейнера.

Pasted image 20260416141329.png

Итого обнаружили:

  • сетевые соединения с API Kubernetes;

  • запуск вредоносного пода;

  • закрепление на узле через команды в поде.

Основные выводы

Случай с LiteLLM доказывает необходимость обеспечивать защищенность и мониторинг среды выполнения в рамках процесса безопасной разработки. Это особенно ценно, когда ваш shift left еще недостаточно зрел или забуксовал в процессе интеграции. А для реализации такой защиты, базовой экспертизы нашего продукта более чем достаточно и это при том, что кейс не демонстрирует все ее возможности.

Пользуясь случаем приглашаю всех неравнодушных принять участие в разработке еще более продвинутых правил обнаружения для runtime-radar. Уверен, что вместе мы сможем сделать продукт еще эффективнее, а экспертизу точнее и шире.