<?xml version="1.0" encoding="UTF-8"?>

<rss version="2.0" xmlns:dc="http://purl.org/dc/elements/1.1/" >

  <channel>
    <title><![CDATA[Статьи]]></title>
    <link>https://habr.com/ru/users/codeyield/publications/articles/</link>
    <description><![CDATA[Хабр: статьи пользователя codeyield]]></description>
    <language>ru</language>
    <managingEditor>editor@habr.com</managingEditor>
    <generator>habr.com</generator>
    <pubDate>Tue, 05 May 2026 01:35:43 GMT</pubDate>
    
    
      <image>
        <link>https://habr.com/ru/</link>
        <url>https://habrastorage.org/webt/ym/el/wk/ymelwk3zy1gawz4nkejl_-ammtc.png</url>
        <title>Хабр</title>
      </image>
    

    
      
        
    
    <item>
      <title><![CDATA[Развёртывание боевого кластера Cassandra. Часть 4]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/957238/</guid>
      <link>https://habr.com/ru/articles/957238/?utm_campaign=957238&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<p>Это продолжение цикла, рассказывающего о практике развёртывания небольшого, но вполне производственного кластера Cassandra. В <a href="https://habr.com/ru/articles/924634/" rel="noopener noreferrer nofollow">первой</a>, <a href="https://habr.com/ru/articles/927132/" rel="noopener noreferrer nofollow">второй</a> и <a href="https://habr.com/ru/articles/940268/" rel="noopener noreferrer nofollow">третьей</a> частях мы продвинулись вперед вот по такому плану:</p><p>1. Анализ рабочей нагрузки и требований<br>2. Разработка схемы данных<br>3. Настройка хостовых машин<br>4. Настройка конфигурации Cassandra<br>5. Настройка топологии кластера<br>  <strong><em>= ВЫ НАХОДИТЕСЬ ЗДЕСЬ =</em></strong><br>6. Подключение Prometheus Cassandra Exporter<br>7. Подключение Prometheus Node Exporter<br>8. Вывод всех метрик в Grafana<br>9. Проведение нагрузочного тестирования<br>10. Дополнительный тюнинг по результатам теста</p><p>В этой части мы возьмём простой советский...</p> <a href="https://habr.com/ru/articles/957238/?utm_campaign=957238&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Thu, 16 Oct 2025 13:23:51 GMT</pubDate>
      <dc:creator><![CDATA[codeyield]]></dc:creator>
      <category><![CDATA[Базы данных]]></category><category><![CDATA[DevOps]]></category><category><![CDATA[Big Data]]></category><category><![CDATA[IT-инфраструктура]]></category><category><![CDATA[Высоконагруженные системы]]></category>
      <category><![CDATA[cassandra]]></category><category><![CDATA[базы данных]]></category><category><![CDATA[инфраструктура]]></category><category><![CDATA[highload]]></category><category><![CDATA[развертывание кластера]]></category><category><![CDATA[деплой]]></category><category><![CDATA[высоконагруженные системы]]></category>
    </item>
  

  

  

	
  

  

  

    
    <item>
      <title><![CDATA[Развёртывание боевого кластера Cassandra. Часть 3]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/940268/</guid>
      <link>https://habr.com/ru/articles/940268/?utm_campaign=940268&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<p>Это продолжение цикла, рассказывающего о практике развёртывания небольшого, но вполне производственного кластера Cassandra. В <a href="https://habr.com/ru/articles/924634/" rel="noopener noreferrer nofollow">первой</a> и <a href="https://habr.com/ru/articles/927132/" rel="noopener noreferrer nofollow">второй</a> частях мы продвинулись вперед вот по такому плану:</p><p>1. Анализ рабочей нагрузки и требований<br>2.Разработка схемы данных<br>3. Настройка хостовых машин<br>4. Настройка конфигурации Cassandra <br><strong><em>= ВЫ НАХОДИТЕСЬ ЗДЕСЬ =</em></strong><br>5. Настройка топологии кластера<br>6. Подключение Prometheus Cassandra Exporter<br>7. Подключение Prometheus Node Exporter<br>8. Вывод всех метрик в Grafana<br>9. Проведение нагрузочного тестирования<br>10. Дополнительный тюнинг по результатам теста</p><p>Двинемся дальше?</p> <a href="https://habr.com/ru/articles/940268/?utm_campaign=940268&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Sun, 24 Aug 2025 15:31:37 GMT</pubDate>
      <dc:creator><![CDATA[codeyield]]></dc:creator>
      <category><![CDATA[Базы данных]]></category><category><![CDATA[DevOps]]></category><category><![CDATA[Big Data]]></category><category><![CDATA[IT-инфраструктура]]></category><category><![CDATA[Высоконагруженные системы]]></category>
      <category><![CDATA[cassandra]]></category><category><![CDATA[базы данных]]></category><category><![CDATA[инфраструктура]]></category><category><![CDATA[highload]]></category><category><![CDATA[топология]]></category><category><![CDATA[кластер]]></category><category><![CDATA[репликация]]></category><category><![CDATA[консистентность]]></category><category><![CDATA[балансировка нагрузки]]></category><category><![CDATA[devops]]></category>
    </item>
  

  

  

	
  

  

  

    
    <item>
      <title><![CDATA[Развёртывание боевого кластера Cassandra. Часть 2]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/927132/</guid>
      <link>https://habr.com/ru/articles/927132/?utm_campaign=927132&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<p>Это продолжение цикла, рассказывающего о практике развёртывания производственного кластера Cassandra. В <a href="https://habr.com/ru/articles/924634/" rel="noopener noreferrer nofollow">первой части</a> мы начали продвигаться вот по такому плану:</p><p>1. Анализ рабочей нагрузки и требований<br>2. Разработка схемы данных<br>3. Настройка хостовых машин <br><strong><em>= ВЫ НАХОДИТЕСЬ ЗДЕСЬ =</em></strong><br>4. Настройка конфигурации Cassandra<br>5. Настройка топологии кластера<br>6. Подключение Prometheus Cassandra Exporter<br>7. Подключение Prometheus Node Exporter<br>8. Вывод всех метрик в Grafana<br>9. Проведение нагрузочного тестирования<br>10. Дополнительный тюнинг по результатам теста</p><p>Продолжим?</p> <a href="https://habr.com/ru/articles/927132/?utm_campaign=927132&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Sat, 12 Jul 2025 11:35:30 GMT</pubDate>
      <dc:creator><![CDATA[codeyield]]></dc:creator>
      <category><![CDATA[IT-инфраструктура]]></category><category><![CDATA[Big Data]]></category><category><![CDATA[DevOps]]></category><category><![CDATA[Базы данных]]></category><category><![CDATA[Высоконагруженные системы]]></category>
      <category><![CDATA[cassandra]]></category><category><![CDATA[базы данных]]></category><category><![CDATA[инфраструктура]]></category><category><![CDATA[развёртывание]]></category><category><![CDATA[деплой]]></category><category><![CDATA[высоконагруженные системы]]></category><category><![CDATA[highload]]></category>
    </item>
  

  

  

	
  

  

  

    
    <item>
      <title><![CDATA[Развёртывание боевого кластера Cassandra. Часть 1]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/924634/</guid>
      <link>https://habr.com/ru/articles/924634/?utm_campaign=924634&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<p>Это первая статья из цикла, рассказывающая о практике развёртывания небольшого кластера Cassandra: от&nbsp;дефолтного деплоя «из коробки» до&nbsp;готовности к&nbsp;производственной эксплуатации.</p><p><a href="https://en.wikipedia.org/wiki/Apache_Cassandra" rel="noopener noreferrer nofollow">Apache Cassandra</a>&nbsp;— это распределенная высокомасштабируемая NoSQL СУБД, предназначенная для&nbsp;надежного хранения огромных массивов данных. Cassandra используют такие гиганты как&nbsp;Netflix, Apple, Instagram*, Twitter* (*Запрещены в&nbsp;РФ), Spotify и множество других известных компаний и брендов.</p><p>Здесь не&nbsp;будет рассказа об&nbsp;архитектуре Cassandra&nbsp;— о&nbsp;ней опубликовано очень много статей и снято настолько&nbsp;же много видео. Особо отмечу суперский «<a href="https://www.youtube.com/watch?v=5TTKczwOWvw&amp;list=PL2g2h-wyI4Sr8VeucrYcrPLK2zfOpr87o" rel="noopener noreferrer nofollow">Cassandra Day Russia</a>» на&nbsp;Youtube на&nbsp;русском языке, записанный нашими соотечественниками из&nbsp;Datastax. Поэтому, если вы вообще ничего не&nbsp;знаете о&nbsp;Cassandra, то посмотрите, например, вебинар «<a href="https://youtu.be/Ae4GABykRoM?list=PL2g2h-wyI4Sr8VeucrYcrPLK2zfOpr87o" rel="noopener noreferrer nofollow">Введение в&nbsp;фундаментальные принципы и основы Apache Cassandra</a>», а&nbsp;уже затем добро пожаловать в&nbsp;подготовку боевого кластера.</p><p>Что&nbsp;касается самого кластера, который мы будем разворачивать, то мне достался раскатанный через Ansible деплой на 5&nbsp;хост‑машин с&nbsp;единственным образом Cassandra 4.0&nbsp;в&nbsp;docker‑compose и дефолтными настройками. Пятерка хост‑машин представляет собой Core i5&nbsp;/ 64&nbsp;GB RAM / 2&nbsp;x 512&nbsp;GB NVMe SSD / 16&nbsp;TB SATA c Debian 11.</p><p>Пожалуй, это небольшой кластер (большие кластера Cassandra могут включать десятки и сотни нод, раскиданных по&nbsp;многим ДЦ в&nbsp;разных странах мира), однако для&nbsp;наших задач он вполне достаточен и главное решает потребности бизнеса.</p><p>Приступим?</p> <a href="https://habr.com/ru/articles/924634/?utm_campaign=924634&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Thu, 03 Jul 2025 11:44:52 GMT</pubDate>
      <dc:creator><![CDATA[codeyield]]></dc:creator>
      <category><![CDATA[Базы данных]]></category><category><![CDATA[DevOps]]></category><category><![CDATA[Big Data]]></category><category><![CDATA[IT-инфраструктура]]></category><category><![CDATA[Высоконагруженные системы]]></category>
      <category><![CDATA[cassandra]]></category><category><![CDATA[базы данных]]></category><category><![CDATA[инфраструктура]]></category><category><![CDATA[highload]]></category><category><![CDATA[развёртывание]]></category><category><![CDATA[деплой]]></category><category><![CDATA[высоконагруженные системы]]></category>
    </item>
  

  

  

	
  

  

  

    
    <item>
      <title><![CDATA[Ускорьте отладку тяжелых Docker-образов, запускаемых в удаленной среде]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/893830/</guid>
      <link>https://habr.com/ru/articles/893830/?utm_campaign=893830&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<p>Это небольшой туториал о том, как ускорить pull и push тяжелых Docker образов, которые вы собираете локально, но их запуск возможен только в удаленной среде. Например, потому что контейнер использует специфическое окружение, приложения или ресурсы, которые трудно или невозможно воспроизвести локально.</p><p>Решение “в лоб” состоит в том, чтобы запушить собранный образ в Dockerhub. А там, где вы будете его использовать, просто указать ссылку на образ. Очевидно, что у этого простого способа есть недостатки.</p><p>Найденное решение оказалось без этих недостатков, простым, работающим и весьма изящным. Вот 3 шага, которые нужно сделать:</p> <a href="https://habr.com/ru/articles/893830/?utm_campaign=893830&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Узнать решение</a>]]></description>
      
      <pubDate>Mon, 24 Mar 2025 12:11:59 GMT</pubDate>
      <dc:creator><![CDATA[codeyield]]></dc:creator>
      <category><![CDATA[DevOps]]></category><category><![CDATA[Отладка]]></category>
      <category><![CDATA[docker]]></category><category><![CDATA[docker registry]]></category><category><![CDATA[отладка]]></category><category><![CDATA[быстродействие]]></category><category><![CDATA[ngrok]]></category><category><![CDATA[devops]]></category>
    </item>
  

  

  

	
  

  

  

    
    <item>
      <title><![CDATA[Практика создания кастомных сборок Spark Kubernetes Executor]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/893782/</guid>
      <link>https://habr.com/ru/articles/893782/?utm_campaign=893782&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<p>Поделюсь с коллегами практикой создания Docker-сборок на базе Spark разных версий, которые могут запускаться как Spark Kubernetes Executors для параллельного выполнения Spark-задач в кластере.</p><p>В нашем конкретном случае сборки включают Pyspark и Cassandra Connector, однако вы можете использовать этот материал как набор практических примеров, чтобы сконструировать собственные Docker-сборки для Spark на другом стеке или с другими приложениями.</p><p>В рамках поставленной задачи мне понадобилось подготовить, как минимум, пару Docker-сборок: одну для поддержки легаси кода и другую вполне современную для последующей миграции. Ниже я расскажу об этапах создания таких Docker-сборок, погружаясь в детали по ходу дела.</p> <a href="https://habr.com/ru/articles/893782/?utm_campaign=893782&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Mon, 24 Mar 2025 10:16:18 GMT</pubDate>
      <dc:creator><![CDATA[codeyield]]></dc:creator>
      <category><![CDATA[DevOps]]></category><category><![CDATA[Kubernetes]]></category><category><![CDATA[Data Engineering]]></category>
      <category><![CDATA[spark]]></category><category><![CDATA[kubernetes]]></category><category><![CDATA[executor]]></category><category><![CDATA[docker]]></category><category><![CDATA[dockerfile]]></category><category><![CDATA[cassandra]]></category><category><![CDATA[pyspark]]></category>
    </item>
  

  

  

	
  

  

  

      

      

      

    
  </channel>
</rss>
