<?xml version="1.0" encoding="UTF-8"?>

<rss version="2.0" xmlns:dc="http://purl.org/dc/elements/1.1/" >

  <channel>
    <title><![CDATA[Статьи]]></title>
    <link>https://habr.com/ru/users/scriptshaper/publications/articles/</link>
    <description><![CDATA[Хабр: статьи пользователя scriptshaper]]></description>
    <language>ru</language>
    <managingEditor>editor@habr.com</managingEditor>
    <generator>habr.com</generator>
    <pubDate>Sun, 10 May 2026 22:00:26 GMT</pubDate>
    
    
      <image>
        <link>https://habr.com/ru/</link>
        <url>https://habrastorage.org/webt/ym/el/wk/ymelwk3zy1gawz4nkejl_-ammtc.png</url>
        <title>Хабр</title>
      </image>
    

    
      
        
    
    <item>
      <title><![CDATA[Мой тимлид не пишет код 3 года. Почему он — лучший тимлид, с которым я работал]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1002120/</guid>
      <link>https://habr.com/ru/articles/1002120/?utm_campaign=1002120&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/849/fc4/5d0/849fc45d0dc35e1eeb4c085c9d693f36.png" /><p>На Хабре любят хейтить менеджеров, которые «забыли, как кодить». Мол, оторвались от реальности, не понимают сроков, не чувствуют боль разработчика. Я раньше тоже так думал. А потом попал в команду к человеку, который три года не открывал IDE, и за полгода понял, что был неправ.</p> <a href="https://habr.com/ru/articles/1002120/?utm_campaign=1002120&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Sat, 21 Feb 2026 08:29:03 GMT</pubDate>
      <dc:creator><![CDATA[ScriptShaper]]></dc:creator>
      <category><![CDATA[Управление разработкой]]></category><category><![CDATA[Программирование]]></category><category><![CDATA[Карьера в IT-индустрии]]></category><category><![CDATA[Управление персоналом]]></category><category><![CDATA[Машинное обучение]]></category>
      <category><![CDATA[тимлид]]></category><category><![CDATA[код-ревью]]></category><category><![CDATA[управление командой]]></category><category><![CDATA[velocity]]></category><category><![CDATA[выгорание]]></category><category><![CDATA[техлид]]></category><category><![CDATA[менеджмент в IT]]></category><category><![CDATA[LLM]]></category><category><![CDATA[GitLab метрики]]></category><category><![CDATA[team lead]]></category>
    </item>
  

  

  

	
  

  

  

    
    <item>
      <title><![CDATA[Я заменил Google на 50 строк Python. Через месяц я забыл, как пишется tar -xzf]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1001214/</guid>
      <link>https://habr.com/ru/articles/1001214/?utm_campaign=1001214&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/f4f/601/293/f4f60129317def9dcd0120f5be700c15.jpeg" /><p>Десять лет в девопсе. Десять. И я гуглю&nbsp;<code>tar -xzf</code>. Не раз в год — раз в неделю. Ну, может раз в десять дней, если повезёт. Открываю хром, набираю «tar extract gz linux», пролистываю три рекламы, нахожу ответ на SO, копирую, вставляю, закрываю вкладку. Через неделю — по новой.</p><p>Я не идиот. Точнее, может и идиот, но не поэтому. Просто tar — это такой синтаксис, который у меня физически отказывается залезать в долговременную память. Там дефис или нет?&nbsp;<code>xzf</code>&nbsp;или&nbsp;<code>xfz</code>? Или&nbsp;<code>zxf</code>? Вроде порядок не важен? Или важен?..</p><p>Короче. Месяц назад я написал скрипт, который это решил. А потом скрипт решил больше, чем я хотел.</p> <a href="https://habr.com/ru/articles/1001214/?utm_campaign=1001214&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Thu, 19 Feb 2026 04:01:12 GMT</pubDate>
      <dc:creator><![CDATA[ScriptShaper]]></dc:creator>
      <category><![CDATA[Программирование]]></category><category><![CDATA[Системное администрирование]]></category><category><![CDATA[DevOps]]></category><category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Python]]></category>
      <category><![CDATA[bash]]></category><category><![CDATA[Python]]></category><category><![CDATA[LLM]]></category><category><![CDATA[CLI]]></category><category><![CDATA[терминал]]></category><category><![CDATA[DevOps]]></category><category><![CDATA[автоматизация]]></category><category><![CDATA[GPT]]></category><category><![CDATA[Ollama]]></category><category><![CDATA[командная строка]]></category>
    </item>
  

  

  

	
  

  

  

    
    <item>
      <title><![CDATA[Что нашли внутри Claude, когда заглянули ему в голову]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/993384/</guid>
      <link>https://habr.com/ru/articles/993384/?utm_campaign=993384&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/99f/f25/83f/99ff2583f7a11c312f60bd2cc7509418.png" /><p>Мы привыкли, что нейросети — это «черный ящик»: на входе данные, на выходе ответ, а внутри магия. Но что, если этот ящик можно сделать прозрачным? Команда Anthropic провела масштабное препарирование Claude 3 Sonnet, чтобы найти конкретные «фичи», отвечающие за концепции — от Золотых Ворот до уязвимостей в коде. Разбираемся, как устроены мысли нейросети и почему это открытие меняет наше представление о безопасности ИИ.</p> <a href="https://habr.com/ru/articles/993384/?utm_campaign=993384&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Thu, 05 Feb 2026 22:39:14 GMT</pubDate>
      <dc:creator><![CDATA[ScriptShaper]]></dc:creator>
      <category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Машинное обучение]]></category><category><![CDATA[Научно-популярное]]></category><category><![CDATA[Будущее здесь]]></category>
      <category><![CDATA[Claude]]></category><category><![CDATA[Anthropic]]></category><category><![CDATA[LLM]]></category><category><![CDATA[нейросети]]></category><category><![CDATA[sparse autoencoders]]></category><category><![CDATA[SAE]]></category><category><![CDATA[искусственный интеллект]]></category><category><![CDATA[машинное обучение]]></category><category><![CDATA[безопасность ИИ]]></category>
    </item>
  

  

  

	
  

  

  

    
    <item>
      <title><![CDATA[Разбираю статью про FS-Researcher: как учёные научили ИИ вести конспекты]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/992836/</guid>
      <link>https://habr.com/ru/articles/992836/?utm_campaign=992836&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/f22/4e8/fd3/f224e8fd30624faa5320fa9a06c57fb6.png" /><p>ChatGPT и другие LLM "забывают" начало диалога при серьезном ресерче. Обычная проблема. Новые факты вытесняют старые из-за ограниченного контекстного окна, и отчет получается поверхностным. Недавнее исследование предлагает простое решение — дать ИИ-агенту "блокнот". Разбираемся как такой подход обходит ограничения контекста.</p> <a href="https://habr.com/ru/articles/992836/?utm_campaign=992836&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Wed, 04 Feb 2026 17:11:24 GMT</pubDate>
      <dc:creator><![CDATA[ScriptShaper]]></dc:creator>
      <category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Машинное обучение]]></category><category><![CDATA[Алгоритмы]]></category><category><![CDATA[Python]]></category>
      <category><![CDATA[LLM]]></category><category><![CDATA[ИИ-агенты]]></category><category><![CDATA[большие языковые модели]]></category><category><![CDATA[контекстное окно]]></category><category><![CDATA[RAG]]></category><category><![CDATA[ReAct]]></category><category><![CDATA[Claude]]></category><category><![CDATA[FS-Researcher]]></category><category><![CDATA[нейросети]]></category>
    </item>
  

  

  

	
  

  

  

    
    <item>
      <title><![CDATA[QAD от NVIDIA: разбираюсь, почему 4-битная квантизация перестала всё ломать]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/991586/</guid>
      <link>https://habr.com/ru/articles/991586/?utm_campaign=991586&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/bfd/e0b/fd1/bfde0bfd1b8737ab3efefc3a9f550ae3.png" /><p>NVIDIA выпустила отчет о методе QAD, который позволяет квантовать LLM в 4 бита без потери качества на сложных задачах (математика, код). Разбираем, почему привычный QAT «ломает» модели после RLHF, как дистилляция через KL-дивергенцию решает эту проблему и почему метод работает даже на рандомных данных. Личный опыт попыток уместить 49B модель в железо и анализ нового подхода.</p> <a href="https://habr.com/ru/articles/991586/?utm_campaign=991586&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Sun, 01 Feb 2026 18:36:31 GMT</pubDate>
      <dc:creator><![CDATA[ScriptShaper]]></dc:creator>
      <category><![CDATA[Машинное обучение]]></category><category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Natural Language Processing]]></category><category><![CDATA[Big Data]]></category>
      <category><![CDATA[LLM]]></category><category><![CDATA[Квантизация]]></category><category><![CDATA[NVIDIA]]></category><category><![CDATA[QAD]]></category><category><![CDATA[QAT]]></category><category><![CDATA[FP4]]></category><category><![CDATA[Blackwell]]></category><category><![CDATA[Machine Learning]]></category><category><![CDATA[Llama]]></category><category><![CDATA[Distillation]]></category>
    </item>
  

  

  

	
  

  

  

      

      

      

    
  </channel>
</rss>
