<?xml version="1.0" encoding="UTF-8"?>

<rss version="2.0" xmlns:dc="http://purl.org/dc/elements/1.1/" >

  <channel>
    <title><![CDATA[Статьи]]></title>
    <link>https://habr.com/ru/users/python_leader/publications/articles/</link>
    <description><![CDATA[Хабр: статьи пользователя python_leader]]></description>
    <language>ru</language>
    <managingEditor>editor@habr.com</managingEditor>
    <generator>habr.com</generator>
    <pubDate>Tue, 28 Apr 2026 02:37:02 GMT</pubDate>
    
    
      <image>
        <link>https://habr.com/ru/</link>
        <url>https://habrastorage.org/webt/ym/el/wk/ymelwk3zy1gawz4nkejl_-ammtc.png</url>
        <title>Хабр</title>
      </image>
    

    
      
        
    

  

  

	
  

  
    <item>
      <title><![CDATA[[Перевод] Как Cursor с Claude Opus снёс продакшен базу данных за 9 секунд]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1028758/</guid>
      <link>https://habr.com/ru/articles/1028758/?utm_campaign=1028758&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/4c5/edd/2ab/4c5edd2abc904a77ce3f2ac6baecad4f.jpeg" /><p>30 часов хронологии того, как агент Cursor, Railway API и индустрия, которая продаёт безопасность быстрее, чем её реализует, положили малый бизнес, обслуживающий прокатные компании по всей стране.</p><p>Меня зовут Джер Крейн, я основатель PocketOS. Мы делаем ПО для прокатного бизнеса — в первую очередь для аренды автомобилей: бронирования, платежи, управление клиентами, отслеживание транспортных средств. Некоторые наши клиенты с нами уже больше 5 лет и они буквально не могут работать без нас.</p><p>Вчера днём ИИ-агент на базе Cursor с Claude Opus 4.6 от Anthropic удалил нашу продакшн-базу данных и все резервные копии на уровне тома одним API-вызовом к Railway, нашему инфраструктурному провайдеру.</p><p>На это ушло 9 секунд.</p><p>Затем агент, когда его попросили объяснить произошедшее, написал признание — с перечнем конкретных правил безопасности, которые он нарушил.</p> <a href="https://habr.com/ru/articles/1028758/?utm_campaign=1028758&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Mon, 27 Apr 2026 17:37:45 GMT</pubDate>
      <dc:creator><![CDATA[python_leader]]></dc:creator>
      <category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Программирование]]></category><category><![CDATA[Информационная безопасность]]></category><category><![CDATA[Хранение данных]]></category><category><![CDATA[DevOps]]></category>
      <category>AI-агент</category><category>Cursor</category><category>Railway</category><category>Claude Opus</category><category>MCP</category><category>API токены</category><category>резервное копирование</category><category>продакшн инцидент</category><category>volumeDelete</category><category>безопасность LLM</category>
    </item>
  

  

    

  

  

	
  

  
    <item>
      <title><![CDATA[[Перевод] Вышел DeepSeek V4. Почему это очень плохо для США?]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1028032/</guid>
      <link>https://habr.com/ru/articles/1028032/?utm_campaign=1028032&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/562/f71/a2c/562f71a2ccddcbe3ae1d97fe542fe2f6.jpeg" /><p>DeepSeek V4 Pro — это 1,6 триллиона параметров, mixture of experts (MoE), 49 млрд активных параметров и контекст в 1 миллион токенов. V4 Flash — рабочая лошадка: 284 млрд параметров суммарно, 13 млрд активных. Обе модели обучены примерно на 33 трлн токенов. На агентских бенчмарках кода, MMLU Pro, GPQA Diamond, SWE-bench Verified — V4 рядом с Opus 4.7 и GPT-5.5. Немного отстаёт, но совсем немного.</p><p>Вот в чём дело.</p><p>Большинству задач не нужен абсолютный frontier. Компании не решают сложнейшие научные задачи — они ведут бизнес. Представьте: вы CEO, смотрите на GPT-5.5 по $30 за миллион выходных токенов, на Opus 4.7 по похожей цене — и тут DeepSeek в разы дешевле, open source, его можно дообучать, хостить где угодно, контролировать точечно. Математика очевидна.</p><p>Здесь и начинается проблема.</p> <a href="https://habr.com/ru/articles/1028032/?utm_campaign=1028032&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Sun, 26 Apr 2026 08:37:41 GMT</pubDate>
      <dc:creator><![CDATA[python_leader]]></dc:creator>
      <category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Машинное обучение]]></category><category><![CDATA[IT-компании]]></category><category><![CDATA[Open source]]></category><category><![CDATA[Финансы в IT]]></category>
      <category>DeepSeek V4</category><category>mixture of experts</category><category>open source LLM</category><category>frontier модели</category><category>SWE-bench</category><category>экспортный контроль AI</category><category>дистилляция моделей</category><category>AI безопасность</category><category>OpenAI Anthropic конкуренция</category><category>стоимость инференса</category>
    </item>
  

  

    

  

  

	
  

  
    <item>
      <title><![CDATA[[Перевод] Opus 4.7 использует на 45% больше токенов. Реальные замеры против обещаний Anthropic]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1024958/</guid>
      <link>https://habr.com/ru/articles/1024958/?utm_campaign=1024958&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/cb7/a24/6cc/cb7a246ccae0e20cda529aec2247a1ad.png" /><p>В гайде по миграции для Claude Opus 4.7 написано: новый токенайзер использует «примерно в 1.0–1.35 раза больше токенов», чем 4.6. Я замерил и получил 1.47x на технической документации, и 1.45x на реальном CLAUDE.md-файле.</p><p>Цены те же. Квоты те же. Токенов в промпте больше. Max-план сгорает быстрее. Кешированный префикс стоит дороже за каждую итерацию. Рейтлимит наступает раньше.</p><p>Значит, Anthropic что-то получили в обмен. Что именно — и стоит ли оно того?</p><p>Я провёл два эксперимента: первый измерил стоимость, второй проверил заявленные преимущества. Вот что получилось.</p> <a href="https://habr.com/ru/articles/1024958/?utm_campaign=1024958&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Sat, 18 Apr 2026 10:48:51 GMT</pubDate>
      <dc:creator><![CDATA[python_leader]]></dc:creator>
      <category><![CDATA[Natural Language Processing]]></category><category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Машинное обучение]]></category><category><![CDATA[Программирование]]></category>
      <category>Claude 4.7</category><category>токенайзер</category><category>prompt caching</category><category>Claude Code</category><category>токены</category><category>IFEval</category><category>instruction following</category><category>Anthropic</category><category>стоимость API</category><category>claude-opus-4-7</category>
    </item>
  

  

    

  

  

	
  

  
    <item>
      <title><![CDATA[[Перевод] Когда, зачем и как правильно начинать новую сессию в Claude Code?]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1024038/</guid>
      <link>https://habr.com/ru/articles/1024038/?utm_campaign=1024038&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/a58/277/c25/a58277c2595d8460e8d1f942d500b072.png" /><p>В последних разговорах с пользователями Claude Code постоянно всплывает одна тема: контекстное окно в 1М токенов — палка о двух концах.</p><p>С одной стороны, Claude Code дольше работает автономно и надёжнее справляется со сложными задачами. С другой — если не следить за сессиями, контекст быстро засоряется.</p><p>Управление сессиями сейчас важнее, чем когда-либо, и вопросов вокруг него много. Держать одну или две долгосрочные сессии в терминале? Начинать новую с каждым промптом? Когда использовать&nbsp;<a href="https://platform.claude.com/docs/en/build-with-claude/compaction" rel="noopener noreferrer nofollow">compact</a>, rewind или&nbsp;<a href="https://code.claude.com/docs/en/sub-agents" rel="noopener noreferrer nofollow">subagents</a>? Что приводит к плохой компактизации или плохой сессии?</p><p>Всё это неожиданно сильно влияет на опыт работы с&nbsp;<a href="https://code.claude.com/docs/en/overview" rel="noopener noreferrer nofollow">Claude Code</a>, и почти всё сводится к&nbsp;<a href="https://code.claude.com/docs/en/how-claude-code-works" rel="noopener noreferrer nofollow">управлению контекстным окном</a>.</p> <a href="https://habr.com/ru/articles/1024038/?utm_campaign=1024038&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Thu, 16 Apr 2026 08:20:54 GMT</pubDate>
      <dc:creator><![CDATA[python_leader]]></dc:creator>
      <category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Программирование]]></category><category><![CDATA[Текстовые редакторы и IDE]]></category>
      <category>Claude Code</category><category>контекстное окно</category><category>управление сессиями</category><category>context rot</category><category>compaction</category><category>rewind</category><category>subagents</category><category>AI-агенты</category><category>LLM-инструменты</category><category>Anthropic</category>
    </item>
  

  

    

  

  

	
  

  
    <item>
      <title><![CDATA[[Перевод] Что такое Harness? Полный разбор на примере Claude Code, OpenAI и LangChain]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1023316/</guid>
      <link>https://habr.com/ru/articles/1023316/?utm_campaign=1023316&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/bf3/982/d18/bf3982d188337d9b81b6fdf681321b3c.jpeg" /><p>Глубокий разбор того, что на самом деле строят Anthropic, OpenAI, Perplexity и LangChain. Оркестрационный цикл, инструменты, память, управление контекстом — и всё остальное, что превращает stateless LLM в работающего агента.</p><p>Допустим, вы собрали чатбот. Может, даже прикрутили ReAct-цикл с несколькими инструментами. На демо работает. Но стоит попробовать сделать что-то production-grade — и всё начинает сыпаться: модель забывает, что делала три шага назад, вызовы инструментов падают без ошибок, контекстное окно забивается мусором.</p><p>Проблема не в модели. Проблема во всём, что её окружает.</p><p>LangChain это доказал: изменив только инфраструктуру вокруг LLM (та же модель, те же веса), они поднялись с позиции за пределами топ-30 на 5-е место в TerminalBench 2.0. В отдельном исследовательском проекте LLM оптимизировал саму инфраструктуру и достиг 76,4% pass rate, превзойдя системы, спроектированные вручную.</p><p>У этой инфраструктуры теперь есть название:&nbsp;<strong>agent harness</strong>&nbsp;(агентный харнесс).</p> <a href="https://habr.com/ru/articles/1023316/?utm_campaign=1023316&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Tue, 14 Apr 2026 11:30:04 GMT</pubDate>
      <dc:creator><![CDATA[python_leader]]></dc:creator>
      <category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Машинное обучение]]></category><category><![CDATA[Программирование]]></category><category><![CDATA[Natural Language Processing]]></category>
      <category>agent harness</category><category>LLM агент</category><category>оркестрационный цикл</category><category>ReAct loop</category><category>context management</category><category>Claude Code</category><category>LangGraph</category><category>memory management</category><category>prompt engineering</category><category>multi-agent</category>
    </item>
  

  

    

  

  

	
  

  
    <item>
      <title><![CDATA[[Перевод] «Большой скачок» в мире AI: история повторяется]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1021342/</guid>
      <link>https://habr.com/ru/articles/1021342/?utm_campaign=1021342&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/7f3/d41/02b/7f3d4102bfae2e4b6da595c33812aa57.jpg" /><p>В 1958 году Мао приказал каждой деревне в Китае выплавлять сталь. Крестьяне бросали кухонную утварь в самодельные домны и рапортовали о феноменальных показателях. Сталь оказалась непригодной. Урожай сгнил. Тридцать миллионов человек погибли от голода.</p><p>В 2026 году каждая вторая компания проводит масштабную AI-трансформацию сверху вниз.</p><p>Тот же вайб.</p> <a href="https://habr.com/ru/articles/1021342/?utm_campaign=1021342&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Thu, 09 Apr 2026 11:17:53 GMT</pubDate>
      <dc:creator><![CDATA[python_leader]]></dc:creator>
      <category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Управление разработкой]]></category><category><![CDATA[IT-компании]]></category><category><![CDATA[Исследования и прогнозы в IT]]></category><category><![CDATA[Будущее здесь]]></category>
      <category>AI-трансформация</category><category>AI-агенты</category><category>корпоративный AI</category><category>agent skills</category><category>LLM</category><category>productivity</category><category>технический долг</category><category>vibe coding</category>
    </item>
  

  

    

  

  

	
  

  
    <item>
      <title><![CDATA[[Перевод] Разбираем 14 самых популярных бенчмарков для LLM]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1017082/</guid>
      <link>https://habr.com/ru/articles/1017082/?utm_campaign=1017082&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/b63/243/789/b6324378930d7c821674bac2f782f7c8.png" /><p>Opus 4.5 набирает 80.6% на SWE-bench Verified. Opus 4 — 72.5%. Значит ли это, что Opus 4.5 лучше программирует, чем Opus 4?</p><p>Ну...&nbsp;<em>возможно</em>. Но SWE-bench Verified это не показывает. Он показывает способность модели чинить небольшие баги в 12 популярных open source Python-репозиториях, которые почти наверняка входят в её обучающие данные. SWE-bench Verified не тестирует умение ориентироваться в вашем TypeScript-монорепо, Spring Boot-приложении или самописном ORM, на котором настоял предыдущий CTO.</p><p>Я написал эту статью, потому что в релизах новых моделей постоянно мелькает один и тот же набор бенчмарков — и я понятия не имел, что они означают. Пришлось прочитать статьи, код и критику. Результат: разбор 14 бенчмарков — что тестирует, как устроен, в чём критикуют, и мои собственные наблюдения.</p> <a href="https://habr.com/ru/articles/1017082/?utm_campaign=1017082&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Mon, 06 Apr 2026 15:48:28 GMT</pubDate>
      <dc:creator><![CDATA[python_leader]]></dc:creator>
      <category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Машинное обучение]]></category><category><![CDATA[Будущее здесь]]></category><category><![CDATA[Natural Language Processing]]></category>
      <category>бенчмарки LLM</category><category>SWE-bench</category><category>оценка языковых моделей</category><category>AI бенчмарки 2025</category><category>Terminal-Bench</category><category>ARC-AGI</category><category>GPQA Diamond</category><category>FrontierMath</category><category>тестирование ИИ</category><category>метрики качества LLM</category>
    </item>
  

  

    

  

  

	
  

  
    <item>
      <title><![CDATA[[Перевод] Квантизация с нуля: как запустить 160ГБ LLM на ноутбуке и не потерять в качестве]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1015510/</guid>
      <link>https://habr.com/ru/articles/1015510/?utm_campaign=1015510&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/645/a32/243/645a322433a7c314c415c7d0bbfca81c.png" /><p><a href="https://huggingface.co/Qwen/Qwen3-Coder-Next" rel="noopener noreferrer nofollow">Qwen-3-Coder-Next</a>&nbsp;— модель с 80 миллиардами параметров и весом&nbsp;<strong>159,4 ГБ</strong>. Примерно столько RAM потребовалось бы для её запуска, и это ещё без учёта длинного контекстного окна.&nbsp;<em>И эта модель не считается большой моделью! </em>По слухам, у frontier-моделей более триллиона параметров, для которых понадобилось бы минимум&nbsp;<strong>2 ТБ </strong>оперативной памяти. Последний раз я видел столько RAM в одной машине <span class="habrahidden">— никогда</span>.</p><p>Но что если я скажу, что можно сделать LLM в 4 раза меньше и в 2 раза быстрее — достаточно, чтобы запускать весьма мощные модели на ноутбуке, — при потере точности всего 5–10%?</p><p>В этом и заключается магия квантизации.</p><p><strong>В этой статье вы узнаете:</strong><br><strong>– </strong>Почему параметры модели делают её такой большой<br><strong>– </strong>Как работает точность чисел с плавающей точкой и чем жертвуют модели<br><strong>– </strong>Как сжимать числа с плавающей точкой с помощью квантизации<br><strong>– </strong>Как измерить потерю качества модели после квантизации</p> <a href="https://habr.com/ru/articles/1015510/?utm_campaign=1015510&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Thu, 26 Mar 2026 14:57:50 GMT</pubDate>
      <dc:creator><![CDATA[python_leader]]></dc:creator>
      <category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Машинное обучение]]></category><category><![CDATA[Natural Language Processing]]></category>
      <category>квантизация</category><category>LLM</category><category>bfloat16</category><category>llama.cpp</category><category>веса модели</category><category>числа с плавающей точкой</category><category>post-training quantization</category><category>перплексия</category><category>KL-дивергенция</category><category>локальный запуск моделей</category>
    </item>
  

  

    

  

  

	
  

  
    <item>
      <title><![CDATA[[Перевод] Вайбкодинг есть, а вайбрезультатов нет?]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1014858/</guid>
      <link>https://habr.com/ru/articles/1014858/?utm_campaign=1014858&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/b86/841/602/b86841602ee4c4705d7d93dcff162c9c.png" /><p>Поклонники вайбкодинга и агентных инструментов говорят, что стали продуктивнее в 2, в 10, а то и в 100 раз. Кто-то <a href="https://habr.com/ru/news/985330/" rel="noopener noreferrer nofollow">собрал целый браузер</a> с нуля. Впечатляет!</p><p>Тогда скептики резонно спрашивают: где все приложения? Если разработчики стали (возьмём консервативную оценку) хотя бы вдвое продуктивнее, где искать вдвое больше произведённого ПО? Такие вопросы исходят из допущения, что мир хочет больше программ, а значит, если их дешевле делать, их будут делать больше. Если вы с этим согласны — где тогда этот избыток, который можно назвать «AI-эффектом»?</p><p>Посмотрим на PyPI — центральный репозиторий Python-пакетов. Он большой, публичный и стабильно измеримый, так что AI-эффект должен быть хорошо заметен.</p> <a href="https://habr.com/ru/articles/1014858/?utm_campaign=1014858&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Wed, 25 Mar 2026 12:23:38 GMT</pubDate>
      <dc:creator><![CDATA[python_leader]]></dc:creator>
      <category><![CDATA[Программирование]]></category><category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Python]]></category><category><![CDATA[Будущее здесь]]></category><category><![CDATA[Исследования и прогнозы в IT]]></category>
      <category>PyPI</category><category>вайбкодинг</category><category>продуктивность разработчиков</category><category>Python-пакеты</category><category>ChatGPT</category><category>AI-инструменты</category><category>open source</category><category>GitHub Actions</category><category>генеративный AI</category><category>AI-экосистема</category>
    </item>
  

  

    

  

  

	
  

  
    <item>
      <title><![CDATA[[Перевод] Skills для Claude Code: огромный гайд от инженера Anthropic]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1011524/</guid>
      <link>https://habr.com/ru/articles/1011524/?utm_campaign=1011524&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/18f/2d6/4f7/18f2d64f75f5f4f5e008ee66efcf2174.png" /><p>Skills стали одной из самых популярных точек расширения в Claude Code. Они гибкие, их легко создавать и распространять.</p><p>Но эта гибкость усложняет понимание. Что работает лучше всего? Какие skills стоит делать? Как написать хороший skill? Когда имеет смысл делиться ими с другими?</p><p>Мы в Anthropic активно используем skills в Claude Code — сейчас у нас их сотни в работе. Ниже — уроки, которые мы извлекли из этого опыта.</p> <a href="https://habr.com/ru/articles/1011524/?utm_campaign=1011524&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Wed, 18 Mar 2026 08:05:01 GMT</pubDate>
      <dc:creator><![CDATA[python_leader]]></dc:creator>
      <category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Машинное обучение]]></category><category><![CDATA[Программирование]]></category><category><![CDATA[Будущее здесь]]></category><category><![CDATA[Текстовые редакторы и IDE]]></category>
      <category>Claude Code skills</category><category>создание skills</category><category>типы skills</category><category>верификация кода</category><category>скаффолдинг</category><category>маркетплейс плагинов</category><category>context engineering</category><category>ранбуки</category><category>композиция skills</category>
    </item>
  

  

    

  

  

	
  

  
    <item>
      <title><![CDATA[[Перевод] 8 уровней агентной инженерии]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1010430/</guid>
      <link>https://habr.com/ru/articles/1010430/?utm_campaign=1010430&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/9f1/bb8/f74/9f1bb8f74cbfc3f6da720a8243b14219.jpeg" /><p>Способности AI в написании кода растут быстрее, чем наше умение этими способностями пользоваться. Поэтому рост баллов на SWE-bench не коррелирует с метриками продуктивности, которые волнуют инженерных руководителей. Когда команда Anthropic выкатывает продукт вроде Cowork за 10 дней, а другая команда не может довести до ума сломанный POC на тех же моделях, разница в одном: первые закрыли разрыв между возможностями моделей и практикой, вторые — нет.</p><p>Этот разрыв не закрывается за одну ночь. Он закрывается по уровням. Их 8. Большинство читающих эту статью, скорее всего, уже прошли первые несколько, и стоит стремиться к следующему, потому что каждый новый уровень — это резкий скачок производительности, а каждое улучшение моделей усиливает этот эффект ещё больше.</p> <a href="https://habr.com/ru/articles/1010430/?utm_campaign=1010430&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Sun, 15 Mar 2026 09:52:36 GMT</pubDate>
      <dc:creator><![CDATA[python_leader]]></dc:creator>
      <category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Будущее здесь]]></category><category><![CDATA[Машинное обучение]]></category><category><![CDATA[Программирование]]></category>
      <category>Агентная инженерия</category><category>LLM</category><category>context engineering</category><category>background agents</category><category>MCP</category><category>feedback loops</category><category>compounding engineering</category><category>code review</category><category>оркестрация</category><category>автономность</category>
    </item>
  

  

    

  

  

	
  

  
    <item>
      <title><![CDATA[[Перевод] Claude Code vs. Codex: исчерпывающее сравнение]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1009444/</guid>
      <link>https://habr.com/ru/articles/1009444/?utm_campaign=1009444&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/e20/1c1/e35/e201c1e35e00a1e3b7a9f0bf4e4a7e72.png" /><p>Я использовал Claude Code несколько месяцев, потом перешёл на Codex. Недавно вернулся обратно — и причина не в бенчмарках. Также протестировал оба инструмента на одной и той же задаче.</p><p>В этой статье я разберу разные аспекты Claude Code и Codex, сравню флагманские модели Opus 4.6 и GPT-5.3-Codex, расскажу, что реально влияет на опыт AI-разработки, и покажу кейс-стади: построение RAG-пайплайна в обоих агентах.</p><p>Сразу предупрежу: читать ~12 минут. По-моему, это оправдано, если вы собираетесь платить $200/месяц за любой из них.</p> <a href="https://habr.com/ru/articles/1009444/?utm_campaign=1009444&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Thu, 12 Mar 2026 11:50:29 GMT</pubDate>
      <dc:creator><![CDATA[python_leader]]></dc:creator>
      <category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Программирование]]></category><category><![CDATA[Машинное обучение]]></category><category><![CDATA[Текстовые редакторы и IDE]]></category>
      <category>claude code</category><category>codex</category><category>ai coding agent</category><category>claude vs codex</category><category>opus 4.6</category><category>coding agent comparison</category><category>rag pipeline</category>
    </item>
  

  

    

  

  

	
  

  
    <item>
      <title><![CDATA[[Перевод] Anthropic против OpenAI: два разных подхода к «быстрому режиму»]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1000782/</guid>
      <link>https://habr.com/ru/articles/1000782/?utm_campaign=1000782&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/e18/9ff/77a/e189ff77a2372233224c3dd0ce199126.png" /><p>Anthropic и OpenAI почти одновременно запустили «быстрый режим» для своих моделей — и за одинаковым названием скрываются принципиально разные подходы к ускорению инференса.</p><p>В одном случае это реальная модель с уменьшенным батчингом, в другом — отдельная, более компактная версия на специализированных чипах Cerebras. </p><p>Разбираемся, что именно стоит за цифрами «2.5×» и «1000 токенов в секунду», где компромисс по качеству и что это значит для разработчиков на практике.</p> <a href="https://habr.com/ru/articles/1000782/?utm_campaign=1000782&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Wed, 18 Feb 2026 05:25:14 GMT</pubDate>
      <dc:creator><![CDATA[python_leader]]></dc:creator>
      <category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Машинное обучение]]></category><category><![CDATA[Будущее здесь]]></category><category><![CDATA[Видеокарты]]></category>
      <category>Anthropic</category><category>OpenAI</category><category>быстрый режим LLM</category><category>инференс нейросетей</category><category>батчинг</category><category>Cerebras</category><category>GPT-5.3-Codex</category><category>Claude Opus 4.6</category><category>ускорение моделей ИИ</category><category>производительность LLM</category>
    </item>
  

  

    

  

  

	
  

  
    <item>
      <title><![CDATA[[Перевод] Agent Skills vs MCP: разбираемся на примере Antigravity]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/987552/</guid>
      <link>https://habr.com/ru/articles/987552/?utm_campaign=987552&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/10b/312/f4a/10b312f4a9ca60d50e587481d9e8fe10.png" /><p>Разбираемся с Agent Skills — подходом, который решает проблему разрастания контекста в агентных IDE. Речь пойдёт о том, почему загрузка всех инструментов сразу вредит качеству рассуждений, как Skills отличаются от MCP, Rules и Workflows, и как использовать их на практике в Google Antigravity, чтобы агент делал ровно то, что нужно, и ничего лишнего.</p> <a href="https://habr.com/ru/articles/987552/?utm_campaign=987552&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Mon, 09 Feb 2026 16:04:54 GMT</pubDate>
      <dc:creator><![CDATA[python_leader]]></dc:creator>
      <category><![CDATA[Программирование]]></category><category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Будущее здесь]]></category>
      <category>google antigravity</category><category>ai агенты</category><category>skills</category><category>ide</category><category>разработка</category><category>автоматизация</category><category>workflows</category><category>mcp</category>
    </item>
  

  

    
    <item>
      <title><![CDATA[Моушен-графика для разработчиков: Remotion, Skills, немного стиля и любой ИИ-агент]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/992392/</guid>
      <link>https://habr.com/ru/articles/992392/?utm_campaign=992392&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/0b1/bb9/8f3/0b1bb98f323e4f13095c91005f922062.png" /><p>Если бы я хотел хайпануть, то сказал бы, что моушен-графика больше не требует отдельной профессии, лицензии на Adobe и многих лет обучения. Но я так говорить не буду. Скажу лишь, что если вы разработчик и умеете формулировать задачу, то сегодня вы можете собирать анимированные промо-ролики, описывая их кодом в вашей любимой IDE.</p><p>В этой статье я покажу:<br>– Зачем вообще разработчику лезть в моушен,<br>– Что такое Remotion и почему он «выстрелил» именно сейчас,<br>– Причём тут Skills,<br>– И какой результат реально можно получить за 30 минут времени и несколько тысяч токенов.</p> <a href="https://habr.com/ru/articles/992392/?utm_campaign=992392&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Погнали!</a>]]></description>
      
      <pubDate>Tue, 03 Feb 2026 16:35:47 GMT</pubDate>
      <dc:creator><![CDATA[python_leader]]></dc:creator>
      <category><![CDATA[Программирование]]></category><category><![CDATA[Дизайн]]></category><category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Будущее здесь]]></category><category><![CDATA[3D-графика]]></category>
      <category><![CDATA[моушен-графика]]></category><category><![CDATA[Remotion]]></category><category><![CDATA[AI-агенты]]></category><category><![CDATA[Skills]]></category><category><![CDATA[React для видео]]></category><category><![CDATA[анимация кодом]]></category><category><![CDATA[промо-ролики для стартапов]]></category><category><![CDATA[developer tools]]></category><category><![CDATA[генерация видео]]></category><category><![CDATA[product marketing]]></category>
    </item>
  

  

  

	
  

  

  

    

  

  

	
  

  
    <item>
      <title><![CDATA[[Перевод] Claude Code: практический гайд по настройке, автоматизации и работе с контекстом]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/987094/</guid>
      <link>https://habr.com/ru/articles/987094/?utm_campaign=987094&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/e99/8ae/ea0/e998aeea07fcadefa017400fea28bc88.png" /><p>Команда<a href="https://t.me/+LwYNQ7ZrO6hiZThi" rel="noopener noreferrer nofollow"> AI for Devs </a>подготовила перевод подробного гайда по Claude Code — от skills и хуков до MCP, субагентов и плагинов. Автор делится реальным сетапом после месяцев ежедневной работы и показывает, как выжать максимум из Claude Code, не убив контекст и производительность.</p> <a href="https://habr.com/ru/articles/987094/?utm_campaign=987094&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Mon, 26 Jan 2026 07:31:01 GMT</pubDate>
      <dc:creator><![CDATA[python_leader]]></dc:creator>
      <category><![CDATA[Программирование]]></category><category><![CDATA[Машинное обучение]]></category><category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Будущее здесь]]></category>
      <category>claude code</category><category>workflow</category><category>mcp</category><category>автоматизация</category><category>плагины</category><category>хуки</category><category>контекстное окно</category>
    </item>
  

  

    

  

  

	
  

  
    <item>
      <title><![CDATA[[Перевод] Как создавать AI-агентов на практике: полное руководство по Claude Agent SDK]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/984160/</guid>
      <link>https://habr.com/ru/articles/984160/?utm_campaign=984160&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/302/705/d3e/302705d3ea6d9d9b08b834a27e958947.png" /><p>Команда<a href="https://t.me/+ixQo0ulZ1kI2NTdi" rel="noopener noreferrer nofollow"> AI for Devs</a> подготовила перевод подробного практического гайда по Claude Agent SDK. В статье разбирается, как устроены современные AI-агенты на практике: управление контекстом, инструменты, сабагенты, разрешения, структурированный вывод и продакшен-паттерны.</p> <a href="https://habr.com/ru/articles/984160/?utm_campaign=984160&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Mon, 12 Jan 2026 07:31:04 GMT</pubDate>
      <dc:creator><![CDATA[python_leader]]></dc:creator>
      <category><![CDATA[Программирование]]></category><category><![CDATA[Машинное обучение]]></category><category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Будущее здесь]]></category>
      <category>агенты</category><category>автоматизация</category><category>claude</category><category>typescript</category><category>mcp</category><category>code</category>
    </item>
  

  

    

  

  

	
  

  
    <item>
      <title><![CDATA[[Перевод] Claude Opus 4.5 и конец привычной разработки]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/984026/</guid>
      <link>https://habr.com/ru/articles/984026/?utm_campaign=984026&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/40d/894/3df/40d8943df6afdf102912efed4e401781.png" /><p>Команда <a href="https://t.me/+-DJfHr3jN7Y1NDhi" rel="noopener noreferrer nofollow">AI for Devs </a>подготовила перевод статьи о том, почему Claude Opus 4.5 стал переломным моментом в ИИ-разработке. Автор на реальных проектах показывает, как ИИ-агенты уже сегодня способны собирать полноценные приложения — от UI до бэкенда — за считанные часы, и рассуждает о том, зачем человеку вообще читать код в мире AI-first разработки.</p> <a href="https://habr.com/ru/articles/984026/?utm_campaign=984026&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Sun, 11 Jan 2026 12:00:06 GMT</pubDate>
      <dc:creator><![CDATA[python_leader]]></dc:creator>
      <category><![CDATA[Программирование]]></category><category><![CDATA[Машинное обучение]]></category><category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Будущее здесь]]></category>
      <category>автоматизация</category><category>разработка</category><category>будущее</category><category>программирование</category><category>claude</category><category>opus</category><category>сезон ии в разработке</category>
    </item>
  

  

    

  

  

	
  

  
    <item>
      <title><![CDATA[[Перевод] От текста к токенам: как работают пайплайны токенизации]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/976356/</guid>
      <link>https://habr.com/ru/articles/976356/?utm_campaign=976356&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/e98/e7a/0b4/e98e7a0b41b79a483af37bbefac592d9.png" /><p>Команда <a href="https://t.me/+YFqMX4I84Xw2ZDdi" rel="noopener noreferrer nofollow">AI for Devs</a> подготовила перевод статьи о том, как поисковые системы превращают обычный текст в токены и почему этот процесс важнее, чем кажется. Разбираем каждый этап: нормализацию, токенизацию, стоп-слова, стемминг и то, как всё это влияет на качество поиска.</p> <a href="https://habr.com/ru/articles/976356/?utm_campaign=976356&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Thu, 25 Dec 2025 06:44:32 GMT</pubDate>
      <dc:creator><![CDATA[python_leader]]></dc:creator>
      <category><![CDATA[Программирование]]></category><category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Машинное обучение]]></category><category><![CDATA[Natural Language Processing]]></category>
      <category>токенизация</category><category>индексирование</category><category>текстовые данные</category><category>llm</category><category>искусственный интеллект</category>
    </item>
  

  

    

  

  

	
  

  
    <item>
      <title><![CDATA[[Перевод] Почему код, сгенерированный ИИ, делает вас плохим программистом]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/978784/</guid>
      <link>https://habr.com/ru/articles/978784/?utm_campaign=978784&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/114/6b7/078/1146b7078221d340e79bf8e7bcc22f07.png" /><p>Команда AI for Devs подготовила перевод резонансной статьи о том, почему использование кода, сгенерированного ИИ, может сделать разработчика слабее, а не продуктивнее. Автор жёстко критикует AI-ассистентов, рассуждает о деградации навыков, зависимости от инструментов и будущем профессии. </p> <a href="https://habr.com/ru/articles/978784/?utm_campaign=978784&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Mon, 22 Dec 2025 06:00:22 GMT</pubDate>
      <dc:creator><![CDATA[python_leader]]></dc:creator>
      <category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Программирование]]></category><category><![CDATA[Машинное обучение]]></category><category><![CDATA[Будущее здесь]]></category>
      <category>ai</category><category>разработчики</category><category>обучение</category><category>навыки</category><category>будущее</category><category>автоматизация</category><category>сезон ии в разработке</category>
    </item>
  

  

    

  

  

	
  

  
    <item>
      <title><![CDATA[[Перевод] Prompt Caching: токены LLM в 10 раз дешевле — но за счёт чего?]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/978498/</guid>
      <link>https://habr.com/ru/articles/978498/?utm_campaign=978498&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/c8f/ffb/268/c8fffb26828503cb9df6f994492f3841.png" /><p>Команда&nbsp;<a href="https://t.me/+OzrBqaH1d1JmMTMy" rel="noopener noreferrer nofollow">AI for Devs</a>&nbsp;подготовила перевод и разбор статьи о Prompt Caching — технологии, которая делает входные токены LLM в разы дешевле и заметно снижает задержки. Внутри — подробное объяснение,&nbsp;<em>что именно </em>кэшируют OpenAI и Anthropic, как KV-кэш связан с attention в трансформерах и почему это не имеет ничего общего с повторным использованием ответов.</p> <a href="https://habr.com/ru/articles/978498/?utm_campaign=978498&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Fri, 19 Dec 2025 11:09:08 GMT</pubDate>
      <dc:creator><![CDATA[python_leader]]></dc:creator>
      <category><![CDATA[Программирование]]></category><category><![CDATA[Машинное обучение]]></category><category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Будущее здесь]]></category><category><![CDATA[Natural Language Processing]]></category>
      <category>prompt caching</category><category>cache</category><category>llm</category><category>transformers</category><category>attention</category><category>inference</category><category>embeddings</category><category>openai</category><category>anthropic</category><category>сезон ии в разработке</category>
    </item>
  

  

    
    <item>
      <title><![CDATA[Вайбкодим с плагином Kilo Code в VS Code и IntelliJ IDEA из России]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/977660/</guid>
      <link>https://habr.com/ru/articles/977660/?utm_campaign=977660&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/08c/df6/500/08cdf650036c30c9cbb61bfa7c3a68d6.png" /><p>В новой статье от команды <a href="https://t.me/+WZ6cNITqUfg1OWMy" rel="noopener noreferrer nofollow">AI for Devs</a> разбираемся, как организовать вайб-кодинг с плагином Kilo Code в VS Code и IntelliJ IDEA из России. Пошагово настраиваем Kilo Code через RouterAI, подключаем Claude, GPT, DeepSeek и другие модели, разбираем роли агента, diff-патчи, правила проекта и нюансы работы с контекстом.</p> <a href="https://habr.com/ru/articles/977660/?utm_campaign=977660&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Wed, 17 Dec 2025 09:34:33 GMT</pubDate>
      <dc:creator><![CDATA[python_leader]]></dc:creator>
      <category><![CDATA[Программирование]]></category><category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Будущее здесь]]></category><category><![CDATA[Текстовые редакторы и IDE]]></category>
      <category><![CDATA[KiloCode]]></category><category><![CDATA[вайбкодинг]]></category><category><![CDATA[VSCode]]></category><category><![CDATA[IntelliJ IDEA]]></category><category><![CDATA[LLM]]></category><category><![CDATA[RouterAI]]></category><category><![CDATA[Claude]]></category><category><![CDATA[GPT]]></category><category><![CDATA[сезон ии в разработке]]></category>
    </item>
  

  

  

	
  

  

  

    

  

  

	
  

  
    <item>
      <title><![CDATA[[Перевод] Как «приватные» VPN-расширения слили переписки 8 миллионов пользователей с ChatGPT и Claude]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/977366/</guid>
      <link>https://habr.com/ru/articles/977366/?utm_campaign=977366&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/fa2/aeb/731/fa2aeb7311a3317192f0933e5d823ac5.png" /><p>Команда <a href="https://t.me/+CE58XEZ1QOdkZjIy" rel="noopener noreferrer nofollow">AI for Devs</a> подготовила перевод резонансного расследования о том, как "приватные" VPN-расширения на самом деле зарабатывают на ваших ИИ-переписках. 8 миллионов пользователей, Featured-бейджи от Google и Microsoft, полный доступ к ChatGPT, Claude и Gemini — и всё это утекает дата-брокерам. История о том, почему обещания безопасности в браузере стоит читать особенно внимательно.</p> <a href="https://habr.com/ru/articles/977366/?utm_campaign=977366&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Tue, 16 Dec 2025 14:38:05 GMT</pubDate>
      <dc:creator><![CDATA[python_leader]]></dc:creator>
      <category><![CDATA[Программирование]]></category><category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Информационная безопасность]]></category><category><![CDATA[Будущее здесь]]></category><category><![CDATA[IT-инфраструктура]]></category>
      <category>браузерные-расширения</category><category>VPN</category><category>приватность</category><category>безопасность</category><category>ИИ</category><category>ChatGPT</category><category>Claude</category><category>дата-брокеры</category><category>сезон ии в разработке</category>
    </item>
  

  

    

  

  

	
  

  
    <item>
      <title><![CDATA[[Перевод] Огромный гайд: продвинутые советы и хитрости для работы с Gemini CLI и другими AI CLI утилитами]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/971074/</guid>
      <link>https://habr.com/ru/articles/971074/?utm_campaign=971074&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/d62/9a6/264/d629a62647d07a1f863b6b43444add6a.png" /><p>Команда <a href="https://t.me/+lBQD_GdiTzNlYWUy" rel="noopener noreferrer nofollow">AI for Devs</a> подготовила перевод большого гайда о скрытых возможностях и продвинутых техниках работы с Gemini CLI. Если для вас терминал — рабочий дом, то этот материал покажет, как превратить Gemini CLI в полноценного ИИ-агента, который автоматизирует рутину, подключается к внешним сервисам и расширяется под любые задачи.</p> <a href="https://habr.com/ru/articles/971074/?utm_campaign=971074&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Tue, 02 Dec 2025 11:30:17 GMT</pubDate>
      <dc:creator><![CDATA[python_leader]]></dc:creator>
      <category><![CDATA[Программирование]]></category><category><![CDATA[Машинное обучение]]></category><category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Будущее здесь]]></category><category><![CDATA[Natural Language Processing]]></category>
      <category>ai</category><category>gemini</category><category>cli</category><category>автоматизация</category><category>разработка</category><category>сезон ии в разработке</category>
    </item>
  

  

    

  

  

	
  

  
    <item>
      <title><![CDATA[[Перевод] 90% кода]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/953444/</guid>
      <link>https://habr.com/ru/articles/953444/?utm_campaign=953444&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/b4b/7ad/bf6/b4b7adbf632b2b4f45f85bdcd0245957.png" /><p>Команда <a href="https://t.me/+iFZdR_nRc6UwNThi" rel="noopener noreferrer nofollow">AI for Devs</a> подготовила перевод статьи о том, как меняется программирование с приходом ИИ. Автор делится опытом: в его проекте уже&nbsp;<strong>90% кода пишется агентами</strong>, но вся ответственность за архитектуру и продакшен остаётся на нём. Это не далёкий прогноз — это уже реальность, просто распределённая неравномерно.</p> <a href="https://habr.com/ru/articles/953444/?utm_campaign=953444&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Mon, 06 Oct 2025 09:31:06 GMT</pubDate>
      <dc:creator><![CDATA[python_leader]]></dc:creator>
      <category><![CDATA[Программирование]]></category><category><![CDATA[Машинное обучение]]></category><category><![CDATA[Natural Language Processing]]></category><category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Будущее здесь]]></category>
      <category>ИИ код</category><category>агенты</category><category>разработка</category><category>архитектура</category><category>SQL</category><category>OpenAPI</category><category>Claude</category><category>Codex</category><category>автоматизация</category>
    </item>
  

  

    

  

  

	
  

  
    <item>
      <title><![CDATA[[Перевод] Почему я не верю в ИИ-агентов в 2025 году, несмотря на то, что сам их разрабатываю]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/950072/</guid>
      <link>https://habr.com/ru/articles/950072/?utm_campaign=950072&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/5e9/828/a53/5e9828a53178298752b64c5e12646a38.png" /><p>Команда <a href="https://t.me/+qUQya-ihWmhjM2Qy" rel="noopener noreferrer nofollow">AI for Devs</a> перевела статью, в которой автор делится прогнозами о будущем ИИ-агентов в 2025 году. Его выводы: несмотря на шумиху, «автономные агенты» столкнутся с экономическими и техническими барьерами. Почему текущий подход к архитектуре агентов не сработает и какие методы действительно приносят результат — читайте в статье.</p> <a href="https://habr.com/ru/articles/950072/?utm_campaign=950072&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Wed, 24 Sep 2025 14:30:46 GMT</pubDate>
      <dc:creator><![CDATA[python_leader]]></dc:creator>
      <category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Машинное обучение]]></category><category><![CDATA[Natural Language Processing]]></category><category><![CDATA[Исследования и прогнозы в IT]]></category><category><![CDATA[Программирование]]></category>
      <category>AI агенты</category><category>автономия</category><category>производственные системы</category><category>экономика</category><category>надежность</category><category>интеграция</category><category>инженерия</category><category>ит технологии</category><category>инструменты</category><category>ошибки</category>
    </item>
  

  

    
    <item>
      <title><![CDATA[Поздно пить Боржоми? Stack Overflow пробует в AI]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/948838/</guid>
      <link>https://habr.com/ru/articles/948838/?utm_campaign=948838&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/a43/dda/59b/a43dda59b30a86b6dfe37d274214f93b.png" /><p>Команда <a href="https://t.me/+CsjmSSnnpyo5YjRi" rel="noopener noreferrer nofollow">AI for Devs</a> решила написать эту статью после выхода очередного продукта от Stack Overflow, в чьём имени красуется «AI». Когда-то платформа запрещала любой ИИ-контент, потом осторожно тестировала инструменты вроде OverflowAI и Question Assistant, а теперь явно строит стратегию вокруг искусственного интеллекта. Насколько это здорово для сообщества?</p> <a href="https://habr.com/ru/articles/948838/?utm_campaign=948838&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Mon, 22 Sep 2025 07:43:40 GMT</pubDate>
      <dc:creator><![CDATA[python_leader]]></dc:creator>
      <category><![CDATA[Программирование]]></category><category><![CDATA[Будущее здесь]]></category><category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Исследования и прогнозы в IT]]></category>
      <category><![CDATA[stackoverflow]]></category><category><![CDATA[ai]]></category><category><![CDATA[genai]]></category><category><![CDATA[chatpgt]]></category><category><![CDATA[llm]]></category>
    </item>
  

  

  

	
  

  

  

      

      

      

    
  </channel>
</rss>
