<?xml version="1.0" encoding="UTF-8"?>

<rss version="2.0" xmlns:dc="http://purl.org/dc/elements/1.1/" >

  <channel>
    <title><![CDATA[Статьи]]></title>
    <link>https://habr.com/ru/users/tensorprogrammer/publications/articles/</link>
    <description><![CDATA[Хабр: статьи пользователя tensorprogrammer]]></description>
    <language>ru</language>
    <managingEditor>editor@habr.com</managingEditor>
    <generator>habr.com</generator>
    <pubDate>Thu, 23 Apr 2026 19:16:38 GMT</pubDate>
    
    
      <image>
        <link>https://habr.com/ru/</link>
        <url>https://habrastorage.org/webt/ym/el/wk/ymelwk3zy1gawz4nkejl_-ammtc.png</url>
        <title>Хабр</title>
      </image>
    

    
      
        
    
    <item>
      <title><![CDATA[Десять уроков развития аппаратных ускорителей для ИИ: как эволюция TPU привела к созданию TPUv4i]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/892102/</guid>
      <link>https://habr.com/ru/articles/892102/?utm_campaign=892102&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/953/4a3/6ea/9534a36ea2aefcdd5a8b09fdf0a13c19.jpg" /><p>В последние годы стало очевидно, что классические центральные процессоры (CPU) и видеокарты (GPU) уже не всегда поспевают за непрерывным ростом и усложнением нейронных сетей. Вместо бесконечного наращивания «универсального» железа, компании начали разрабатывать и внедрять в своих дата-центрах <strong>Domain-Specific Architecture (DSA)</strong> — аппаратные ускорители, заточенные под конкретные задачи.</p><p><strong>Google TPU (Tensor Processing Unit)</strong> — одно из первых крупных решений такого рода. Начиная с 2015 года (поколение TPUv1), Google успела вывести на рынок несколько поколений TPU для внутренних нужд: TPUv1 и TPUv2/v3, а в 2020 году — новое решение <strong>TPUv4i</strong>. Если первые версии TPU были ориентированы исключительно на ускорение инференса (выполнение уже обученных моделей), то TPUv2 и TPUv3 смогли взять на себя ещё и тренировку крупных нейросетей. Но в дальнейшем выяснилось, что для оптимальной работы дата-центров в масштабах Google рациональнее разделить решения для тренировки и инференса. TPUv4i — это результат учёта многих уроков и ограничений, проявившихся в предыдущих чипах.</p><p>В этом материале разберём, <strong>какие «десять уроков» сформировали подход Google к созданию TPUv4i</strong>, что это за архитектура и какие проблемы дата-центров она решает.</p><p></p> <a href="https://habr.com/ru/articles/892102/?utm_campaign=892102&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Tue, 18 Mar 2025 20:24:41 GMT</pubDate>
      <dc:creator><![CDATA[tensorprogrammer]]></dc:creator>
      <category><![CDATA[Процессоры]]></category><category><![CDATA[Машинное обучение]]></category><category><![CDATA[Искусственный интеллект]]></category>
      <category><![CDATA[ml]]></category><category><![CDATA[pytorch]]></category><category><![CDATA[proceesors]]></category><category><![CDATA[deep learning]]></category><category><![CDATA[inference]]></category>
    </item>
  

  

  

	
  

  

  

      

      

      

    
  </channel>
</rss>
