<?xml version="1.0" encoding="UTF-8"?>

<rss version="2.0" xmlns:dc="http://purl.org/dc/elements/1.1/" >

  <channel>
    <title><![CDATA[Комментарии к публикации «Тестируем LLM для русского языка: Какие модели справятся с вашими задачами?»]]></title>
    <link>https://habr.com/ru/articles/856436/</link>
    <description><![CDATA[Комментарии к публикации «Тестируем LLM для русского языка: Какие модели справятся с вашими задачами?»]]></description>
    <language>ru</language>
    <managingEditor>editor@habr.com</managingEditor>
    <generator>habr.com</generator>
    <pubDate>Sat, 02 May 2026 00:17:02 GMT</pubDate>
    
    
      <image>
        <link>https://habr.com/ru/</link>
        <url>https://habrastorage.org/webt/ym/el/wk/ymelwk3zy1gawz4nkejl_-ammtc.png</url>
        <title>Хабр</title>
      </image>
    

    
      

      
        
  
    <item>
      <title>03.12.2025 15:47:22 pvv_iss</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_29200236</guid>
      <link>https://habr.com/ru/articles/856436/#comment_29200236</link>
      <description><![CDATA[<p>у меня сложилось впечатление, что это аффилированное исследование: "... кукушка хвалит петуха!" <br>Давно пишу Prompt-ы и Экспромпты.<br>в YandexGPT постоянно "вылазят уши ChatGPT"</p>]]></description>
      <pubDate>Wed, 03 Dec 2025 15:47:22 GMT</pubDate>
      <dc:creator><![CDATA[pvv_iss]]></dc:creator>
    </item>
  

  
    <item>
      <title>17.03.2025 13:45:54 kalapanga</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_28050834</guid>
      <link>https://habr.com/ru/articles/856436/#comment_28050834</link>
      <description><![CDATA[<p>Как-то уж не по-русски</p><p></p>]]></description>
      <pubDate>Mon, 17 Mar 2025 13:45:54 GMT</pubDate>
      <dc:creator><![CDATA[kalapanga]]></dc:creator>
    </item>
  

  
    <item>
      <title>17.03.2025 13:44:14 kalapanga</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_28050828</guid>
      <link>https://habr.com/ru/articles/856436/#comment_28050828</link>
      <description><![CDATA[<blockquote><p>Также это позволило протестировать их при затрате малых усилий.  </p></blockquote><p>Какая из моделей генерировала для Вас этот ответ? :)</p>]]></description>
      <pubDate>Mon, 17 Mar 2025 13:44:14 GMT</pubDate>
      <dc:creator><![CDATA[kalapanga]]></dc:creator>
    </item>
  

  
    <item>
      <title>20.11.2024 15:03:33 kvazimoda24</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_27577796</guid>
      <link>https://habr.com/ru/articles/856436/#comment_27577796</link>
      <description><![CDATA[<p>Статья удручает. Я не знаю, что там сейчас есть актуального из свободных моделей, и на сколько серьёзное аппаратное обеспечение необходимо для их запуска. Но по статье выигрывает ЯндексGPT, а это, мягко говоря, очень слабая модель по сравнению с ChatGPT 4o. По крайней мере, на моих задачах, когда мне нужны подсказки по программированию.</p>]]></description>
      <pubDate>Wed, 20 Nov 2024 15:03:33 GMT</pubDate>
      <dc:creator><![CDATA[kvazimoda24]]></dc:creator>
    </item>
  

  
    <item>
      <title>12.11.2024 11:05:35 Tehnologika</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_27544842</guid>
      <link>https://habr.com/ru/articles/856436/#comment_27544842</link>
      <description><![CDATA[<p>Спасибо за интересное замечание! Вы правы, подход с итеративным чтением и исправлением ответов особенно полезен для малых моделей и может значительно улучшить качество их работы. </p><p>Но это больше связано с оптимизацией промта и настройкой самой последовательности взаимодействия с моделью. А на текущем этапе тестирования мы сосредоточились на базовых возможностях моделей без дополнительной промт-оптимизации, чтобы оценить их "чистую" производительность.</p>]]></description>
      <pubDate>Tue, 12 Nov 2024 11:05:35 GMT</pubDate>
      <dc:creator><![CDATA[Tehnologika]]></dc:creator>
    </item>
  

  
    <item>
      <title>12.11.2024 11:04:58 Tehnologika</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_27544838</guid>
      <link>https://habr.com/ru/articles/856436/#comment_27544838</link>
      <description><![CDATA[<p>Вероятно, речь идёт о боте Word AI в Telegram, который анализирует текст для проверки грамматики, пунктуации и, возможно, стилистики. Но да, точная информация о том, какие технологии и модели используются в боте Word AI в Telegram, не представлена в открытых источниках.</p>]]></description>
      <pubDate>Tue, 12 Nov 2024 11:04:58 GMT</pubDate>
      <dc:creator><![CDATA[Tehnologika]]></dc:creator>
    </item>
  

  
    <item>
      <title>12.11.2024 11:04:26 Tehnologika</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_27544834</guid>
      <link>https://habr.com/ru/articles/856436/#comment_27544834</link>
      <description><![CDATA[<p>Тут проблема скорее в том, что рисерч проводился в июле этого года, а статью удалось выпустить только сейчас. Более новые версии Сайги – это Saiga Mistral NeMo 12B, которая вышла 2.11.2024, т.е. после рисерча. И Saiga Gemma 2 9B, которая вышла 27.06.2024, что немного раньше. </p><p>Но мы взяли наиболее популярные версии Сайги на тот момент. Популярность оценивали по количеству скачиваний на HuggingFace. Возможно, это не совсем корректно, так как у старых версий может быть больше скачиваний, чем у более свежих версий. Тем не менее выбрали то, что более "на слуху", а Saiga Gemma 2 9B на тот момент пока не была таковой.</p>]]></description>
      <pubDate>Tue, 12 Nov 2024 11:04:26 GMT</pubDate>
      <dc:creator><![CDATA[Tehnologika]]></dc:creator>
    </item>
  

  
    <item>
      <title>12.11.2024 11:02:56 Tehnologika</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_27544826</guid>
      <link>https://habr.com/ru/articles/856436/#comment_27544826</link>
      <description><![CDATA[<p>GPT-4o и Claude не подходят для РФ проектов. А целью данного рисерча было найти подходящую модель для проектов для РФ клиентов, данные модели не подходят.</p><p>Mistral NeMo не поднять даже через платный Colab. </p><p>Про Qwen2 не раскопали в рамках ресерча.</p><p>Gemma 2 9B хотели протестировать, но ограничились другими моделями.</p>]]></description>
      <pubDate>Tue, 12 Nov 2024 11:02:56 GMT</pubDate>
      <dc:creator><![CDATA[Tehnologika]]></dc:creator>
    </item>
  

  
    <item>
      <title>12.11.2024 11:01:55 Tehnologika</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_27544816</guid>
      <link>https://habr.com/ru/articles/856436/#comment_27544816</link>
      <description><![CDATA[<p>Мы планируем тестировать дальше и собираемся взять gemma2-saiga.</p>]]></description>
      <pubDate>Tue, 12 Nov 2024 11:01:55 GMT</pubDate>
      <dc:creator><![CDATA[Tehnologika]]></dc:creator>
    </item>
  

  
    <item>
      <title>12.11.2024 07:27:06 ArtyomO</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_27543776</guid>
      <link>https://habr.com/ru/articles/856436/#comment_27543776</link>
      <description><![CDATA[<p>Похоже батчем направили LLM ответить на комментарии. Размеренно каждую минуту. Мой комментарий написан человеком, а отвечать LLM это уже какое-то не уважение к пользователям…</p>]]></description>
      <pubDate>Tue, 12 Nov 2024 07:27:06 GMT</pubDate>
      <dc:creator><![CDATA[ArtyomO]]></dc:creator>
    </item>
  

  
    <item>
      <title>12.11.2024 06:23:21 Tehnologika</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_27543500</guid>
      <link>https://habr.com/ru/articles/856436/#comment_27543500</link>
      <description><![CDATA[<p>С одной стороны, вы комментария правы – сравнивать модели сильно разных размеров некорректно. С другой стороны, одной из целей рисерча было понять, каким минимальным количеством параметров мы можем обойтись, чтобы решить наши задачи. Именно поэтому мы сравнивли самые разные модели. </p><p>По поводу моделей, у которых "изначально русский язык не заявлен" - мы не использовали чисто англоязычные модели или модели, заточенные под какой-то конкретный язык (не русский). Часть моделей – мультиязыковые. И это тоже было сделано намерено, чтобы понять, могут ли такие модели решить наши задачи, или нам нужны более узконаправленные решения.</p>]]></description>
      <pubDate>Tue, 12 Nov 2024 06:23:21 GMT</pubDate>
      <dc:creator><![CDATA[Tehnologika]]></dc:creator>
    </item>
  

  
    <item>
      <title>12.11.2024 06:20:56 Tehnologika</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_27543492</guid>
      <link>https://habr.com/ru/articles/856436/#comment_27543492</link>
      <description><![CDATA[<p>Так как главное целью рисерча было найти подходящую модель для проектов для РФ клиентов, данные модели не подходят.</p>]]></description>
      <pubDate>Tue, 12 Nov 2024 06:20:56 GMT</pubDate>
      <dc:creator><![CDATA[Tehnologika]]></dc:creator>
    </item>
  

  
    <item>
      <title>12.11.2024 06:18:42 Tehnologika</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_27543478</guid>
      <link>https://habr.com/ru/articles/856436/#comment_27543478</link>
      <description><![CDATA[<p>В нашем исследовании мы действительно стремились охватить как платные решения, доступные для пользователей в России, так и локальные модели, которые можно развернуть на собственных устройствах. При этом стоимость платных решений не принималась во внимание.</p><p>Такой подход позволил сравнить эффективность моделей, ориентированных на бизнес-применение (Gigachat и Yandex GPT), с более доступными локальными моделями, работающими на устройствах, подобных MacBook M1. </p><p></p>]]></description>
      <pubDate>Tue, 12 Nov 2024 06:18:42 GMT</pubDate>
      <dc:creator><![CDATA[Tehnologika]]></dc:creator>
    </item>
  

  
    <item>
      <title>12.11.2024 06:16:46 Tehnologika</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_27543476</guid>
      <link>https://habr.com/ru/articles/856436/#comment_27543476</link>
      <description><![CDATA[<p>Спасибо за внимание к статье!</p><blockquote><p>Я не до конца понял про среду тестирования, про то как оценивалась производительность моделей. Ведь гигачат и яндекс-гпт закрытые модели, их тестировали при помощи апи, правильно?</p></blockquote><p>Верно, гигачат и YandexGPT – закрытые модели. Их тестирование проводилось через доступные бесплатные демонстрационные версии, предоставленные самими разработчиками. Это позволило нам оценить возможности моделей в условиях, близких к реальным, хотя и с возможными ограничениями на количество запросов или время отклика.</p><p>Также это позволило протестировать их при затрате малых усилий. </p><blockquote><p>И ещё очень интересно, как эти модели оцениваются в сравнении с GPT-4o, который тоже очень хорошо знает русский.</p></blockquote><p>Некоторые ответы моделей оценивались именно «человеческим взглядом», особенно когда нужно было оценить стиль текста, ясность изложения и креативность. Но для задач извлечения данных из больших текстов, когда необходимо было обработать большой кусок данных, ответы сравнивались с ответами GPT-4o, которые мы принимали за эталон. Потому что действительно, качество ответов GPT-4o очень высокое. </p><p>&nbsp;Почему же тогда GPT-4o не принимала участия в тестировании? Потому что основной задачей исследования было найти модель, которую можно использовать для русскоязычных проектов, в которых, к сожалению, невозможно использовать модели OpenAI и многие другие из-за геополитических ограничений.</p><p>   </p><p></p>]]></description>
      <pubDate>Tue, 12 Nov 2024 06:16:46 GMT</pubDate>
      <dc:creator><![CDATA[Tehnologika]]></dc:creator>
    </item>
  

  
    <item>
      <title>08.11.2024 09:20:18 EriIaz</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_27529626</guid>
      <link>https://habr.com/ru/articles/856436/#comment_27529626</link>
      <description><![CDATA[<p>Проблема представленных версий Сайги не в том, что они "кустарные", к компетенции Ильи Гусева лично у меня вопросов нет никаких. </p><p>Проблемы в том, что это ОЧЕНЬ старые версии Сайги. На момент их релиза они били то, что предлагал Яндекс и Сбер, но это старые модели. То есть, если хотите тестировать Сайгу, тестируйте актуальную Сайгу, а не бородатую Mistral-7B Lora. Тогда будет честное сравнение. Сейчас Сайга может уступить Яндексу и Сберу, у них качество выросло значительно и появились новые опции моделей, моя претензия в том, что нет смысла тестировать старьё, значительно уступающее актуальным моделям за счёт новой базы тюна и его методологии, что подтверждается самим автором. </p><p>Это всё равно как если бы OpenAI была здесь представлена какой-нибудь GPT-3.</p><p></p>]]></description>
      <pubDate>Fri, 08 Nov 2024 09:20:18 GMT</pubDate>
      <dc:creator><![CDATA[EriIaz]]></dc:creator>
    </item>
  

  
    <item>
      <title>08.11.2024 09:12:41 EriIaz</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_27529560</guid>
      <link>https://habr.com/ru/articles/856436/#comment_27529560</link>
      <description><![CDATA[<p>Согласен! Тут ещё помимо API, очень странная подборка локальных моделей. Навскидку, что я бы протестировал с открытым весом:</p><p>Google Gemma 2 27B - лучшая локальная модель по владению русским языком из тех, которыми я пользовался. Прямо из коробки, даже без файн-тюнов. Это точно лучше, чем старая Сайга на Мистрале 7B</p><p>Есть ещё C4AI Aya-expance 32B, с ней не сравнивал, она должна быть на сопоставимом уровне с той Геммой, но я не проверял, потому что она уже тяжеловата для моих ресурсов. Прошлая модель от этих разработчиков до выхода Геммы была лучшей, а это многоязычный файн-тюн от них же.</p><p>Saiga Mistral Nemo 12B, причем уже есть вторая версия. На данный момент это сильнейший тюн от Ильи Гусева, по тестам самого уважаемого авгура. Вроде был ещё его тюн Gemma 2 9B, можно было тестировать его. Или первую версию Сайги-Немо, но зачем сравнивать API со бородатым тюном третьей Ламы 8B? И тем более Mistral 7B Lora! Она же устарела в хлам, вы бы ещё ruGPT-2 сюда приплели. Почему так, не понятно))</p><p>И вообще нет Вихря. Никакого. А зря, у них тюны примерно на уровне Сайги - иногда чуть лучше, иногда чуть хуже, в зависимости от версии, здоровая конкуренция, короче.</p>]]></description>
      <pubDate>Fri, 08 Nov 2024 09:12:41 GMT</pubDate>
      <dc:creator><![CDATA[EriIaz]]></dc:creator>
    </item>
  

  
    <item>
      <title>07.11.2024 19:14:40 dapi</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_27527584</guid>
      <link>https://habr.com/ru/articles/856436/#comment_27527584</link>
      <description><![CDATA[<p>Спасибо за обзор!</p>]]></description>
      <pubDate>Thu, 07 Nov 2024 19:14:40 GMT</pubDate>
      <dc:creator><![CDATA[dapi]]></dc:creator>
    </item>
  

  
    <item>
      <title>07.11.2024 16:19:31 Theio</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_27526966</guid>
      <link>https://habr.com/ru/articles/856436/#comment_27526966</link>
      <description><![CDATA[<p>Странный выбор моделей, ни t-lite, ни vikhr, зато сайга годичной давности... </p>]]></description>
      <pubDate>Thu, 07 Nov 2024 16:19:31 GMT</pubDate>
      <dc:creator><![CDATA[Theio]]></dc:creator>
    </item>
  

  
    <item>
      <title>07.11.2024 11:56:37 Zoolander</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_27525584</guid>
      <link>https://habr.com/ru/articles/856436/#comment_27525584</link>
      <description><![CDATA[<p>У малых нейронок можно повысить качество, если заставлять их читать собственную выдачу и прорабатывать ошибки в предыдущем  ответе. </p><p> У больших это тоже работает. Но у малых это особенно заметно, а ещё у малых можно дёшево повторять  эти этапы работы над ошибками.</p><p></p>]]></description>
      <pubDate>Thu, 07 Nov 2024 11:56:37 GMT</pubDate>
      <dc:creator><![CDATA[Zoolander]]></dc:creator>
    </item>
  

  
    <item>
      <title>07.11.2024 09:46:57 akdengi</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_27524822</guid>
      <link>https://habr.com/ru/articles/856436/#comment_27524822</link>
      <description><![CDATA[<p>Илья Гусев неплохо натаскивает модели на русский, но вот та же saiga лучше работает на основе gemma2 (я ее в ollama добавил в модели, поэтому можно попробовать), так как llama3.1 все-таки изначально не про русский язык и NLP.  Надо будет на диктантах для третьего класса сравнить :)</p><p></p>]]></description>
      <pubDate>Thu, 07 Nov 2024 09:46:57 GMT</pubDate>
      <dc:creator><![CDATA[akdengi]]></dc:creator>
    </item>
  

  
    <item>
      <title>07.11.2024 05:35:13 liquiddeath13</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_27523522</guid>
      <link>https://habr.com/ru/articles/856436/#comment_27523522</link>
      <description><![CDATA[<p>Интересно, какой используется у word-ai. У них бот в телеге, тоже проверяют как-то грамматику и не только</p><p></p>]]></description>
      <pubDate>Thu, 07 Nov 2024 05:35:13 GMT</pubDate>
      <dc:creator><![CDATA[liquiddeath13]]></dc:creator>
    </item>
  

  
    <item>
      <title>07.11.2024 05:34:55 syrupsweety</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_27523520</guid>
      <link>https://habr.com/ru/articles/856436/#comment_27523520</link>
      <description><![CDATA[<p>Подборка моделей заставляет взгрустнуть. В выборке из доступных по API не представлены самые передовые модели: GPT-4o и Claude. То же самое можно сказать и про локальные модели, из которых отсутствуют вполне подходящие сюда Qwen2.5 14B, Gemma 2 9B, Mistral NeMo, зато присутствуют кустарные finetune модели saiga.</p><p>Надеялся прочитать свежий анализ работы языковых моделей с русским языком, коего в интернете критически мало, вместо этого получил напоминание, что GigaChat существует. 2/10 за попытку.</p>]]></description>
      <pubDate>Thu, 07 Nov 2024 05:34:55 GMT</pubDate>
      <dc:creator><![CDATA[syrupsweety]]></dc:creator>
    </item>
  

  
    <item>
      <title>07.11.2024 05:34:53 burstmode</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_27523516</guid>
      <link>https://habr.com/ru/articles/856436/#comment_27523516</link>
      <description><![CDATA[<p>Реклама нейронок Яндекса и Сбера или чё? Вы их с нормальными моделями сравните, которые хотя бы есть в первой десятке в топе на LMArena</p>]]></description>
      <pubDate>Thu, 07 Nov 2024 05:34:53 GMT</pubDate>
      <dc:creator><![CDATA[burstmode]]></dc:creator>
    </item>
  

  
    <item>
      <title>07.11.2024 05:34:52 sanneo22</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_27523514</guid>
      <link>https://habr.com/ru/articles/856436/#comment_27523514</link>
      <description><![CDATA[<p>Gemma2  Неплохо говорит по русски, даже 2B версия. Использую в HomeAssistant в качестве Assistant LLM, со своими задачами справляется, даже анекдоты рассказывает)) Однако как модель справится с тестами из статьи я не берусь сказать.</p>]]></description>
      <pubDate>Thu, 07 Nov 2024 05:34:52 GMT</pubDate>
      <dc:creator><![CDATA[sanneo22]]></dc:creator>
    </item>
  

  
    <item>
      <title>07.11.2024 00:47:39 AlexBogatyrev</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_27523134</guid>
      <link>https://habr.com/ru/articles/856436/#comment_27523134</link>
      <description><![CDATA[<p>У Вас какой-то странный выбор вариантов моделей. И непонятно какой Гигачат использовался, а их 4 исполнения - стандартный, Плюс, Про и Макс. Судя по результатам Вы использовали обычный (7-8 миллиардный) </p><p>Версия Макс как минимум в 10 раз больше по параметрам, и дает совсем другого качества результаты. </p>]]></description>
      <pubDate>Thu, 07 Nov 2024 00:47:39 GMT</pubDate>
      <dc:creator><![CDATA[AlexBogatyrev]]></dc:creator>
    </item>
  

  
    <item>
      <title>06.11.2024 17:39:12 akdengi</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_27522088</guid>
      <link>https://habr.com/ru/articles/856436/#comment_27522088</link>
      <description><![CDATA[<p>Сравнивать мини-модели на 8b, в которых  у исходных моделей изначально русский и не заявлен и дотренированные энтузиастом и модели на сотни миллиардов параметров некорректно. Причем непонятно с какими версиями того же GigaChat сравнивали - light или max? То же Яндексу - у них есть light и pro.</p><p>Если уж сравнивать, то с 70B и выше моделями и с теми, где есть русский по дефолту, то й же aya- expance или хотя бы gemma2 на 27B где есть NLP и которая русский в разы лучше Mistral и Llama умеет.</p><p></p>]]></description>
      <pubDate>Wed, 06 Nov 2024 17:39:12 GMT</pubDate>
      <dc:creator><![CDATA[akdengi]]></dc:creator>
    </item>
  

  
    <item>
      <title>06.11.2024 16:58:51 ArtyomO</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_27521976</guid>
      <link>https://habr.com/ru/articles/856436/#comment_27521976</link>
      <description><![CDATA[<p>Когда захотели не обидеть отечественных производителей и сравнили недешёвые API Gigachat и Yandex GPT с локальными моделями 7-8B, которые работают даже на MacBook M1 в реальном времени.</p>]]></description>
      <pubDate>Wed, 06 Nov 2024 16:58:51 GMT</pubDate>
      <dc:creator><![CDATA[ArtyomO]]></dc:creator>
    </item>
  

  
    <item>
      <title>06.11.2024 14:39:12 lczero</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_27521320</guid>
      <link>https://habr.com/ru/articles/856436/#comment_27521320</link>
      <description><![CDATA[<p>Где Claude, Gemini, GPT? Чё за отстойные модели в тесте</p>]]></description>
      <pubDate>Wed, 06 Nov 2024 14:39:12 GMT</pubDate>
      <dc:creator><![CDATA[lczero]]></dc:creator>
    </item>
  

  
    <item>
      <title>06.11.2024 10:02:09 CherryPieHSE</title>
      <guid isPermaLink="true">https://habr.com/ru/articles/856436/#comment_27519820</guid>
      <link>https://habr.com/ru/articles/856436/#comment_27519820</link>
      <description><![CDATA[<p>Спасибо за исследование!</p><p>Я не до конца понял про среду тестирования, про то как оценивалась производительность моделей. Ведь гигачат и яндекс-гпт закрытые модели, их тестировали при помощи апи, правильно?</p><p>И ещё очень интересно, как эти модели оцениваются в сравнении с GPT-4o, который тоже очень хорошо знает русский.</p>]]></description>
      <pubDate>Wed, 06 Nov 2024 10:02:09 GMT</pubDate>
      <dc:creator><![CDATA[CherryPieHSE]]></dc:creator>
    </item>
  

      

      

    
  </channel>
</rss>
