<?xml version="1.0" encoding="UTF-8"?>

<rss version="2.0" xmlns:dc="http://purl.org/dc/elements/1.1/" >

  <channel>
    <title><![CDATA[Статьи]]></title>
    <link>https://habr.com/ru/users/datasecrets/publications/articles/</link>
    <description><![CDATA[Хабр: статьи пользователя datasecrets]]></description>
    <language>ru</language>
    <managingEditor>editor@habr.com</managingEditor>
    <generator>habr.com</generator>
    <pubDate>Sat, 02 May 2026 05:15:11 GMT</pubDate>
    
    
      <image>
        <link>https://habr.com/ru/</link>
        <url>https://habrastorage.org/webt/ym/el/wk/ymelwk3zy1gawz4nkejl_-ammtc.png</url>
        <title>Хабр</title>
      </image>
    

    
      
        
    
    <item>
      <title><![CDATA[Подводим итоги 12 дней адвент-календаря OpenAI: полный список релизов]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/868522/</guid>
      <link>https://habr.com/ru/articles/868522/?utm_campaign=868522&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/b90/9f2/2af/b909f22afb649312477741bb5642910a.png" /><p>В начале декабря OpenAI объявила, что в течение 12 рабочих дней стартап будет ежедневно анонсировать что-то новое. Это своеобразный рождественский адвент-календарь: каждый день с 5 декабря для нас в одно и то же время проводили онлайн-стримы, на которых открывали новые фичи для разработчиков, интеграции и модели. Сегодня прошел последний, финальный стрим, на котором показали o3 – самую мощную в мире модель для глубоких рассуждений. Но куда делась o2? Ее что, просто пропустили? А o3 – это уже AGI? И что еще интересного показали за 12 дней? Ниже отвечаем на эти вопросы и раскладываем двенадцать релизов OpenAI по дням со всеми подробностями. </p><p></p> <a href="https://habr.com/ru/articles/868522/?utm_campaign=868522&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Fri, 20 Dec 2024 18:28:01 GMT</pubDate>
      <dc:creator><![CDATA[DataSecrets]]></dc:creator>
      <category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Машинное обучение]]></category>
      <category><![CDATA[openai]]></category><category><![CDATA[o1]]></category><category><![CDATA[искусственный интеллект]]></category><category><![CDATA[agi]]></category><category><![CDATA[машинное+обучение]]></category><category><![CDATA[api]]></category>
    </item>
  

  

  

	
  

  

  

    
    <item>
      <title><![CDATA[История YOLO – самой известной архитектуры компьютерного зрения]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/865834/</guid>
      <link>https://habr.com/ru/articles/865834/?utm_campaign=865834&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/4d8/448/fbc/4d8448fbccd6dd373b60c971fa643e00.jpeg" /><p>YOLO расшифровывается как You Only Look Once. Это широко известная архитектура компьютерного зрения, которая знаменита в том числе своим огромным количеством версий: первая из них вышла в 2016 году и решала только задачу детекции объектов на изображении, а последняя –&nbsp;одиннадцатая – появилась в сентябре этого года и уже представляет из себя целую фундаментальную модель, которую можно использовать для классификации, трекинга объектов на видео, задач pose estimation и тд. Все это –&nbsp;<strong>в реальном времени</strong>. </p><p>Да, за 8 лет своего существования <strong>YOLO стала своеобразным трансформером во вселенной компьютерного зрения</strong>: ее любят и используют повсеместно. </p><p>Эта статья –&nbsp;полноценная техно-история YOLO. Мы расскажем, что представляет из себя задача детекции, как работала самая первая YOLO и как ее дорабатывали во всех последующих версиях. </p><p></p> <a href="https://habr.com/ru/articles/865834/?utm_campaign=865834&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Wed, 11 Dec 2024 16:28:51 GMT</pubDate>
      <dc:creator><![CDATA[DataSecrets]]></dc:creator>
      <category><![CDATA[Машинное обучение]]></category><category><![CDATA[Искусственный интеллект]]></category>
      <category><![CDATA[компьютерное зрение]]></category><category><![CDATA[yolo]]></category><category><![CDATA[архитектура]]></category><category><![CDATA[машинное+обучение]]></category><category><![CDATA[глубокое обучение]]></category><category><![CDATA[нейросети]]></category><category><![CDATA[computer vision]]></category><category><![CDATA[детекция]]></category>
    </item>
  

  

  

	
  

  

  

    
    <item>
      <title><![CDATA[Что, если не трансформеры: какие альтернативы главной архитектуре нейросетей у нас есть в 2024 году]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/859478/</guid>
      <link>https://habr.com/ru/articles/859478/?utm_campaign=859478&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/37b/40e/6c1/37b40e6c1c5a8413dfdfc2e2ecdac035.jpeg" /><p>Трансформеры сегодня – золотой стандарт нейросетей, и, особенно, больших языковых моделей. Они стали первой по-настоящему масштабируемой архитектурой, то есть с ними впервые стало возможно гарантировано наращивать перформанс моделей за счет увеличения количества данных и параметров, не упираясь в потолок производительности железа или запоминающей способности нейросети. </p><p>Именно трансформер изменил индустрию искусственного интеллекта и сделал ее такой мощной, какой мы видим ее сейчас. До 2017 года, пока исследователи из Google Brain не изобрели эту архитектуру, краеугольным камнем ИИ-индустрии был поиск подходящего строения модели. Теперь же перед учеными стоят, в основном, другие задачи, а вот об архитектуре компании и ресерчеры почти не думают: ведь есть трансформер! </p><p>Вот так говорит об этой архитектуре знаменитый Андрей Карпаты –&nbsp;бывший ML-директор Tesla, сооснователь и бывший главный ученый OpenAI: "<em>Трансформер - не просто очередной метод, а подход, который полностью изменил наш взгляд на ИИ. Нам очень повезло, что мы наткнулись именно на него в огромном пространстве алгоритмов. Я верю, что трансформер лучше человеческого мозга во многих отношениях.</em>"</p><p>Однако, несмотря на все свои достоинства, у трансформера есть и недостатки. Поэтому некоторые группы исследователей продолжают искать лучший алгоритм, который мог бы превзойти трансформер или хотя бы достичь его уровня. В этой статье мы разберемся, почему эта задача так нетривиальна, что именно в трансформере оставляет желать лучшего, и какие архитектуры в 2024 году могут посоревноваться с ним за звание серебряной пули глубокого обучения. </p><p></p> <a href="https://habr.com/ru/articles/859478/?utm_campaign=859478&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Mon, 18 Nov 2024 13:23:51 GMT</pubDate>
      <dc:creator><![CDATA[DataSecrets]]></dc:creator>
      <category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Машинное обучение]]></category>
      <category><![CDATA[искусственный интеллект]]></category><category><![CDATA[машинное+обучение]]></category><category><![CDATA[трансформеры]]></category><category><![CDATA[llm]]></category><category><![CDATA[глубокое обучение]]></category>
    </item>
  

  

  

	
  

  

  

    
    <item>
      <title><![CDATA[Как выигрывать Kaggle соревнования: LLM-анализ выигрышных решений]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/847462/</guid>
      <link>https://habr.com/ru/articles/847462/?utm_campaign=847462&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/d5d/b3d/c7b/d5db3dc7b254a880e1b5b8f8e63134cf.png" /><p>Примерно год назад энтузиаст с Kaggle по имени Дарек Клечек провел интересный эксперимент: он собрал все доступные описания (writeups) побеждавших на Kaggle за последние годы решений, пропустил их через LLM и свел по ним <a href="https://www.kaggle.com/code/thedrcat/how-to-win-a-kaggle-competition" rel="noopener noreferrer nofollow">общую статистику</a> о том, какие механики и алгоритмы оказываются "наиболее победными". Отчет у парня получился достаточно объемный, интересный, а местами и  непредсказуемый. Эта статья – свободный авторский пересказ его эссе. И пусть прологом к ней послужит цитата Дарека: </p><p></p> <a href="https://habr.com/ru/articles/847462/?utm_campaign=847462&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Wed, 02 Oct 2024 10:48:08 GMT</pubDate>
      <dc:creator><![CDATA[DataSecrets]]></dc:creator>
      <category><![CDATA[Машинное обучение]]></category><category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Хакатоны]]></category>
      <category><![CDATA[kaggle]]></category><category><![CDATA[ml]]></category><category><![CDATA[competition]]></category><category><![CDATA[искусственный интеллект]]></category><category><![CDATA[машинное+обучение]]></category><category><![CDATA[llm]]></category><category><![CDATA[статистика]]></category>
    </item>
  

  

  

	
  

  

  

    
    <item>
      <title><![CDATA[GPT-4o: больше мощи, но меньше цены. Почему так и что на самом деле умеет модель?]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/814161/</guid>
      <link>https://habr.com/ru/articles/814161/?utm_campaign=814161&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/22a/708/a25/22a708a2548f724cec5d278ac561bfab.jpg" /><p>Вчера в 20:00&nbsp;по&nbsp;московскому времени OpenAI в&nbsp;прямом эфире <a href="https://openai.com/index/hello-gpt-4o/" rel="noopener noreferrer nofollow">показали</a> свою революционную модель GPT-4o. Общаться с&nbsp;ней можно <strong>голосом и даже по&nbsp;видео</strong>, при&nbsp;этом вообще без&nbsp;задержек. А&nbsp;еще GPT-4o понимает интонации, может шутить, отвечать с (почти) человеческой интонацией, переводить в&nbsp;режиме реального времени и даже <strong>петь</strong>.</p><p>При&nbsp;всем этом модель дешевле, чем ее предшественница, GPT-4&nbsp;Turbo, во&nbsp;всем уступающая GPT-4o. Как&nbsp;такое может&nbsp;быть, что&nbsp;прямо сейчас умеет модель и почему GPT-4o на&nbsp;самом деле первая <strong>настоящая</strong> мультимодальная разработка OpenAI? Со всем этим разберемся в&nbsp;статье, а&nbsp;еще расскажем про&nbsp;все‑все самые интересные пасхалки Альтмана...</p><p></p> <a href="https://habr.com/ru/articles/814161/?utm_campaign=814161&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Tue, 14 May 2024 09:19:44 GMT</pubDate>
      <dc:creator><![CDATA[DataSecrets]]></dc:creator>
      <category><![CDATA[Big Data]]></category><category><![CDATA[Машинное обучение]]></category><category><![CDATA[Искусственный интеллект]]></category>
      <category><![CDATA[openai]]></category><category><![CDATA[gpt]]></category><category><![CDATA[нейросеть]]></category>
    </item>
  

  

  

	
  

  

  

    
    <item>
      <title><![CDATA[На практике пробуем KAN – принципиально новую архитектуру нейросетей]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/812147/</guid>
      <link>https://habr.com/ru/articles/812147/?utm_campaign=812147&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/0df/035/99e/0df03599e984071a838e5b2957c662b8.png" /><p>На днях ученые из MIT показали альтернативу многослойному перцептрону (MLP). MLP с самого момента изобретения глубокого обучения лежит в основе всех нейросетей, какими мы их знаем сегодня. На его идее в том числе построены большие языковые модели и системы компьютерного зрения. </p><p>Однако теперь все может измениться. В KAN (Kolmogorov-Arnold Networks) исследователи реализовали перемещение функций активации с нейронов на ребра нейросети, и такой подход показал блестящие результаты. </p><p></p> <a href="https://habr.com/ru/articles/812147/?utm_campaign=812147&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Fri, 03 May 2024 15:14:29 GMT</pubDate>
      <dc:creator><![CDATA[DataSecrets]]></dc:creator>
      <category><![CDATA[Искусственный интеллект]]></category><category><![CDATA[Машинное обучение]]></category><category><![CDATA[Python]]></category><category><![CDATA[Big Data]]></category>
      <category><![CDATA[нейросеть]]></category><category><![CDATA[перцептрон]]></category><category><![CDATA[нейронные сети]]></category><category><![CDATA[ml]]></category><category><![CDATA[data science]]></category>
    </item>
  

  

  

	
  

  

  

    
    <item>
      <title><![CDATA[RecTools – OpenSource библиотека для рекомендательных систем]]></title>
      <guid isPermaLink="true">https://habr.com/ru/articles/773126/</guid>
      <link>https://habr.com/ru/articles/773126/?utm_campaign=773126&amp;utm_source=habrahabr&amp;utm_medium=rss</link>
      <description><![CDATA[<img src="https://habrastorage.org/getpro/habr/upload_files/1b7/2c3/e52/1b72c3e52e5ec0a878cda42098bac20a.png" /><p>Если вы когда-либо работали с рекомендательными системами, то знаете, что все необходимые и самые часто используемые инструменты разбросаны по разным библиотекам. Более того, каждая из таких библиотек имеет много уникальных особенностей, к которым нужно приноровиться (например, разные форматы данных на вход). </p><p>Выходит, что чтобы просто протестировать на своей задаче базовый пул подходов, нужно немало помучиться. Получается довольно грустно. </p><p>К такому же выводу, видимо, пришли ребята из МТС – и выкатили в опенсурс RecTools. Это библиотека, где собраны самые часто используемые модели для рекомендательных систем. Также с её помощью можно максимально просто и быстро оценивать необходимые метрики.&nbsp; </p><p>Давайте же посмотрим, что RecTools умеет, и как с этим работать. </p><p></p> <a href="https://habr.com/ru/articles/773126/?utm_campaign=773126&amp;utm_source=habrahabr&amp;utm_medium=rss#habracut">Читать далее</a>]]></description>
      
      <pubDate>Fri, 10 Nov 2023 11:07:30 GMT</pubDate>
      <dc:creator><![CDATA[DataSecrets]]></dc:creator>
      <category><![CDATA[Python]]></category><category><![CDATA[Big Data]]></category><category><![CDATA[Машинное обучение]]></category><category><![CDATA[Искусственный интеллект]]></category>
      <category><![CDATA[Рекомендации]]></category><category><![CDATA[коллаборативная фильтрация]]></category><category><![CDATA[python]]></category><category><![CDATA[RecTools]]></category>
    </item>
  

  

  

	
  

  

  

      

      

      

    
  </channel>
</rss>
