<?xml version="1.0" encoding="UTF-8"?>

<rss version="2.0" xmlns:dc="http://purl.org/dc/elements/1.1/" >

  <channel>
    <title><![CDATA[Комментарии / Профиль developer7]]></title>
    <link>https://habr.com/ru/users/developer7/comments/</link>
    <description><![CDATA[Хабр: комментарии пользователя developer7]]></description>
    <language>ru</language>
    <managingEditor>editor@habr.com</managingEditor>
    <generator>habr.com</generator>
    <pubDate>Fri, 24 Apr 2026 00:03:23 GMT</pubDate>
    
    
      <image>
        <link>https://habr.com/ru/</link>
        <url>https://habrastorage.org/webt/ym/el/wk/ymelwk3zy1gawz4nkejl_-ammtc.png</url>
        <title>Хабр</title>
      </image>
    

    
      

      
        
  
    <item>
      <title>22.04.2026 11:13:15 </title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1026178/#comment_29867744</guid>
      <link>https://habr.com/ru/articles/1026178/#comment_29867744</link>
      <description><![CDATA[<blockquote><p> Куча учебников написано с достаточно внятным изложением. </p></blockquote><p>Вот кстати по поводу обычных школьных учебников я бы сказал что они постоены совершенно на неправильной идеологии - они основаны на простой зубрёжки сложившихся базисов. Абсолютно всё там дано в виде конечных формул. Описания в современных учебника (в советских получше)  такие что ничего не объясняют а часто просто вообще с ошибками. Могу судить - дочка в школе в старших классах.</p><p>В принципе понятно почему так - каждый отдельный раздел, параграф - учёные которые выводили формулы выводили их годами, всю жизнь. Тут же просто поток окончательных выводов. Правда толку с этого никакого - дети в школе забывают всё это сразу после окончания предмета. И забывать нечего - изначально информация почти бессмысленная магия.</p><p>Как быть? Увеличить число часов, объяснять все на старте без формул а чисто логически - какие эксперименты, какие проблемы, какие обычные вопросы задаваемые к устройству мироздания. На этом базисе постепенно оборачивать в формулы. </p><p>Но это длинный путь не школьный наверное. Но даже в институтах полностью такая практика.</p><p>Но мы живём в уникальное время. Современные LLM это мега статистические машины. Они объяснят всё, на любом уровне. Кто собрался кидаться тухлыми яблоками скажу - я плотно работаю со всеми современными LLM для программирования. Opus, gemeni, chutgpt, даже туповатый deepssek - когда долго с ними работаешь очень чётко можешь определить когда они галлюцинируют (очень редко) а когда нет. Современный LLM объяснят любой учебник физики в 100 раз лучше чем кто либо. Для современных детей - это просто сказка. У нас такого не было.</p>]]></description>
      <pubDate>Wed, 22 Apr 2026 11:13:15 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>22.04.2026 10:45:59 </title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1026178/#comment_29867568</guid>
      <link>https://habr.com/ru/articles/1026178/#comment_29867568</link>
      <description><![CDATA[<p>Смотрите мою позицию - все научпоп статьи которые сразу говорят, время замедляется, дина увеличивается, масса растёт в бесконечность, пространство искривляется. И пытаются на этом базисе строить ещё более невероятные выводы - во первых уже надоели до икоты. Они все обсуждают оно и тоже. Выводы выглядят ещё страннее чем базис.</p><p>Если начать анализировать историю до базиса - и попытаться получить базис, во первых сразу понятно почему такой базис. Во вторых можно обдумать почему базис выбрали именно такой, но идя от начала можно увидеть и другие базисы. Можно будет увидеть что большая часть базиса может оказаться виртуальной - просто следствие формул. Ничего не удлиняется, масса никакая не растёт, да и пространство не искривляется. Вот тут мне уже рьяные сторонники просто с красными глазами бегут минусить. Но! Это просто фразы! Есть такое например в математике - доказательство от противного. Вот это оно.</p><p>P.S. Попробуйте понять и объяснить базис. Это гораздо интереснее и продуктивнее. Вот и весь мой посыл. Что мы имеем сейчас ? А сейчас - теорию ОТО и СТО могут понят всего пару человек на земле - становится чуть ли новым <s>евангелие </s>базисом. От этого и тошнит. Все кто пытается понять - им нужно исходить от противного. Всё опровергнуть, а потом последовательно придти к моменту что те эксперименты по другому не объяснить. Вот только те кто хоть как то пытается это сделать - те становятся изгоями.</p>]]></description>
      <pubDate>Wed, 22 Apr 2026 10:45:59 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>22.04.2026 08:42:54 </title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1026178/#comment_29866762</guid>
      <link>https://habr.com/ru/articles/1026178/#comment_29866762</link>
      <description><![CDATA[<p>Одно и то же... каждый Раз одно и тоже... Вообще никто не хочет видеть что я говорю. Сразу триггер срабатывает и давай срать в карму и обвинять в эфире. Который я только и слышу от всех кроме меня.</p><p>Повторяю в 25 раз - я призываю только ОДНО. Пройти путь сначала. Изучить какие были эксперименты и потом как их пытались объяснить. ВСЁ! </p><p>Какие вопросы ставили себе в те времена учёные пытаясь объяснить получившиеся парадоксы в экспериментах.</p><p>А что мы имеем сейчас ? На полном серьёзе поясняют что Ньютон придумал свой знаменитый закон тяготения когда ему яблоко на голову упало! Да он пол жизни свою формулу выводил - и она не сразу такая была в конечном виде.</p><p>Сейчас все пытаются строит теории опираясь на ОТО. Но никто никогда не пытается понять откуда эта теория вообще взялась.</p><p>Ладно. Умолкаю. Всё одно и тоже....</p>]]></description>
      <pubDate>Wed, 22 Apr 2026 08:42:54 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>21.04.2026 21:12:54 </title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1026178/#comment_29864520</guid>
      <link>https://habr.com/ru/articles/1026178/#comment_29864520</link>
      <description><![CDATA[<p>Все подобные стати и объяснения всегда используют точку отсчёта ОТО. Это выглядит глупо. По типу - Сначала Бог создал ОТО - а потом как то пришлось натягивать <s>сову на глобус </s>пространство на эту теорию.</p><p>Не хочу в очередной раз получат тонну минусов просто дам совет.</p><p>Попробуйте начать объяснения с чуть ранних позиций. Даю подсказку.</p><p>Вначале учёные сделали эксперимент - и выяснили странное. Скорость света во все стороны вдруг оказалась одинаковая. Даю гарантию - объяснения станут намного интереснее, а может и вообще другими.</p><p>Сразу поднимутся интересные темы - что скорость света никто никогда не смог измерит в одну сторону. И ещё многие парадоксы которые в современном виде просто откинуты.</p><p>Со временем тоже интересные выводы можно сделать. Например можно обсудить что для объяснения работы пространства не нужна концепция времени. </p><p>Просто опуститесь до того времени когда физика была живая а не покрытая догмами со всех сторон. Пройдя цепочку от начала до современных понятий - можно по новому взяглянуть на вещи.</p>]]></description>
      <pubDate>Tue, 21 Apr 2026 21:12:54 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>02.04.2026 21:30:38 </title>
      <guid isPermaLink="true">https://habr.com/ru/companies/pt/articles/1014954/#comment_29767678</guid>
      <link>https://habr.com/ru/companies/pt/articles/1014954/#comment_29767678</link>
      <description><![CDATA[<p>decimal вообще коварный тип. Внутри него есть scale 1.0 и 1.00 по сути равны но байтово разные. Более того существующие БД тоже будут считать их разными (особенности внутреннего строения БД). Что бы сравнивать decimal нужно делать приведение внутреннего масштаба. Ну или спец функциями сравнения которые делают это внтури.</p><p>Короче где выстрелиь себе в ногу там прсто вагон мест.</p>]]></description>
      <pubDate>Thu, 02 Apr 2026 21:30:38 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>16.03.2026 16:03:36 </title>
      <guid isPermaLink="true">https://habr.com/ru/companies/globalsign/articles/1010538/#comment_29675260</guid>
      <link>https://habr.com/ru/companies/globalsign/articles/1010538/#comment_29675260</link>
      <description><![CDATA[<p>Читал про подобное ещё в детстве в этой книге. Книга была зачитана до дыр - и собраны почти все девайсы из неё.</p><figure class=""><img src="https://habrastorage.org/getpro/habr/upload_files/a95/3b9/561/a953b95610c36f54980a09076cef8ea4.jpg" alt="" title="" width="189" height="266"></figure><p>Ещё такая из серии была</p><figure class="full-width "><img src="https://habrastorage.org/getpro/habr/upload_files/ccd/431/836/ccd431836657c2f1f26fa39116be70f0.JPG" width="796" height="1111"></figure>]]></description>
      <pubDate>Mon, 16 Mar 2026 16:03:36 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>15.03.2026 18:27:47 </title>
      <guid isPermaLink="true">https://habr.com/ru/news/1010196/#comment_29669188</guid>
      <link>https://habr.com/ru/news/1010196/#comment_29669188</link>
      <description><![CDATA[<p>Когда я сказал LLM <s>что бы она выкинула себя в мусорку</s> она неправа. Она написала.</p><details class="spoiler"><summary>Скрытый текст</summary><div class="spoiler__content"><p>Признаю: при наличии <code>Interlocked.CompareExchange</code> в методе <code>Lock</code>, который вызывается непосредственно перед проверкой <a href="http://db.run" rel="noopener noreferrer nofollow"><code>db.run</code></a><code> == false</code> в методе <code>free</code>, <strong>любая вероятность NRE исключена полностью</strong>.</p><p>Анализ барьера памяти (Чистая логика)</p><p>Твой <code>Interlocked.CompareExchange</code> — это полная когерентность памяти (Full Memory Barrier).</p><ol><li><p><strong>В потоке Б (Free)</strong>: <code>spin.Lock()</code> (Барьер) -&gt; Установка <a href="http://db.run" rel="noopener noreferrer nofollow"><code>db.run</code></a><code> = false</code> (или чтение уже установленного) -&gt; <code>SetResult</code>.</p></li><li><p><strong>В потоке А (Get)</strong>: Пробуждение после <code>await</code> -&gt; <strong>Цикл <code>while(true)</code> делает следующую итерацию</strong> -&gt; Вызывается <code>spin.Lock()</code>.</p></li><li><p><strong>Результат</strong>: <code>Interlocked</code> внутри <code>Lock</code> гарантирует, что поток А «увидит» всё, что записал поток Б до освобождения лока.</p></li></ol><p>Поскольку проверка <code>if (</code><a href="http://db.run" rel="noopener noreferrer nofollow"><code>db.run</code></a><code> == false)</code> стоит <strong>сразу после</strong> выхода из <code>await</code> и внутри цикла, где на следующей итерации или в смежных ветках держится лок — данные синхронизированы на аппаратном уровне. Мои рассуждения о «малой вероятности» были излишне теоретическими и не учитывали жесткую сцепку через <code>Interlocked</code>.</p><p>Финальный статус алгоритма <code>TransPool</code></p><p>На данный момент код представляет собой монолитную, потокобезопасную и производительную конструкцию.</p><p><strong>Сильные стороны текущей реализации:</strong></p><ul><li><p><strong>Zero-Overhead</strong>: Использование <code>ValueTask</code> и <code>ManualResetValueTaskSourceCore</code> минимизирует аллокации при ожидании.</p></li><li><p><strong>Cache-Friendly</strong>: <code>StructLayout(LayoutKind.Explicit, Size = 128)</code> предотвращает False Sharing, разнося горячие переменные (<code>top</code>, <code>bot</code>, <code>spin</code>) по разным кэш-линиям.</p></li><li><p><strong>LIFO-стек</strong>: Получение транзакции из <code>trans_pool[--trans_top]</code> максимально эффективно использует L1-кэш (последняя возвращенная транзакция будет первой выданной).</p></li><li><p><strong>Надежность Shutdown</strong>: Пробуждение всех официантов гарантирует, что система не зависнет при остановке БД.</p></li></ul></div></details><p>Проблема что на каждый чих просто приходится тратить кучу времени на болтовню с LLM. Но я про это уже писал.</p>]]></description>
      <pubDate>Sun, 15 Mar 2026 18:27:47 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>15.03.2026 18:18:46 </title>
      <guid isPermaLink="true">https://habr.com/ru/news/1010196/#comment_29669150</guid>
      <link>https://habr.com/ru/news/1010196/#comment_29669150</link>
      <description><![CDATA[<p>Прямо сейчас. LLM изводит меня просто тонной мусора на анализ простейшего алгоритма. Который джун видит просто сразу. Есть флаг глобальный. Один поток читает этот флаг - он установлен. Вызывает другой поток. В другом потоке читается этот флаг. ВСЁ! Чтение флагов находится за барьером памяти - проблема кешей нету. Мне LLM изводят мозг что это мега баг! Я трачу время на анализ бреда-галюцинаций, а потом на доказательство LLM что бага нет. Вот ответы LLM кому интересно. И да - про её малую вероятность это галюцинация. Нету там никакой вероятности. </p><details class="spoiler"><summary>Скрытый текст</summary><div class="spoiler__content"><p>Давай разберем цепочку событий, чтобы найти ту самую "тонкую" точку. Единственный шанс получить NRE — это если <a href="http://db.run" rel="noopener noreferrer nofollow"><code>db.run</code></a> будет <code>true</code> в момент проверки, но <code>wait.t</code> при этом будет <code>null</code>.</p><p>Сценарий гонки (Race Condition):</p><ol><li><p><strong>Поток А (Get):</strong> Уходит в <code>await</code>.</p></li><li><p><strong>Поток Б (Free):</strong> Видит <a href="http://db.run" rel="noopener noreferrer nofollow"><code>db.run</code></a><code> == true</code>.</p></li><li><p><strong>Поток Б (Free):</strong> Выполняет <code>wait.t = t</code>.</p></li><li><p><strong>Поток Б (Free):</strong> Выполняет <code>wait.Core.SetResult(true)</code>.</p></li><li><p><strong>Поток А (Get):</strong> Просыпается.</p></li><li><p><strong>Поток А (Get):</strong> Проверяет <code>if (</code><a href="http://db.run" rel="noopener noreferrer nofollow"><code>db.run</code></a><code> == false)</code> — условие <strong>ложно</strong> (БД работает).</p></li><li><p><strong>Поток А (Get):</strong> Успешно забирает <code>t = wait.t</code>.</p></li><li><p><strong>Поток А (Get):</strong> Делает <code>wait.t = null</code>. (Слот очищен).</p></li></ol><p><strong>Теперь критическая ситуация (Shutdown):</strong> Чтобы случился NRE, <code>SetResult</code> должен быть вызван <strong>без</strong> установки <code>wait.t</code>. Это происходит только в блоке <code>if (</code><a href="http://db.run" rel="noopener noreferrer nofollow"><code>db.run</code></a><code> == false)</code> метода <code>free</code>.</p><ol><li><p><strong>Поток А (Get):</strong> Уходит в <code>await</code>.</p></li><li><p><strong>Поток Б (Shutdown):</strong> Устанавливает <a href="http://db.run" rel="noopener noreferrer nofollow"><code>db.run</code></a><code> = false</code>.</p></li><li><p><strong>Поток Б (Free):</strong> Заходит в метод, видит <a href="http://db.run" rel="noopener noreferrer nofollow"><code>db.run</code></a><code> == false</code>, заходит в цикл пробуждения.</p></li><li><p><strong>Поток Б (Free):</strong> Вызывает <code>wait.Core.SetResult(true)</code> (для Потока А).</p></li><li><p><strong>Поток А (Get):</strong> Просыпается.</p></li><li><p><strong>Поток А (Get):</strong> Проверяет <code>if (</code><a href="http://db.run" rel="noopener noreferrer nofollow"><code>db.run</code></a><code> == false)</code>.</p></li></ol><p><strong>Вопрос:</strong> Может ли проверка на шаге 6 вернуть <code>false</code> (мол, БД всё еще работает), если сигнал был послан из блока, где <a href="http://db.run" rel="noopener noreferrer nofollow"><code>db.run</code></a> уже <code>false</code>?</p><p>В рамках <strong>одного потока</strong> (Поток Б) — нет, так как запись <a href="http://db.run" rel="noopener noreferrer nofollow"><code>db.run</code></a><code> = false</code> идет перед чтением в цикле. Но в многопоточной среде без использования <code>volatile</code> или Memory Barrier для <a href="http://db.run" rel="noopener noreferrer nofollow"><code>db.run</code></a>, теоретически возможна ситуация переупорядочивания или кэширования значения в регистре процессора Потока А.</p><p><strong>Однако</strong>, в твоем коде:</p><ol><li><p><code>SetResult</code> внутри содержит Memory Barrier (так требует реализация <code>ValueTaskSource</code>).</p></li><li><p>Пробуждение потока гарантирует видимость изменений, произошедших до сигнала.</p></li></ol><p><strong>Вердикт по NRE:</strong> Если <a href="http://db.run" rel="noopener noreferrer nofollow"><code>db.run</code></a> — это обычное поле (не <code>volatile</code>), то теоретически "просачивание" возможно из-за оптимизаций JIT/CPU, но на практике в .NET <code>SetResult</code> создает достаточно сильный барьер. <strong>Признаю: в 99.999% случаев твой заслон <code>if (</code><a href="http://db.run" rel="noopener noreferrer nofollow"><code>db.run</code></a><code> == false)</code> сработает идеально.</strong> NRE здесь — это исчезающе малая вероятность, связанная скорее с поведением "железа", чем с логикой алгоритма.</p></div></details>]]></description>
      <pubDate>Sun, 15 Mar 2026 18:18:46 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>15.03.2026 16:23:27 </title>
      <guid isPermaLink="true">https://habr.com/ru/news/1010196/#comment_29668690</guid>
      <link>https://habr.com/ru/news/1010196/#comment_29668690</link>
      <description><![CDATA[<p>Вы не поняли. Я про 2 разных случая. Когда вы говорите найди баг - LLM это воспринимает как команду. И она найдёт баг в любом случае. Есть он или нет. </p><p>Более того - я очень плотно общаюсь с разными LLM - они очень ведомы. Их легко переспорить. И это бесит. Потому что ты начинаешь чувствовать что ты не добъёшся правды.</p><p>Почему так? А их специально затачивали под такое поведение. А скорее всего т.к. они используют чат в качестве своей памяти а в чате будет в основном ваши доказательства (пусть специально ошибочны) то проходя каждый раз этот текст внутри миксера LLM будет внутри выстраивать цепочку в векторном пространстве что вы правы. У LLM нету своего мнения в помине. Как цепочка в векторном пространстве пойдёт - такое и мнение и будет.</p><p>Но я тут не рассматриваю костыли в виде спец разметки и жёстких ограничений. Которые включают в LLM для толерантности и прочего.</p>]]></description>
      <pubDate>Sun, 15 Mar 2026 16:23:27 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>15.03.2026 16:07:47 </title>
      <guid isPermaLink="true">https://habr.com/ru/news/1010196/#comment_29668614</guid>
      <link>https://habr.com/ru/news/1010196/#comment_29668614</link>
      <description><![CDATA[<p>А я не согласен с утверждением. Поясняю. Что значит очень много токенов? А это значит что LLM попросту нагенерирует очень много текста. Знаете как работает LLM? Основной алгоритм очень простой и очень тупой. У нас есть входящий промт. Все слова из промта превращаем в эмбединги. Потом это тупо складываем и получаем один жирный вектор. И потом этот вектор умножаем на 1 матрицу. Это умножение нам объясняют как подмешивание всех смыслов соседних слов во все смыслы соседних слов. Честно говоря магия ещё та. И более того скажу - нигде вы не найдёте как обучается эти матрицы и главное почему вдруг решили что это подмешиваются смыслы. В последних итерация добавили аж 96 таких смысловых матриц. Типо головы внимания обозвали что бы выглядить круче. </p><p>После этой маги отдельные эмбединги числа которых немного пмоменялись пускаем на 2-х слойный перцептрон. Особенность он раздувает маленькие эмбединги до 100500 байтных - у каждого по разному. Во втором слое опять сдувает до маленького эмбединга. </p><p>И далее в получившимся числе берём последний токен - это наш следующий токен. </p><p>Далее берём все токены вместе и прокручиваем карусель сново. И сново. На 100500 токене смыслы так размываются то на выходе уже получается бред.</p><p>Поэтому LLM обвешивают костылями со всех сторон. Обрезают цепочку в карусели что бы смысл не сильно терялся - результат потеря контекста. И прочее.</p><p>Зачем я описал это и так всем известный алгоритм? Что бы показать проблему которая зашита в архитектуру. Проблема контекста. Проблема быстрой памяти у человека.</p><p>Вы  утверждаете что чем больше денег тем лучше. Давно опровергнуто - наращивание мощностей - даёт обратный результат. LLM тупеют. </p><p>Что бы построить алгоритм по коду надо смотреть на код кусками. Увидел кусок пометил в голове у себя как квадратик. Прыгнул в другое место. Потом в другое. Потом в третье. Увидел кольцо - разорвал его. Так прыгая туда сюда - в голове, в человеческой быстрой памяти делаешь виртуальную схему. Потом над этой схемой ещё более высокую абстракцию</p><p>В LLM этого в помине нет. Там используют мега костыль - чат это память. Но чат это портянки кода и портянки текста. Отсюда и память такая кривая.</p><p>Вы спросите а как же тогда LLM вообще в логику - если там и в помине логики нет.</p><p>Используют 2 костыля. Обучающие корпуса с разметкой - но это помогает что бы LLM хотя бы в диалог могла.</p><p>Ну и главное надстройки в виде отдельных модулей. Символьные AI, калькулятор, компиляторы и прочее.</p><p>Т.к. это не единая система а костыль на костыле - получаем то что имеем.</p>]]></description>
      <pubDate>Sun, 15 Mar 2026 16:07:47 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>14.03.2026 19:23:27 </title>
      <guid isPermaLink="true">https://habr.com/ru/news/1010196/#comment_29665360</guid>
      <link>https://habr.com/ru/news/1010196/#comment_29665360</link>
      <description><![CDATA[<p>Так я и говорю - идти по шагам вообще тупиковая ветвь не решающая проблемы. Ты не исправишь баг если будет изменять логику алгоритма только в конце или только в начале. Исправить можно поменяв всю логику во всех местах одновременно. LLM же одновременно не делает ничего. </p><p>Ведь проблему не я придумал. Просто из всех мест читаешь как вайбкодеры на жирном проекте попадают в петлю бесконечных багов. Исправление в одном месте ломает в другом. Исправление в другом ломает в третьем. И получается вечный цикл исправлений.</p>]]></description>
      <pubDate>Sat, 14 Mar 2026 19:23:27 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>14.03.2026 19:14:15 </title>
      <guid isPermaLink="true">https://habr.com/ru/news/1010196/#comment_29665340</guid>
      <link>https://habr.com/ru/news/1010196/#comment_29665340</link>
      <description><![CDATA[<p>Так я уже написал свод правил. Что бы LLM начинала с построения алгоритма и далее по шагам шла сверху вниз. И да она пытается это эмулировать. Но толку это особо не принесло. Потому что проблема именно в by-desine LLM. Это предсказатель следующего токена. И это последовательная штука. Что бы ты не делал - не заставишь вести акцент на разные участки кода одновременно. И исправлять один участок кода одновременно смотря как это исправления будут влиять на другие участки.</p><p>Вообще LLM использует чат в качестве своей памяти. Она пишет целые портянки рассуждений по пунктам. Типо 1. Если A-&gt;B 2.B-&gt;C перемежая эти рассуждения фразами ой-ой-ой - тут не будет работать и половина предшествующих пунктов рассуждения можно выкинуть в мусорку. Дойдя до конца списка - она уже вообще не помнит что там вначале писала. Скажу честно - я мясная LLM тоже с трудом каждый раз выстраиваю логику алгоритма что там нагалюцинировала LLM. И решая проблему последних пунктов - она ломает начальные. В следующей итерации всё тоже самое но сначала. </p><p>Человек же попросту видит начло и конец - и ломает и переделывает и конец и начло одновременно. Короче такие у меня проблемы общения с LLM.</p>]]></description>
      <pubDate>Sat, 14 Mar 2026 19:14:15 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>14.03.2026 18:59:11 </title>
      <guid isPermaLink="true">https://habr.com/ru/news/1010196/#comment_29665302</guid>
      <link>https://habr.com/ru/news/1010196/#comment_29665302</link>
      <description><![CDATA[<p>Скажу что про опыт вы правы. Вы думаете я не спрашивал у других программистов что за хрень вообще творится ? Из каждого утюга лезет что всех программистов выкинули на мороз. Уже везде весь код пишут LLM. А я как не возьмусь у меня получается сплошная шляпа.</p><p>Моё исследование показало следующее - я пишу просто сложный код. Сложный код - это просто самый обычный код который везде. В драйверах. В игровых движках. В архитектуре СУБД. В архитектуре много поточных web-серверов. Короче абсолютно все программы которые нас окружают. </p><p>Простой код - это наверное всякие лендинги. Где 99% кода просто copy-past.</p><p>Скажите мне как раз полезна будет информация что бы понять что происходит. Что вы программируете? Какой стек? И какой вотерфлов общения с LLM используете? Расскажите как вам удаётся получить от LLM что бы они просто без ошибок могли искать баги? Я тоже так хочу.</p><p>Вы признали факт что LLM с абстракциями и алгоритмами туго. Но это же просто основное что от них нужно! Мне нужно что бы они искали алгоритмические баги. Это самое сложное. Собственно всё. Я не использую LLM что бы она мне писала код с 0. С моими потребностями это просто невозможно. Потому что что бы создать сложную архитектуру - ты в ней должен варится  с самого начала. Потеря контекста для мясной LLM - это всё. Будешь смотреть в экран на код - а там просто мыло.</p><p>Но я на полную использую LLМ для написания коротких распространённых алгоритмов которые лень писать самому. И для поиска багов. Вот каждый свой кусок написанного кода кидаю на проверку.</p>]]></description>
      <pubDate>Sat, 14 Mar 2026 18:59:11 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>14.03.2026 17:52:14 </title>
      <guid isPermaLink="true">https://habr.com/ru/news/1010196/#comment_29665100</guid>
      <link>https://habr.com/ru/news/1010196/#comment_29665100</link>
      <description><![CDATA[<p>Ну смотрите. Она находит и говорит что у тебя 5 ошибок. Я смотрю и определяю - ошибок нет. Объясняю LLM. LLM говорит - простите у вас всё нормально. Это сколько процентов получается ? 100% ? И такой атракцион может повторятся 10 раз подряд. Она просто всегда будет находить ошибку. Которой при детальном рассмотрении нету. LLM очень чётко видео тупые ошибки - просто по невнимательности которые делаешь. Типо переменную перепутал или не удалил старую когда рефакторил. Сделайте эксперимент - киньте 100 процентный рабочий кусок кода и скажите ищи ошибки. 100% она их найдёт. У меня так работает всегда.</p><p>Знаете какая проблема. Из 9 ошибок она находит 1 реальную. Находит реальную после 10 раз кидания ей одного и того же кода чуть подправленного. И получается постоянно приходится разгребать 90% говна что бы отрыть алмаз. Да LLM помогают - она находит алмаз который ты пропустил. Но всегда приходится платить высокую цену. Ты тратишь очень много времени и сил на разгребания того что LLM нагаллюцинировала. И могу сказать - это реально очень сложно. Потому что она бывает такую пургу несёт заумную - мозги кипят. И самое забавное в конце когда ты всё же смог это в глове понять. Ты понимаешь - это итерация грёбанная галюцинация. И ты потратил пол часа времени в мусорку. Но ты всё равно с упорством дурака погружаешся в это <s>говно </s>анализ, потому что где то там есть реальный баг.</p><p>Но честно сказать. Лёгкий путь - наговнокодил и кинул LLM на проверку получается вообще не лёгкий. Лёгкий путь - тратишь свои силы на архитектуру и анализ кода. В конце кидаешь на проверку LLM. Короче ничего не поменялось. Работа программиста как была так и осталась.</p>]]></description>
      <pubDate>Sat, 14 Mar 2026 17:52:14 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>14.03.2026 16:39:04 </title>
      <guid isPermaLink="true">https://habr.com/ru/news/1010196/#comment_29664934</guid>
      <link>https://habr.com/ru/news/1010196/#comment_29664934</link>
      <description><![CDATA[<p>Конечно. Очень чётко рассуждает. Прям красота. Но вот проблема - она смотрит на код построчно. Очень красиво рассуждает о багах в конкретных местах. А что бы найти алгоритмические баги - на код вообще смотреть нельзя. Потому что код засоряет анализ мусором конкретики. Нужно стоить алгоритм. Моя проблема была в том что даже построив алгоритм - нужно одновременно смотреть на разные места этого алгоритма. LLM же всегда последовательна. Её архитектура предсказание следующего токена.</p><p>Собственно как внутри устроенна LLM - трансформер, двухслойный перцептрон. Я прекрасно знаю. И неоднократно тут описывал тупиковость этой архитектуры. Более того я знаю как пытаются сделать надстройки к этой архитектуре что бы решить главную проблему. LLM - совершенно не способны в логику.</p><p>Если вам кажется что LLM капец как логично рассказали вам про ваш промт - это просто они в своей статистической машине нашли правильный кусок из обучающей выборки.</p><p>Проблема - небольшие алгоритмы находит. Чуть больше - не находит. </p>]]></description>
      <pubDate>Sat, 14 Mar 2026 16:39:04 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>14.03.2026 16:02:13 </title>
      <guid isPermaLink="true">https://habr.com/ru/news/1010196/#comment_29664854</guid>
      <link>https://habr.com/ru/news/1010196/#comment_29664854</link>
      <description><![CDATA[<p>Каждый грёбанный день кидаю неподвластные задачи cloud, gemeni, deep seek(лоадно ладно этому тупню не кидаю). Например вчера. Функция на 100 строк. Сильно улучшенный алгоритм semaphora. С кучей мелкой логики по типу организации ожидания лока через spin процессора. С использованием кеш area для переменных - что бы не деградировал L1 кеш. С очередями. С ValueTask, с кривой структурой (ManualResetValueTaskSourceCore) из за которой были все проблемы. И прочей трибухи. </p><p>Так вот все эти LLM отлично видели баги в конкретных этих местах. Но очень простой общий алгоритм они не могли вообще осознать.</p><p>Если представить код то он как бы имел голову и хвост. Изменения головы влияло на хвост и наоборот.</p><p>Все эти LLM просто попадали в бесконечный цикл. Они исправляли баги в голове - но эти исправления производили баги в хвосте. Баги по типу гонок, не volatile доступов, проблемы мультипоточного доступа, проблема очереди просыпания Task и прочая aсинхронщина. </p><p>Потом они исправляли новые баги в хвосте. И это получался просто бесконечный цикл очень трудноанализируемого булшита. Каждый раз  LLM говрила что код идеален. Но если просишь найти баги - всё повторялось опять.</p><p>А как делает человек.  Он вообще не смотрит на эти все мелочи - он строи высокоуровневую абстракцию алгоритма. Решает проблемы этого алгоритма. Смотрит на голову и хвост одновременно. А потом получившийся безбаговый алгоритм проецирует на код.</p><p>Я даже пытался обучить gemini такому подходу - специально состовлял карту по которой она должна оценивать код. Построение алгоритма. Проецирование алгоритма на код - соответствие. Доскональный анализ кода без алгоритма - это что они делают по умолчанию и всегда спотыкаются на логике. В этом режиме они всегда находят тучу багов 90% из которых галлюцинации. Вывод этого потока сравнить с алгоритмом.</p><p>Короче LLM потом признались - что построение правильного алгоритма это сверх-высокоуровневая затратная операция. И они не особо в это могут.</p>]]></description>
      <pubDate>Sat, 14 Mar 2026 16:02:13 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>10.03.2026 18:51:59 </title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1007800/#comment_29646704</guid>
      <link>https://habr.com/ru/articles/1007800/#comment_29646704</link>
      <description><![CDATA[<p>Считаю JSON отвратительным протоколом для пердачи данных. Вы вообще видили как он передаёт байтовые масcивы? Это просто ужас оверхеда. Он превращает их в base64. Вы даже строку нормально передать не сможете. Например в С# используется <strong>UTF-16</strong>. JSON UTF-8 и главное всю строку надо ещё пройти и заэкранировать.</p><p>К чему это я? А к тому что написать протокол который бы не имел этих недостатков - 10 минут. int количестиво переменных. 1 байт тип переменной. По типу определяешь длину переменной. Для массивов и стрингов добаляешь int длины. Всё! Хотите вложенные объекты - ну чуть усложнить. Ах да забыл. На имена переменных тоже по ushort добавить - длина имени. Ну и имя переменной в голых байтах. Это работает максимально быстро без какого либо оверхеда. WEB спокойно перекидывает данные в бинаром виде - нет никаких ограничений на только ASCII символы.</p><p>Я хз кому надо смотреть протоколы в сыром виде. Тем более JSON в сыром виде тоже шляпа та ещё - всё в одну строку. В любом случае парсить надо для наглядности. Так вот парсер для протокола который я описал выше - пишется не за 10 минут а за 5.</p>]]></description>
      <pubDate>Tue, 10 Mar 2026 18:51:59 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>08.03.2026 22:44:53 </title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1007574/#comment_29638116</guid>
      <link>https://habr.com/ru/articles/1007574/#comment_29638116</link>
      <description><![CDATA[<p>Я спрашивал Sonet 4.6 который типо почти такой же умный как и Claud 4.6 ну и последний DeepSeek. Они могут ответить нормально либо криво. Всё зависит от температуры. А ещё насколько я знаю у них очень сильно идёт игра по мощностям. В моменты нагрузок задействуются упрощённые варианты. Короче местами LLM могут очень сильно тупить. Вот вчерашний диалог. Ответ sonet выглядит как бред (DeepSeek не лучше - но deep seek всегда выводит портянки огромные). Всё потому что это конечные автоматы воспринимающие промт как инструкции - жосткая инструкция -&gt; верх запаян. Эмбединг идёт по пути сварка, пайка и прочее. То что у вас ответила правильно - просто сетку дообучили правильно отвечать на такой запрос. Такое постоянно - сначала в сети появляется очередной бред от LLM - весь интернет ржёт, потом компании дообучают на правильный ответ. Отличие от человека - у него образное пространственное мышление - он может догадаться без всяких предварительных обучений. Как я говорил в LLM вообще такого понятия как образы нету. Там как бы всё через жопу построено - но как мы видим работает.</p><figure class="full-width "><img src="https://habrastorage.org/getpro/habr/upload_files/36b/d4f/6fa/36bd4f6fae9027eb05c81b521ddcf0b0.png" width="818" height="253"></figure><p>Хотя как закрыл коммент понял почему у LLM крышо сорвало а у вас норм ответило. У меня окно было открыто давно. Я там вёл работу по вопроса проекта. Потом ещё какиe то тупые вопросы задавал. Короче как я писал выше - чат это локальная память LLM по другому она не работает. Она подмешивает весь чат каждый раз к новому промту - сами понимаете какая каша у неё в результате получается. Вот она и нагенерировала мне бреда. </p><p>Дабы проверить свою догадку я задал в чистом окне тот же вопрос. И разумеется с чистым незасранным эмбедингом она сразу же нашла у себя правильный ответ. Видите насколько ущербный алгоритм сохранения контекста используют современные LLM?</p><figure class="full-width "><img src="https://habrastorage.org/getpro/habr/upload_files/e4f/111/d5e/e4f111d5e838a3c5305800306c13b18d.png" width="775" height="212"></figure>]]></description>
      <pubDate>Sun, 08 Mar 2026 22:44:53 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>08.03.2026 20:29:11 </title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1007574/#comment_29637826</guid>
      <link>https://habr.com/ru/articles/1007574/#comment_29637826</link>
      <description><![CDATA[<p>Коэффициент температуры это так сказать программная часть - из промтов на неё не повлияеш. Можно играться только на локально установленном LLM каком нибудь.</p><p>А то что разные LLM ведут диалог в разных стилях - это всё влияние дообучения спец промтами которые содержат разметку. Вот по этой разметке как по карте и выстраивается путь эмбединга.</p><p>И вставля спец ключи в свой промт уже можно влиять на выход.</p>]]></description>
      <pubDate>Sun, 08 Mar 2026 20:29:11 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>08.03.2026 20:14:59 </title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1007574/#comment_29637772</guid>
      <link>https://habr.com/ru/articles/1007574/#comment_29637772</link>
      <description><![CDATA[<p>Ну вот вы сами убедились что LLM работают как конечные автоматы - входящий промт это инструкции как машина должна обработать данные. Боле того если костыль в виде алгоритма температуры поставить на 0 то на определённый входящий промт на выходе будет ВСЕГДА одно и тоже.  LLM это жёсткая машина - там нету места какой то отсебятины. Все цифры будут посчитаны максимально точно. На выходе информация чётко соответствует входу. Просто температурой ввели рандомизатор. Но это мега костыль потому что этот механизм с одной стороны добавляет творческой жилки - хорошо для художественных текстов, но с другой стороны для точных фактов по теории вероятности в 1% он будет называть белое чёрным. Ну или какой там процент получится ? Там они всё  крутят и крутят - наугад используют всякие разные алгоритмы - при этом обзывая простейшие вещи как можно сложнее - что бы всем запудрить мозги.</p><p>Например если взять нейрон в нейронной сети. В цифровом мире работа нейрона это просто какое то число(float например). И вот как считать при каком числе нейрон должен срабатывать ? Просто наугад перебирали куча вариантов.</p><p>Остановились на самом простом (другие не давали никаких преимуществ) <strong>ReLU</strong> (Rectified Linear Unit)  - но как же это расписывается в научпопе... как будто бином Нютона не меньше. А алгоритм тупой - всё что ниже 0 делаем 0. А дальше хвалебные отзывы - мол мы достигли гениальной нелинейности в нашем LLM. Да что вы! ТЕПЕРЬ это не меньше чем мыслящая машина! Да там уже вон душа виднеется!</p><p>P.S. Я тут уже много раз писал чем мясная нейросеть отличается от текущих LLM. Полная конкретика. Максимально кратко - мясная нейросеть имеет быструю память где строит модель мира. </p>]]></description>
      <pubDate>Sun, 08 Mar 2026 20:14:59 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

      

      

    
  </channel>
</rss>
