Там прямо с первого абзаца ИИ начало корежить: то C++ - это другой язык, то он надстройка над C, то расширение C, то объектно-ориентированная версия C. Холиварные тексты лучше с помощью LLM не писать, он пытается упаковать все интернет-срачи в заимоисключающие параграфы
Потому что такой дизайн реально генерит продажи. Сами дизайнеры воют от того, что они делают, но A/B-тесты показывают продактам, что другого выхода нет
Тут напрашивается колхоз, как дешево и сердито предупредить проблемы малой кровью:
Взять 6 резисторов сопротивлением 0.05 Ом в корпусе TO-220, повесить их на один радиатор.
Для рассеивания 20-30 Вт достаточно ребристого радиатора от ssd, просверлив 6 отверстий. Резисторы впаять в разрыв 12-вольтовых проводов, идущих к разъему видеокарты, чтобы выполняли роль шунтов.
Если у меня будет 5090, то так и сделаю. Стоимость шунтов по сравнению со стоимостью этой видеокарты - копейки.
Как выравнивать токи по нулевым проводам, я не знаю, там мешает дополнительная нешунтированная цепь через материнку.
1-2% процента действительно как-то мало. На проектах типа chromium или firefox профилировка показывает прирост от 10% на разных бенчмарках (особенно выигрывают бенчмарки, замеряющие скорость обработки dom-событий в js), плюс еще 15% можно выгрызть при сборке с ключом -march=native. А у вас здесь aot и без профилировки и без сборки под конкретную архитектуру CPU, а скорее всего под дефолтный x86-64. Почему просели только на 1-2% - не понимаю
Опять текст из разряда "литейное производство TSMC". Когда же LLM копирайтерам хабра начнет поставлять качественные тексты? И зачем выбирать такие темы, если физику в школе прогуливали и вычитать текст не можете?
Меня на последнее место работы "схантил" рекрутер со словами: "Ну придите на собеседование, может, вам понравится". А на собеседовании после технической части по хардскиллам в лоб получаю этот самый сакральный вопрос от будущего руководителя.
Мой ответ был: "Я вообще-то не собирался уходить, - он вытягивает удивленное лицо, я продолжаю, - меня ваш рекрутер настойчиво приглашал на это собеседование несколькими звонками". В этот момент рекрутер (она тоже была на собеседовании) начала дергать его за рукав и шептать: "Я тебе потом объясню".
Кажется, владельцы аппаратов по обучению llm пытаются сейчас решить пункт 4, скармливая сеткам контексты из чатов с пользователями. Остальные пункты либо игнорируются, откладывая на потом, либо подпираются костылями
Так в Rust один из способов обойтись без self-referential структур - это и есть устроить хранилище данных в векторе, а в структурах вместо ссылок хранить индекс на элемент. Но это опять же влечет лишние накладные расходы:
вместо прямого доступа по ссылке - двойной прыжок по памяти,
лишнее хранилище,
если в коде используется несколько таких хранилищ, то возникает проблема изоляции индексов по типу, благо уже крейты для этого, но про это надо помнить,
громоздкая логика по аллокации, удалению элементов, дефрагментации пространства для долгоживущих коллекций - по сути нужно переизобретать garbage collector
Но это решение (как и предложенное в статье) все равно не решает проблему статического анализа циклических ссылок: оно заметает проблему под ковер путем изоляции такой коллекции внутрь другой коллекции.
Ага, ждем тогда
Теперь бы еще результаты расследования, как такое изменение протекло мимо аудита. И какие меры предприняты, чтобы такое не повторилось в будущем.
Там прямо с первого абзаца ИИ начало корежить: то C++ - это другой язык, то он надстройка над C, то расширение C, то объектно-ориентированная версия C. Холиварные тексты лучше с помощью LLM не писать, он пытается упаковать все интернет-срачи в заимоисключающие параграфы
Потому что такой дизайн реально генерит продажи. Сами дизайнеры воют от того, что они делают, но A/B-тесты показывают продактам, что другого выхода нет
прослойка кушоц хочет
Что?
Тут напрашивается колхоз, как дешево и сердито предупредить проблемы малой кровью:
Взять 6 резисторов сопротивлением 0.05 Ом в корпусе TO-220, повесить их на один радиатор.
Для рассеивания 20-30 Вт достаточно ребристого радиатора от ssd, просверлив 6 отверстий. Резисторы впаять в разрыв 12-вольтовых проводов, идущих к разъему видеокарты, чтобы выполняли роль шунтов.
Если у меня будет 5090, то так и сделаю. Стоимость шунтов по сравнению со стоимостью этой видеокарты - копейки.
Как выравнивать токи по нулевым проводам, я не знаю, там мешает дополнительная нешунтированная цепь через материнку.
Я бы не сказал, что введенный при нем единый кодекс и проведенная унификация законов по всей стране имеют отрицательное значение. Наоборот, хорошо же
В этой схеме больше всего тепла будет выделяться на том контакте разъема, сопротивление которого будет самым близким к сопротивлению провода.
ну, при разнице в районе 300-400 градусов, наверно, эта обратная связь даст свои плоды, только изоляция к тому момент будет отсутствовать
проблема с xt60 и xt90 в том, что их придумала не nvidia
1-2% процента действительно как-то мало. На проектах типа chromium или firefox профилировка показывает прирост от 10% на разных бенчмарках (особенно выигрывают бенчмарки, замеряющие скорость обработки dom-событий в js), плюс еще 15% можно выгрызть при сборке с ключом -march=native. А у вас здесь aot и без профилировки и без сборки под конкретную архитектуру CPU, а скорее всего под дефолтный x86-64. Почему просели только на 1-2% - не понимаю
Опять текст из разряда "литейное производство TSMC". Когда же LLM копирайтерам хабра начнет поставлять качественные тексты? И зачем выбирать такие темы, если физику в школе прогуливали и вычитать текст не можете?
🫣
Плохой перевод. Очень плохой перевод. Я думал, будет лучше.
На самом деле имелось ввиду: "Зачем кому‑то использовать эту дрянь, если rdrand есть на любой машине?"
Надо краткие пересказы за GPT вычитывать, а не просто копипастить. LLM иногда перевирают смысл
Меня на последнее место работы "схантил" рекрутер со словами: "Ну придите на собеседование, может, вам понравится". А на собеседовании после технической части по хардскиллам в лоб получаю этот самый сакральный вопрос от будущего руководителя.
Мой ответ был: "Я вообще-то не собирался уходить, - он вытягивает удивленное лицо, я продолжаю, - меня ваш рекрутер настойчиво приглашал на это собеседование несколькими звонками". В этот момент рекрутер (она тоже была на собеседовании) начала дергать его за рукав и шептать: "Я тебе потом объясню".
Угу. Для этого сетки должны начать использовать саморефлексию для того чтобы признавать, что они галлюционируют. Но это не про текущее поколение llm
Кажется, владельцы аппаратов по обучению llm пытаются сейчас решить пункт 4, скармливая сеткам контексты из чатов с пользователями. Остальные пункты либо игнорируются, откладывая на потом, либо подпираются костылями
Это уже не "тривиальная синхронизация", а вынуждает каждый раз ведосипедить по месту использования
Что за тривиальная синхронизация? Целиком блокировать общий контейнер, пока поток работает с одним элементом?
Так в Rust один из способов обойтись без self-referential структур - это и есть устроить хранилище данных в векторе, а в структурах вместо ссылок хранить индекс на элемент. Но это опять же влечет лишние накладные расходы:
вместо прямого доступа по ссылке - двойной прыжок по памяти,
лишнее хранилище,
если в коде используется несколько таких хранилищ, то возникает проблема изоляции индексов по типу, благо уже крейты для этого, но про это надо помнить,
громоздкая логика по аллокации, удалению элементов, дефрагментации пространства для долгоживущих коллекций - по сути нужно переизобретать garbage collector
Но это решение (как и предложенное в статье) все равно не решает проблему статического анализа циклических ссылок: оно заметает проблему под ковер путем изоляции такой коллекции внутрь другой коллекции.