Офигеть. Я конечно верю, что есть люди, у которых все так драматично, но обобщать это как "жизнь в Кремниевой долине" в целом, это очень сильный перебор.
Так и считают на fp64 в основном как раз всякие физические модели. Те-же самолеты, ядренные бомбы и погоду. Для Machine Learning fp32 обычно более чем достаточно, bf16 - примерно оптимально, fp16 чуть хуже и тут часто не-Tesla GPU могут выигрывать.
NVIDIA сегментирует свой рынок весьма эффективно (или агрессивно?). Те-же Quadro и Titan карточки тоже стоят существенно дороже просто потому, что их покупатели готовы платить, даже когда железо практически то же, что и в игровых картах. Ну а за все фичи сразу, просто грех денег не взять. :-)
По части компилирования для AMD, HIP и CUDA в clang (а именно его использует AMD в последних версиях) используют один и тот же front-end, с незначительными изменениями имен макросов и функций рантайма. Так что портирование действительно относительно просто.
Но есть нюанс.
Переносимый код != переносимая производительность. Код быстро раборающий на NVIDIA не обязательно будет оптимальным для совершенно другой архитектуры. Особенно такой код, как умножение матриц, где авторы изощряются в использовании всех мелочей архитектуры.
В Netflix - да, там действительно FreeBSD есть. В Гугле точно нет, но людей с опытом FreeBSD туда вполне таки берут. Про Facebook ничего не могу сказать.
Еще раньше Juniper Networks и NetApp в своих устройствах использовали FreeBSD, но это было давно, как сейчас - не знаю. Судя по тому, что они все еще спонсируют проект, похоже, что по прежнему пользуют.
Кстати, clang который нынче тоже поддерживается VC тоже умеет компилировать CUDA (правда через clang-cl это неудобно из-за то что некоторые параметры надо передавать через /clang).
В случае когда нужно собрать все одним компилятором, это может быть удобнее чем привинчивать nvcc.
Точно что-то не состыковываестя. Сами катушки которые работают с магнитным полем не должны быть чувствительными к электрическому полю созданному статическим напряжением на пластике. Электроника считывающая состояние катушек - может быть, особенно если была собрана на полевых транзисторах, но тогда непонятно почему только через некоторое время. Они обычно дохнут в момент касания. Теоретически возможно, что статический разряд их только частично повреждает и дальше они разрушаются каким-то другим механизмом.
Но в принципе поверить в то что статика вносила хаос вполне можно. Для примера, достаточно просто встать со стула: https://youtu.be/sUG_sjS67K4?t=87
Здорово!. Не знал, что PVS-Studio привинтили к Compiler Explorer. Это полезная информация которая, по моему, вполне адекватна для ответа. Это ничем не отличается от ссылок на Compiler Explorer с использованием msvc или icc. Если эта ссылка демонстрирует, что кто-то что-то делает лучше, пусть и за деньги, то это не делает ее менее полезной в контексте рабочего примера в Compiler Explorer.
В GA102 в RTX картах гораздо больше FP32 железа, чем в GA100 чипе в картах А100. Поэтому для приложений типа рендеринга RTX3090 действительно будет выигрывать. А для ИИ приложений обычно гораздо важнее FP16 и пропускная способность памяти. Тут уж GA100 сильно выигрывает.
Был студентом ФМШ и НГУ как раз в 90-98. Могу добавить немого деталей.
В ИЯФ действительно был 128(?)кбит канал (iae.nsk.su появился 1990-09-19), вроде-как до Германии. И вроде как широкого доступа к нему вне ИЯФа не было.
фидо в СССР начался так же в Новосибирске в 1990 году ... Как они связывались с Европой - не знаю. Вполне может быть, что через тот же интернет.
http://www.fidonews.org/prev/1549/notices.html
21-Sep-1990
---------------------------------------------------------------------------
+7 (xUSSR) joins FidoNet in Zone 2.
На Sine Lex BBS (2:5000/30) находившейся в ФМШ в 90x доступа к интернету через ИЯФ точно не было. Был совершенно крутой по тем временам модем Telebit trailblazer. Если мне память не изменяет, то все бегало по FIDO в основном через локальные звонки, иногда - межгород и вроде как через входящие звонки из-за бугра.
Потом, в районе '96 у НГУ появился свой собственный канал и уже к нему дали доступ простым смертным, даже провели в общежития. Детальная история тут: https://ieeexplore.ieee.org/document/8400366
Time Domain Reflectometry. Пускаем импульс, он отражается от нетерминированного конца линии. Измеряем задержку, ослабление, искажение формы. Скорость распространения сигнала известна -> легко вычисляем длину. Можно также обнаружить короткие замыкания, и даже изгиб кабеля, если можно пристально взглянуть на форму вернувшегося импульса. Многие 100М Ethernet PHY это дело умели довольно давно, но все по своему - то есть единого стандарта нет, а документация часто только под NDA.
With a transmitted power of 25 dBm (and an associated EIRP of approximately 54 dBm), corresponding to an incident power density of approximately −6 dBm cm−2, the lens-based rectenna displayed an extended range of 2.83 m under open load conditions, with an output voltage around 10 mV, thereby demonstrating (to our knowledge) the longest-ranging rectenna demonstration at mm-wave frequencies.
"10mV на открытом выходе на расстоянии <3м" декларируется как достижение для антен. С этой позиции работа действительно интересная. Но вот про IoT они таки несколько преувеличили, по карайней мере, на обозримое будущее.
Там еще пилить и пилить до практического применения.
Я за исследователей рад, но вот сенсационализм все нафиг портит.
Про STM32 — хватит как раз чтобы в stand-by поддерживать. Ни на какую полезную работу не хватит, не говоря уж о WiFi или радио. Обратите внимание, что потрбление для рабочего режима указано в микроамперах на мегагерц и реально таки нужны миллиамперы и потребление таке будет меряться в милливаттах даже если замедлить его до 1% от номинальной частоты.
RFID тут как-то совсем не в тему — они себе энергию и так получают через индукционную катушку поблизости. Там тоже речь не о микроваттах идет.
Мелкие ultra low power чипы есть но это не IoT. IoT без Internet по определению не бывает.
Что забавно, так это то что оригинальная статья в Nature живорит о батарейках и IoT только одним предложением в самом конце. Сама статья в основном об антенне.
This observation enables the striking idea that future 5G networks could be used not only for tremendously-rapid communications, but also as a ubiquitous wireless power grid for IoT devices.
При плотности энергии в 7.8μW cm−2 типичные IoT не сильно позаряжаешь так как им обычно нужно на порядки больше энергии. К примеру, типичному IoT устройству на ЕSP32 нужно ~0.2W (3.3В * 0.065mA).
Умножая микроамперы на секунды, мы получаем
мкА*с(т.е. энергию) а немкА/с(скорость нарастания импульса тока?)Похоже что micropython + LVGL для esp32-s3 еще не допилили: https://github.com/lvgl/lv_binding_micropython/issues/227
Офигеть. Я конечно верю, что есть люди, у которых все так драматично, но обобщать это как "жизнь в Кремниевой долине" в целом, это очень сильный перебор.
Так и считают на fp64 в основном как раз всякие физические модели. Те-же самолеты, ядренные бомбы и погоду. Для Machine Learning fp32 обычно более чем достаточно, bf16 - примерно оптимально, fp16 чуть хуже и тут часто не-Tesla GPU могут выигрывать.
NVIDIA сегментирует свой рынок весьма эффективно (или агрессивно?). Те-же Quadro и Titan карточки тоже стоят существенно дороже просто потому, что их покупатели готовы платить, даже когда железо практически то же, что и в игровых картах. Ну а за все фичи сразу, просто грех денег не взять. :-)
Я собственно, с "попробовать" как раз согласился.
Это вот эта часть и ее обоснование выглядят несколько оптимистично.
Непонятно, что автор хотел показать.
По части компилирования для AMD, HIP и CUDA в clang (а именно его использует AMD в последних версиях) используют один и тот же front-end, с незначительными изменениями имен макросов и функций рантайма. Так что портирование действительно относительно просто.
Но есть нюанс.
Переносимый код != переносимая производительность. Код быстро раборающий на NVIDIA не обязательно будет оптимальным для совершенно другой архитектуры. Особенно такой код, как умножение матриц, где авторы изощряются в использовании всех мелочей архитектуры.
Так что сравнение вышло яблок с апельсинами.
В Netflix - да, там действительно FreeBSD есть. В Гугле точно нет, но людей с опытом FreeBSD туда вполне таки берут. Про Facebook ничего не могу сказать.
Еще раньше Juniper Networks и NetApp в своих устройствах использовали FreeBSD, но это было давно, как сейчас - не знаю. Судя по тому, что они все еще спонсируют проект, похоже, что по прежнему пользуют.
Кстати, clang который нынче тоже поддерживается VC тоже умеет компилировать CUDA (правда через clang-cl это неудобно из-за то что некоторые параметры надо передавать через /clang).
В случае когда нужно собрать все одним компилятором, это может быть удобнее чем привинчивать nvcc.
Точно что-то не состыковываестя. Сами катушки которые работают с магнитным полем не должны быть чувствительными к электрическому полю созданному статическим напряжением на пластике. Электроника считывающая состояние катушек - может быть, особенно если была собрана на полевых транзисторах, но тогда непонятно почему только через некоторое время. Они обычно дохнут в момент касания. Теоретически возможно, что статический разряд их только частично повреждает и дальше они разрушаются каким-то другим механизмом.
Но в принципе поверить в то что статика вносила хаос вполне можно. Для примера, достаточно просто встать со стула: https://youtu.be/sUG_sjS67K4?t=87
Про игры - я бы еще упомянул симуляторы гонок.
К примеру вождение машины в VR в Assetto Corsa Competizione или в Automobilista 2 или полеты в MS Flight Simulator или DCS.
Этот вопрос уже отражен в этой теории. На новой лестнице жопы тоже есть. Их просто еще не заметили.
Здорово!. Не знал, что PVS-Studio привинтили к Compiler Explorer. Это полезная информация которая, по моему, вполне адекватна для ответа. Это ничем не отличается от ссылок на Compiler Explorer с использованием msvc или icc. Если эта ссылка демонстрирует, что кто-то что-то делает лучше, пусть и за деньги, то это не делает ее менее полезной в контексте рабочего примера в Compiler Explorer.
В GA102 в RTX картах гораздо больше FP32 железа, чем в GA100 чипе в картах А100. Поэтому для приложений типа рендеринга RTX3090 действительно будет выигрывать. А для ИИ приложений обычно гораздо важнее FP16 и пропускная способность памяти. Тут уж GA100 сильно выигрывает.
https://www.techpowerup.com/gpu-specs/nvidia-ga100.g931
https://www.techpowerup.com/gpu-specs/nvidia-ga102.g930
Был студентом ФМШ и НГУ как раз в 90-98. Могу добавить немого деталей.
В ИЯФ действительно был 128(?)кбит канал (iae.nsk.su появился 1990-09-19), вроде-как до Германии. И вроде как широкого доступа к нему вне ИЯФа не было.
http://www.fidonews.org/prev/1549/notices.htmlНа Sine Lex BBS (2:5000/30) находившейся в ФМШ в 90x доступа к интернету через ИЯФ точно не было. Был совершенно крутой по тем временам модем Telebit trailblazer. Если мне память не изменяет, то все бегало по FIDO в основном через локальные звонки, иногда - межгород и вроде как через входящие звонки из-за бугра.
Потом, в районе '96 у НГУ появился свой собственный канал и уже к нему дали доступ простым смертным, даже провели в общежития. Детальная история тут: https://ieeexplore.ieee.org/document/8400366
Time Domain Reflectometry. Пускаем импульс, он отражается от нетерминированного конца линии. Измеряем задержку, ослабление, искажение формы. Скорость распространения сигнала известна -> легко вычисляем длину. Можно также обнаружить короткие замыкания, и даже изгиб кабеля, если можно пристально взглянуть на форму вернувшегося импульса. Многие 100М Ethernet PHY это дело умели довольно давно, но все по своему - то есть единого стандарта нет, а документация часто только под NDA.
https://cppinsights.io/s/366d310e
QED.
"10mV на открытом выходе на расстоянии <3м" декларируется как достижение для антен. С этой позиции работа действительно интересная. Но вот про IoT они таки несколько преувеличили, по карайней мере, на обозримое будущее.
Там еще пилить и пилить до практического применения.
Я за исследователей рад, но вот сенсационализм все нафиг портит.
Про STM32 — хватит как раз чтобы в stand-by поддерживать. Ни на какую полезную работу не хватит, не говоря уж о WiFi или радио. Обратите внимание, что потрбление для рабочего режима указано в микроамперах на мегагерц и реально таки нужны миллиамперы и потребление таке будет меряться в милливаттах даже если замедлить его до 1% от номинальной частоты.
RFID тут как-то совсем не в тему — они себе энергию и так получают через индукционную катушку поблизости. Там тоже речь не о микроваттах идет.
Мелкие ultra low power чипы есть но это не IoT. IoT без Internet по определению не бывает.
Что забавно, так это то что оригинальная статья в Nature живорит о батарейках и IoT только одним предложением в самом конце. Сама статья в основном об антенне.
При плотности энергии в 7.8μW cm−2 типичные IoT не сильно позаряжаешь так как им обычно нужно на порядки больше энергии. К примеру, типичному IoT устройству на ЕSP32 нужно ~0.2W (3.3В * 0.065mA).
Здорово.
Вот бы еще HidReport байты обернуть в классы чтоб можно было по человечески редактировать.