Pull to refresh
4
0,5
Rating
1
Subscribers
Send message

Всем хотелось иметь протестированный вариант нового воздушного оружия, хотя официально это было средство пропаганды и народного хозяйства.

Не совсем, у них там только что американский Шенандоа разбился. А британцы теперь на дирижабли на самом деле смотрят коммерчески - строят только пассажирские R100 и R101. Через несколько лет разобьётся R101, после чего закончат с дирижаблями от греха подальше (разберут R100 и на этом всё).

Как немцы видели перспективы по обратной конверсии дирижаблей в середине 20-х - не знаю, но через 10 лет уже смотрели как на декоративную вещь вроде гигантских АНТ-20, К-7 или многобашенного Nb.Fz.

Про США есть замечание, что жёсткие дирижабли в 20-х использовали для межведомственной конкуренции - если ими не станут заниматься ВМС, то дирижабли для борьбы за бюджеты использует сухопутное ведомство:

Admiral Moffett’s biographer, William Trimble ... indicates it likely that the U.S. Navy, and Admiral Moffett as Chief of BuAer, maintained rigid airships merely to deny them to the Army to leverage them as propaganda instruments in the battle for public support

— AD1114265

Ещё фактор чемоданности-без-ручки. Цеппелины всем достались как репарации. Даже Бельгии, она его в музей поставила. Ну, гондолу. Свежий "Лос-Анджелес" построен в Германии тоже в качестве части репараций.
~~~
Зачем Япония в 20-х купила у Нобиле N-3 (который быстро взорвался) - не знаю, но пустующий репарационный эллинг как раз имелся.

Не знаю как там ИИ для профессоров за 200$, но бесплатные науку не тянут

«Надо себя заставлять!»

вместо более крупных блоков

А сколько там сейчас можно надёжно найти? 5 байтов?

Что внутри?

В первую очередь, в глаза бросается

Выпаянный ионистор.

Это была слишком ленивая шутка, в оригинальной πFS искались смещения отдельных байтов вместо более крупных блоков. Если вместо того base-256 взять base-10, то вообще 33 цифр для всех смещений хватит: 3.14159265358979323846264338327950

а Xeon на сборках "игровая" не надо

Поэтому и не предлагают. Даже свежие 12P+0E на LGA1700 не предлагают.

Как они решили проблему с огромными массивами памяти прямо на чипе?

Никак, 48 КБ SRAM у каждого ядра, итого 44 ГБ, если сложить.

Задержка eDRAM была выше, чем у SRAM-кэшей, но в несколько раз ниже, чем у обычной DDR3/DDR4, и для графических задач вроде монтажа фильмов и тяжелого рендера, где рабочий набор текстур легко превышал десятки мегабайт, выигрыш был ощутимым, порядка x2-x3 при перемонтаже фильмов, что во временном исчислении превращало обработку из 12-14 часов на 2 часовой фильм всего в несколько часов.

Но ведь этого не было.

Задержка отличалась от оперативки в полтора раза (3dnews) или ближе к двум (chipsandcheese), на бенчмарках eDRAM особо не отражалась (ускорение монтажа в 2-3 раза - citation needed) и было понятно, что она подпирает встроенную графику, которой пропускной способности не хватало, но и больше двух каналов DDR в потребительское железо ставить нехорошо (Apple не знает). В "серьёзных" процессорах eDRAM не было (Xeon E5 и HEDT, сделанные из них).

На следующем этапе производительная графика стала приобретаться у AMD, которая решала проблему ПСП через HBM2. Были такие гибриды - Kaby Lake G с тремя кристаллами (процессор от Intel, GPU от AMD и HBM2).

те же eDRAM и HBM дают в 3–5 раз меньшую задержку, чем DDR5, при разумной стоимости

130 нс у Xeon Max, то есть в два с лишним раза больше, чем у DDR5. Она про ПСП, не про задержки.

Параллельно похожий подход развивался в мире HBM (High Bandwidth Memory) ... представляет собой дополнительный кристалл SRAM

* DRAM, стопку кристаллов.

можно было бы построить цепочку «SRAM → EDRAM → HBM → L5? → DDR → NVM».

eDRAM здесь вроде ничего не даёт, её ставили до времён 3D-кэша (задержки&ПСП) и HBM (ПСП&объём), которая в общем-то тоже eDRAM (eDRAM в Haswell тоже была отдельным кристаллом на одной подложке с процессором).

Я бы такое нарисовал:
L1-L3 (SRAM, вкл. 3D V-Cache) → HBM & HBF* → DDR → CXL & SCM** → прочее

* флеш-память, которую хотят поставить в положение HBM и таким образом выжимать ПСП.

** раньше поводили рукой и говорили, что будет некий storage-class memory (то есть memory-class storage, исправлять было поздно*~), который по задержкам займёт место между DRAM и флешем. Но Optane с его 3D Xpoint умер, взлетел CXL (можно вспомнить старые RAMdisk'и на PCIe) и быстрый флеш от конкурентов живёт (Toshiba XL-FLASH) либо возрождается (Samsung Z-NAND).

*~ "I think I coined the term in a meeting in Almaden in early 2000s. But not long afterwards we were in a meeting with Stuart Parkin, and he said “we really should be calling it memory class storage!!” I think Stuart was right" - https://thememoryguy.com/what-exactly-is-storage-class-memory/

Дискретизация без алиасинга невозможна в принципе

Это не меняет тезисы и придирка не годится на фоне вашего "антиалиасинговый фильтр, обнуляющий спектр выше половины частоты дискретизации" или моего "выкидывает высокие частоты". Степени пренебрежимости пренебрежимо малых - это уход в сторону.

Все сигналы ограничены во времени, поэтому преобразование Фурье бесконечно по частоте.

Да, как бы мы не пытались учесть наличие звука перед и после фильма (например, добить дорожку нулями) - атмосферное давление всё равно потеряно.

То есть нет, атмосферное давление не входит в понятие звука. Видите, сами понятия сигналов складываются так, что интерес к бесконечным хвостам тоже бесконечно убывает и это компенсирует отклонения от теории.

Если сигнал прошел антиалиасинговый фильтр на 20 кГц

Нет, просто "сигнал прошёл ФНЧ", не "сигнал+шум прошли ФНЧ на стороне приёмника".

> ... потому что и сам процесс дискретизации-без-алиасинга ...

Процесс дискретизации реального сигнала без антиалиасингового фильтра...

Я написал "дискретизации-без-алиасинга", не "дискретизации-без-антиалиасинга".

Шум как случайный процесс фильтрами подавить можно, даже в ноль, но восстановить потерянную из-за его наложения информацию можно только с помощью помехоустойчивого кодирования, вводящего избыточность, понижающую скорость передачи в канале.

Казуистика в учёте шума в полосе, где заведомо нет сигнала (как в первом комментарии писал).

Допустим, есть аналоговый сигнал строго до 20 кГц (допустим, потому что ему пришлось пройти через идеальный ФНЧ - антиалиасинговый фильтр в вашей статье тоже идеальный). Если мы теперь возьмём Fs=40, 50, 60... кГц, то шум будет расти, но только если учитывать шум на >= 20 кГц, где заведомо нет сигнала.

Поэтому упоминаю Шеннона-Хартли, из которого могла пойти эта ошибка - там в базовом варианте подразумевается, что если выросла доступная полоса передачи вместе с её шумом, то изменился и сигнал - выросла полоса, занимаемая сигналом. А в продвинутом берётся интеграл, который учтёт, что SNR-в-полосе-без-сигнала не влияет на суммарный результат (f > 20kHz: log2(1+0/N(f)) == log2(1) == 0). Или что влияет слабо, если в той полосе сигнал ослаблен.

А если принять, что сигнал за 20 кГц есть и столь же важен, то возвращаемся к тому, что при его выкидывании* SNR будет расти (отсюда "И куда его? ... вряд ли найдётся применение"):

  • Если потом в цифре сделать downsampling (благо в цифре совершенство ФНЧ никуда явно не упирается), то SNR вырастет - мы возвращаем уничтоженную информацию?

* право на это есть, потому что и сам процесс дискретизации-без-алиасинга выкидывает высокие частоты начиная с некоторой.

А если принять, что после downsampling создаётся другой несравнимый сигнал, то это же придётся применить и к рассуждениям об алиасинге-как-погрешности в статье (upd: то есть антиалиасинге - о погрешности от частоты среза вот этого ФНЧ) - тоже другой несравнимый сигнал.

upd: а если придавать этому консистентный вид, то, видимо, к Шеннону-Хартли и придём, с дополнительными поправками. Вы говорите - радиосвязь, а в радиосвязи тоже не интересна передача сигналов с бесконечным спектром.

Так откуда анализатору знать

https://godbolt.org/z/dYd5xnbK5

Но вахтёрствовать и запрещать всё, конечно, легче/приятнее.

не бывает от 14 ТБ

Хм, ещё недавно было "от 12 ТБ", удешевление производства перескочило на ещё одну ступеньку ёмкости, потребление выросло из-за воздуха

в полтора-два раза.

По-моему, ошибочный

Ладно, не "по-моему, ошибочный", а эпичная стрельба в ногу, которая себя проявит при работе с вложенными массивами и вообще с JSON. Из-за этого в языке имеется трюк с @(...), с запятой, -NoEnumerate и -AsArray.

Write-Host @(cat .\b.txt)[0]

Нет, надо cat -lit из-за похожей грабли (без -LiteralPath нельзя использовать имена файлов, содержащие квадратные скобки). Сам писал о проблемах PowerShell тут: https://habr.com/ru/companies/ruvds/articles/832744/comments/#comment_27131528

Или вот разделить stdout и stderr без неофициальной документации от mklement0, размазанной по интернету, вряд ли получится:
$stdout, [string[]] $stderr = $stdoutAndErr.Where({ $_ -is [string] }, 'Split')

Это завязано на багофичу про то, что stderr имеет тип ErrorRecord и на недокументированный метод Where ("Unfortunately, these methods remain undocumented even today, almost a year since they were publicly released" - прошло ещё 12 лет).

но по факту нафиг не сдалось.

Южноамериканский регистратор сейчас продвигает IPv6 как "причина №1 для перехода на IPv6 - следы этих мерзавцев больше не смогут запутаться в провайдерском NAT'е".

Картинка

Это всё равно движение в верном направлении по сравнению с прошлыми шеллами и критики по делу там немного.

Set-StrictMode -Version 3.0
$ErrorActionPreference = 'Stop'

Дальше обсасывается поведение Write-Host (не Write-Output aka echo (полезное: gal -def write-output)) и не видят, что авторазворачивание массива из 1 элемента - общий принцип языка. По-моему, ошибочный, но всё равно к нему и к общей гибкости надо подстраиваться, а не переть напролом с бойлерплейтом: if ($f.GetType().Name -eq "Object[]") {....

Похоже, для единообразной обработки достаточно завернуть Get-Content в массив через @(...): Write-Host @(cat .\b.txt)[0]. На имеющийся массив это @(...) не повлияет из-за авторазворачивания, принудительно массив-из-одного-массива создавался бы через запятую перед элементом, отлаживается фигня через вывод ConvertTo-Json ... , например.

Есть единообразное "всегда получать строку, без разбиения на массив по переносам": cat -Raw.

Write-Host переваривает $null.

И с помощью чего тогда фокусируется лазер в точке разогрева?

С помощью NFT. Возможно, золотого леденца. А говорили, что NFT - скам.

Какие NFT

Near-Field Transducers For Focusing Light
https://patents.google.com/patent/US20100123965A1/en

a particular NFT example called “lollipop” shown in Fig. 2. The lollipop NFT [2], [4] is lithographically patterned in a thin gold film with a thickness of 25 nm.
https://www.researchgate.net/publication/258793330

most important milestones in application of plasmonic nanoantennas will be the arrival of Seagate’s latest hard disk drive that is expected to hit the market in 2013 [задержалось лет на 12 [а, да - вот эту задержку - видимо, из-за низкой надёжности прототипов - в копилку к настоящим вопросам рядом к замалчиванию наличия HAMR]]. It will utilize the quadrupole mode of a 70 nm gold sphere for heat-assisted magnetic recording
https://scispace.com/pdf/hybrid-plasmonic-nanoantennas-fabrication-characterization-2luayk3ynb.pdf

В стиле маркетологов продающих слона "Когда сядет лазер, то HDD просто не сможет писать."?

Ну так данные дороже диска и если они не пострадают и останутся доступными - это прекрасно.

К примеру заявляемый ресурс обычных HDD производителями заявляется трем годам круглосуточной работы (26280 часов).

Так не модно, Seagate сейчас разрешает записать диск 1 раз и прочитать 12 раз (главное, чтобы в сумме 13), без гелиев и HAMR.

ST8000DM004 (pdf)
Workload Rate Limit (TB/Year): 55
Limited Warranty (years): 2

55 ТБ * 2 / 8 ТБ = 13.75

Предыдущей бредовой цифрой у производителей HDD было "Nonrecoverable Read Errors per Bits".

Это я даже не касаюсь темы гелия в боксе.

Это правильно, воздушных HDD не бывает от 14 ТБ, а тут в 3.14 раз больше. Кстати, Helium хорошо сочетается с NFT. Это как Meklon про хлеб для хабра писал, а в хлебе ведь есть сети, только не компьютерные (gluten network).

В статье описывается общий подход к теореме Котельникова, не привязанный конкретно к обработке звука.
...
SNR - это параметр канала связи ... помехоустойчивое кодирование

А где этот канал связи у DSD, камеры Xiaomi и выпрямленной синусоиды? В статье описывается частный... нет, там вообще Шеннон-Хартли-ALT0105-Котельников.

Если антиалиасинговым фильтром отрезать возрастающий спектр, потери информации увеличатся.

Но отклонение в статье уменьшается, потому что обрезаемый спектр убывает с частотой.

Вы взяли теорему Шеннона-Хартли, забыли часть про спектр SNR (wiki - Shannon–Hartley_theorem - where ... S/N is not constant with frequency over the bandwidth) и как-то это всё к Котельникову изолентой...

Именно этот вариант и рассматривается. Шум приходит с сигналом, но нужен только сигнал. Мощность фиксируемого шума пропорциональна ширине спектра, которая попадает в обработку.

И где Котельников? Здесь Шеннон-Хартли, которому нет дела до вещей за пределами "фиксированная мощность передатчика (где он?) на всю полосу пропускания B (не больше, не меньше - речь не о звуке, не о DSD, не о выпрямленных синусоидах), зашумлённый канал связи, сколько можем передать битов в секунду (с некой оптимальной модуляцией)".

Поэтому естественное желание - уменьшить потери от шума. Для этого необходимо уменьшить полосу антиалиасингового фильтра.

Так шум после дискретизации прекрасно убирается. У вас он не убирается, потому что в Шенноне-Хартли не работают с имеющимися сигналами, а расширяют сигнал на всю доступную полосу.

тратить деньги на частоту дискретизации, превышающую удвоенную полосу фильтра не имеет смысла.

АЦП так не работают, а как вы собираетесь дискретизировать без АЦП? То есть вы совсем про работу АЦП не знаете? Сигма-дельта, зачем там оверсемплинг...

Речь идет о том, что у реальных сигналов спектр неограничен, поэтому для полного восстановления сигнала нас интересует бесконечный диапазон частот.

  1. Это другое.

  2. Этим нельзя пренебречь в редких случаях - например, аудиодорожка фильма не сможет сохранить частоты ниже 200 микрогерц (ну, 1/(1.5 часа))

увеличивая диапазон дискретизируемых частот, можно уменьшить объем получаемой информации

  • Если потом в цифре сделать downsampling (благо в цифре совершенство ФНЧ никуда явно не упирается), то SNR вырастет - мы возвращаем уничтоженную информацию?

  • А если взять сигнал с возрастающим спектром вместо убывающего как у вас, объём информации станет увеличиваться вместо уменьшения?

  • Если шум приходит в наш дискретизатор извне, то чем он не часть сигнала?

  • Если мы не пренебрегаем бесконечностью спектра (не вводим понятие интересующей нас полосы), то сигналы после ФНЧ с разной частотой среза - это разные сигналы, их нельзя сравнивать (сюда же пример с пластинкой - разница между сигналами качественная, не количественная).

Шум и сигнал существуют в привязке к полосе, ширина измеряемой полосы выбирается с каким-то смыслом ("звуковой диапазон") и после дискретизации (в цифре) имеется простор для манипуляций (может, нас интересует SNR не во всём слышимом диапазоне, а в 10 частотных интервалах по отдельности (гугл на "sub-band SNR" хорошо отзывается) или даже непрерывный спектр SNR).

А если ширину полосы выбрать без смысла, то смысла не будет.

Вот кто-то про сонары то же самое замечает:

SNR values quoted without reference to the bandwidth of the measurement system are highly misleading or even meaningless.

UPD: или вот этот трюк со слышимостью тонов с уровнем гораздо ниже шума квантования (слышимость тона на -115 дБ на 16 битах, например). SNR около -20 дБ, но слышно. Почему? Потому что это не тот SNR - это SNR по всему диапазону частот, а по узкой полосе вокруг тона (как работает ухо) SNR уже вполне положительный. То есть чтобы создать смысл - оценить реальную слышимость, мы должны считаться со спектром сигнала (1 синусоида, допустим) и с шириной зоны ушного спектроанализатора (сколько шума вокруг тона он захватит и с каким окном) и учесть это при вычислении SNR.

Information

Rating
2,324-th
Registered
Activity