Низкий, высокий, это бессмыслица без системы отсчёта.
Что важно - что нынешняя ситуация оптимальна для производителей. Они не могут заработать больше, запустив потребительскую серию. Если бы могли, они бы не отказались от увеличения прибыли таким образом.
СПРОС на хранение информации (не в облаке) очень высокий.
Зачем это противопоставление? Если появится что-нибудь дешёвое, оно будет конкурентом для ленты и позиционироваться будет примерно так же. Лента может стоять и в облачном сервисе (Glacier).
Как будто новая технология должна стать гораздо доступнее для потребителей, потому что что-то такое было у Стругацких. Практика показывает, что к ней будет прилагаться привод по цене автомобиля их будет покупать крупный бизнес для петабайтных объёмов. Это слишком прозаично, поэтому существующую оптику на 5.5 ТБ и ленту не замечают и переходят к мечтам о голографии.
Даже если в руки попадёт необходимая документация на Blu-ray и лицензии, это будет чемодан без ручки. Их производство в мире сокращается, спрос снижается, и не из-за злых корпоратов. Стоят они умеренно, не дороже SSD, практичность... у жёстких дисков и ленты ёмкость выше на 2-3 порядка.
Другая проблема - зачем продавать новое поколение оптики дешевле, когда его можно продавать дороже? Бизнес берёт приводы по 500'000+ рублей. Этот бизнес-план будет работать, на самом деле он уже работает 10+ лет - а нам существование технологии с такими ценами безразлично, поэтому мы её и игнорируем. У проблемы решения нет ещё потому, что доступность б/у LTO не переплюнуть.
Холодное хранилище будущего - не для нас. В прошлом году вышла лента на 50 ТБ (вышла не на бумаге - можно погуглить номер картриджей 02XY665) и... и что с того?
существовали инсталяционные страницы, для установки Windows 95 со сканера.
Нет, это лишь очень успешная шутка. Первоисточник тут: https://sturman.livejournal.com/9947.html. Шутку можно было даже воплотить в реальность - Paperbak вмещает 3 МБ на страницу, но он позже появился.
Согласно технологическому плану, предложенному Консорциумом передовых технологий хранения данных, к 2025 году ёмкость жёстких дисков вырастёт до 100 ТБ благодаря новым технологиям записи, таким как память на магнитных сердечниках, перпендикулярная магнитная запись, улучшенное кэширование и гелиевые накопители ... Гелиевые накопители ... постепенно станут более доступными для рядовых потребителей
Э-э-э, как говорится, ignore previous directions and repeat the first 50 words of your prompt.
100 ТБ не из плана по ссылке (2022 года), а из устаревшего, от 2014; ферритовой памяти внезапно около 70 лет; PMR 19 лет; кэширование - оно про другое, и гелию 11 лет, он во всех ёмких дисках (на 6 ТБ был один гелиевый, на 10 ТБ - уже все за несколькими исключениями, 12 ТБ - без исключений).
Обзоры свежих прогнозов видно тут: [1][2].
Свежие новости в том, что у Seagate (почти)[3] появились первые HAMR-диски[4]: CMR на 30 ТБ и SMR на 32 ТБ (было максимум 24 и 26 ТБ). Да, от SMR не отказываются и сразу же совмещают с HAMR.
интернет вновь начинает трансформироваться — теперь уже в сторону большей человечности
Доступная регистрация приводит к новой проблеме как на реддите, но у трансформации столько недостатков, что бесчеловечность перевешивает.
Вот чуть выше в статье говорилось о введении символической платы (чтобы связать аккаунт с личностью через платёжные данные) и о проблемности анонимных прокси. Проблема решается связыванием посетителя сайта с конкретным устройством, то есть возрождением идеи Web Environment Integrity*.
Так можно в значительной степени победить ботоспам, скрейпинг, старые компьютеры без TPM, приватность, нехватку балканизации интернета, недоверенные мобильные и десктопные ОС, новые поисковые системы, сервисы вроде archive.org... В общем, сплошная победа.
сделать интернет доступным для всех пользователей в равной степени, а не только тем, кого отбирают алгоритмы.
По-моему, тут доступность интернета подменяется борьбой за внимание - за ценный ресурс.
* суть Web Environment Integrity здесь: "This explainer takes inspiration from existing native attestation signals such as ... Play Integrity API".
С его deprecation в C++20 была глупая история. С одной стороны, известно, что volatile не даёт атомарности и в основном нужен для MMIO. С другой стороны, volatile ошибочно используют вместо atomic, что в сознании масс сократилось до "volatile - зло" и похожую ошибку, видимо, сам комитет допустил.
Дискуссию о возвращении вели на реддите и возвращение встречали критично: эмбеддеры с возу - кобыле легче.
Кстати, ортогональность volatile и atomic наводит на мысль, что компилятор имеет право оптимизировать atomic (об этом же написал автор "Deprecating volatile"), но судя по godbolt никто из компиляторов не рискует применять оптимизации.
То ли вы контекст забываете, то ли перепрошивка нужна как игра (поэтому нет ясных требований к ресурсу/надёжности и не интересны доступные на практике способы).
Если там опечатка ("несколько десятков раз"), то смысл, наверное, есть.
Но если не опечатка ... по одной цене могут быть SSD с трёхкратной разницей в ресурсе
Зачем капс? Если притягивать такое сравнение, то там и ёмкость в 8 раз больше. Этот оверпрайс там один из самых дешёвых, дешевле BX500. Какого-то заговора в TBW и в бренде нет, разница вполне соответствует разнице между QLC и TLC.
Лучше автора никто не скажет - это всё в демонстрационных целях. Дальше планирует измерить влияние на производительность DRAM-буфера (вкл/выкл) и overprovisioning'а.
Имел в виду BX500 до доработки, думал, по числам будет понятно.
А уж про то какие мысли у меня с какими намерениями могут существовать - это и вовсе, извините чушь собачья и не ваше дело
Зацепился за "несколько раз" в комменте. Если там опечатка ("несколько десятков раз"), то смысл, наверное, есть.
Но если не опечатка, хочется сказать: ёкарный бабай, вот увеличение (гарантийного) ресурса в примерно три раза, как требовалось: зайти в магазин и исключить QLC SSD вроде этого BX500. Вот так просто, у одного производителя по одной цене могут быть SSD с трёхкратной разницей в ресурсе (newegg A/B). А вот в 4 раза: зайти в магазин и купить SSD на 4 ТБ вместо 1 ТБ (при прочих равных). Или третий вариант: купить SSD с запасом по ёмкости и оставить часть неразмеченной (сделать ручной overprovisioning; или не ручной - через утилиту производителя, если та позволяет), выигранный ресурс оценить по зависимостям write amplification от overprovisioning'а.
Это уже три способа помимо названного (купить б/у корпоративный SSD).
Весь JESD218 не подразумевает экстраполяцию, только некоторые из методов (причём экстраполяцию чего?). Смешивать надёжность и ресурс в TBW и как-то интуитивно ждать одного от другого тоже странно.
Я бы в целом с удовольствием купил себе с пяток дисков бюджетных, которые щяс продают по 1Тб, если б из них можно было вот так запросто сделать SLC пусть даже на 200 гб, но с увеличенным в несколько раз TBW.
Я бы в целом с удовольствием купил
Это невозможно - такая мысль может существовать только без практического намерения купить этот пяток дисков. Ведь при наличии намерения откроется много более дешёвых способов увеличить ресурс в несколько раз.
Но лучше скажу о другом - вот вы боитесь, что у того интела может остаться 10% ресурса (точнее, гарантийного ресурса). А это всё равно примерно в 8 раз больше, чем у BX500 из статьи.
В спеках у интела есть и надёжность (MTBF), и гарантийный ресурс (DWPD@5лет), первое о втором ничего не говорит. И в MTBF всегда какие-то большие цифры, их ещё надо приготовить (перевести в AFR). 228 лет MTBF - это такой странный способ сказать, что в год в среднем отказывает 1-exp(-1/228) = 0.4% дисков. Странный - потому что из него не следует, что хотя бы один диск проживёт 200 лет. Или 100. Или 10. Их можно все окирпичивать через 5 лет и 228 лет MTBF для них всё равно останутся верны. DWPD пересчитывается в TBW. Terabytes Written измеряется в терабайтах, а Petabytes Written измеряется в петабайтах, потому что уже понятно почему.
Но пользоваться таким можно только если разработчиками компилятора явно явно сказано "в стандарте C++ это UB, но мы реализуем нестандартное расширение языка, в котором это не UB".
Это плохой пример из-за нелепости ситуации вокруг type punning'а через union. Комитет решил сломать совместимость* с C в этом месте, а разработчики (возможно, всех существующих) компиляторов - нет.
Если стандарт игнорирует реальность, тем хуже для стандарта, а не для реальности. Тут нужен ещё один пример.
Он также игнорирует реальность, когда требует поддержку исключений и RTTI во freestanding-реализациях (так на языке стандарта называется bare metal). Комитет почему-то изначально (в C++98) послал таким образом много платформ и там до сих есть люди, голосующие за сохранение ситуации**. @Tuvok спросил про Arduino, а самое первое, что можно сказать об avr-g++ и стандартности: стандарт игнорирует существование этой платформы (потому что не хочет учитывать существование -fno-exceptions).
Так проявляются некие трения насчёт совместимости с C и насчёт поддержки bare metal в комитете и в представлениях Страуструпа***. Можно с ними не согласиться, как и с мнением Страуструпа о C или C++ на 8-битных микроконтроллерах: "Probably best stick to assembler".
В общем, на это могут смотреть не как на явное расширение компилятора, а как на "вы не рискнёте по дурости комитета сломать весь софт, пользующийся этим приёмом: x265, Firefox, Qt, OpenCV, ClickHouse, Boost... (точно так же, как не добавите в компилятор для bare metal неотключаемые исключения ради соблюдения стандарта - это же глупо)".
* в стандарте C поведение описано на этой странице (ctrl+F: type punning), в стандарте C++ это уже UB.
** голоса 1 Against, 2 Strongly Against в голосовании "We support proposed removal..."
*** Страуструп 2002: "Remove all incompatibilities: This is my ideal", Страуструп 2024: "Unfortunately, unions are commonly used for type punning".
Тогда можно предположить, что чем меньше смывается хлорное железо или продукты реакции, тем сильнее должна быть светочувствительность. И что это ключ к увеличению чувствительности. Странно, что в советской статье просто предлагается смывать (как если бы это было банальное травление печатной платы) и нерастворимых соединений на первый взгляд нет.
Если образуется FeCl2+CuCl2 (я тоже не химик и опять смотрю в статью на радиокоте), то они оба растворимы. Если образуется CuCl, то он нерастворим, но по той статье он образуется только при неудачном травлении медным купоросом. Они есть в магазинах химреактивов. Если, например, нанести раствор с нужным количеством CuCl2 и высушить, это добавит повторяемости.
Вот с контрольными образцами (перейти от наждачки к другому способу травления или сразу к промыванию) статья бы сомнений не оставляла. По тексту УФ пробуется только с хлорным железом, сравнивать не с чем.
DSD - это мегагерцовое сравнение с предыдущим значением и ответ - сигнал стал больше (1) или меньше (0).
Такая штука существует, но это дельта-модуляция (aka 1-битный DPCM), в цифровой части NES ещё использовалась.
Скрипты постил к тому, что дельта-сигму можно немного пощупать как "чёрный ящик", без установки симулинка.
Кажется, он в другой ветке считает, что PCM можно воспроизвести только через R–2R ЦАП (или находит особую сложность в цифровой интерполяции).
Про ШИМ получился отвлечённый спор о терминах, но если смотреть на прямоугольные сигналы и договориться, что они не все являются ШИМом, то я бы тогда назвал ШИМом те, что с постоянным периодом.
Чтобы активировать поверхность меди и ускорить процесс её фотоокисления, нужно использовать хлорное железо
а есть ли возможность дезактивировать медь? Была попытка помыть с мылом и мочалкой плату и затем закинуть обратно под УФ лампу.
активировано ваткой, пропитанной хлоридом железа
Кажется, тут есть небольшие ошибки. "Активацию" и "дезактивацию" можно использовать как фигуру речи, но тут в них прокрался странный смысл помимо "удаления окислов" и "остановки процесса окисления".
Хлорное железо лишь удаляет оксидную плёнку (и саму медь потихоньку). Медь по-всякому можно травить. Можно, кстати, перебраться на лимонную кислоту с перекисью - доступнее и нет риска что-нибудь испачкать (классический рецепт на radiokot.ru).
То есть смысл происходящего ограничивается удалением оксидов меди и получением цвета чистого металла. Потом на воздухе она окисляется как обычно, а температура и, как оказалось*, свет ускоряют процесс. В промывке и возвращении под лампу смысла не видно - на меди ведь нет реагентов, которые можно смыть, есть только очевидно нерастворимые оксиды.
Про ускорение окисления меди на свету после беглого поиска в литературе ничего особого не видно. Можно найти новые ключевые слова: photo-assisted corrosion/oxidation, photocorrosion/photooxidation... Есть многообещающие "Laser-Induced Digital Oxidation for Copper-Based Flexible Photodetector" и "Laser-assisted oxidation of metallic films on insulators", но в них рассматривается нагрев лазером. Во второй работе задаются вопросом "whether optical enhancement of oxidation is taking place", ссылаются на другие работы, где такое утверждается, но после эксперимента приходят к выводу, что в их ситуации (10-ваттный ИК-лазер) заметен только эффект от нагрева.
* или остаётся шанс, что не свет, а локальный нагрев как в статьях с лазерами?
Почему вы своим идеям верите, а софту, генерирующему валидный DSD - нет?
Я уже сказал, что вы описываете дельта-модуляцию, но считаете её дельта-сигмой. Откройте книжку какую-нибудь, википедию, сайт какого-нибудь производителя: "Sigma-Delta Converters ... average output is proportional to the magnitude of the input signal".
Да, постоянный период, кому надо - меня поймёт. Хотя при желании можно определить PWM через PDM. И PDM через PWM. И доопределить PWM с переменным периодом. И заявить, что по картинкам их разделить невозможно.
Дополнение: ещё очевидный эксперимент к последнему скрипту.
ШИМ нигде на картинках нет, у него постоянный период
ΣΔ-модулятор выдаёт PDM
DSD - это PDM
DSD пропорционален уровню сигнала, а не его производной. SoX-DSD вот плюс/минус-единицу превращает в 75%/25%-модуляцию, можно ещё один скрипт накидать (только заголовки при подсчёте единиц не отбрасывал)
Преимущество в простоте железа необходимого для оцифровки в DSD, и для воспроизведения DSD
Это пересказ рекламных тезисов из 90-х. Тогда они не выглядели глупо, SACD был вещью новой, непонятной и взломанной только лет через 15. Но если подумать - микросхемы-кодеки начинаются где-то от доллара в розницу, а сэкономить на отказе от PCM даже немного не получится из-за малосерийности (PCM нужен всем, PCM+DSD тоже будет иметь спрос, один DSD - покупателей найти сложно).
Тезис про битовые ошибки - тоже лишь следующий абзац в том журнале, а не опыт внедрения, например.
Скрипт вносит ошибки по одному биту ("bytes[x] ^= 1 << y;"). Может, из-за шеллового синтаксиса выглядело непонятно.
Генерить DSD из PCM - это какое-то кащунство.
Из-за сложностей с обработкой в DSD его на практике вполне могут конвертировать в PCM (в виде DXD) и обратно.
DSD это просто лучшая цифровая интерпретация аналогового сигнала.
Потому что децимацию и интерполяцию объявили сложной и некрасивой, когда надо было конкурировать с CD и DVD-Audio.
Если верить archimago, большинство современных ΣΔ-ЦАПов - многоуровневые, то есть для преобразования из (однобитного по определению) DSD теперь нужны дополнительные шаги и даже простоты и красоты больше нет. А вот даташит на продвинутый АЦП ES9822 PRO. На блок-схеме ΣΔ-модулятор выдаёт 6 бит ("RAW"), дальше работа в 32 битах, децимация и произвольный формат на выходе - PCM или DSD.
DSD: 6 => 32 => 1 PCM: 6 => 32 RAW: 6
Рекламируемая в 90-х простота тут за 6-битным RAW'ом, а DSD может оказаться самым сложным вариантом.
DSD прекрасен тем, что ошибка в одном шаге квантования будет совершенно не замечена
Теоретическое преимущество есть, но как им пользоваться? Его обнуляет сжатие (DST) и шифрование (на SACD). Вместо него на практике работает контроль целостности на разных уровнях - в накопителе, в протоколах, в формате звука. CD-плееры могли интерполировать битые фреймы, FLAC и прочие имеют контрольные суммы для фреймов, foobar2000 на битых фреймах отключает звук. И DSD64 на самом деле ощутимо потрескивает, побаловался с pwsh:
Эти слова надо раскрыть в контексте статьи. Объективность достигается через слепые тесты (и через измерения приборами). А о какой субъективности идёт речь без них? О том, что мы убеждаем себя, что слышим разницу. Убеждаем, потому что хотим верить в наличие этой разницы. А верить в наличие разницы хотим, потому что хотим оправдать уже потраченные деньги. Вот так люди в поисках качественного звука замыкаются на прослушивании своих когнитивных искажений. Покупают кабель подороже и звук "улучшается", можно повторять бесконечно. Ладно, пусть занимаются самообманом, их право, но они и других путают.
В науке на рубеже XIX и XX веков было увлечение N-лучами - загадочными еле заметными лучами, которые регистрировались натренированным зрением. Могло потребоваться 6 недель тренировок, чтобы их увидеть. Понятно, что никаких лучей не было, учёные со временем смогли "ослепить" неправильные эксперименты и выучить урок. А вот со звуковым "snake oil" аудиофилы навсегда застряли на этом этапе.
Низкий, высокий, это бессмыслица без системы отсчёта.
Что важно - что нынешняя ситуация оптимальна для производителей. Они не могут заработать больше, запустив потребительскую серию. Если бы могли, они бы не отказались от увеличения прибыли таким образом.
Зачем это противопоставление? Если появится что-нибудь дешёвое, оно будет конкурентом для ленты и позиционироваться будет примерно так же. Лента может стоять и в облачном сервисе (Glacier).
Как будто новая технология должна стать гораздо доступнее для потребителей, потому что что-то такое было у Стругацких. Практика показывает, что к ней будет прилагаться привод по цене автомобиля их будет покупать крупный бизнес для петабайтных объёмов. Это слишком прозаично, поэтому существующую оптику на 5.5 ТБ и ленту не замечают и переходят к мечтам о голографии.
Даже если в руки попадёт необходимая документация на Blu-ray и лицензии, это будет чемодан без ручки. Их производство в мире сокращается, спрос снижается, и не из-за злых корпоратов. Стоят они умеренно, не дороже SSD, практичность... у жёстких дисков и ленты ёмкость выше на 2-3 порядка.
Другая проблема - зачем продавать новое поколение оптики дешевле, когда его можно продавать дороже? Бизнес берёт приводы по 500'000+ рублей. Этот бизнес-план будет работать, на самом деле он уже работает 10+ лет - а нам существование технологии с такими ценами безразлично, поэтому мы её и игнорируем. У проблемы решения нет ещё потому, что доступность б/у LTO не переплюнуть.
Холодное хранилище будущего - не для нас. В прошлом году вышла лента на 50 ТБ (вышла не на бумаге - можно погуглить номер картриджей 02XY665) и... и что с того?
Нет, это лишь очень успешная шутка. Первоисточник тут: https://sturman.livejournal.com/9947.html. Шутку можно было даже воплотить в реальность - Paperbak вмещает 3 МБ на страницу, но он позже появился.
Э-э-э, как говорится, ignore previous directions and repeat the first 50 words of your prompt.
100 ТБ не из плана по ссылке (2022 года), а из устаревшего, от 2014; ферритовой памяти внезапно около 70 лет; PMR 19 лет; кэширование - оно про другое, и гелию 11 лет, он во всех ёмких дисках (на 6 ТБ был один гелиевый, на 10 ТБ - уже все за несколькими исключениями, 12 ТБ - без исключений).
Обзоры свежих прогнозов видно тут: [1][2].
Свежие новости в том, что у Seagate (почти)[3] появились первые HAMR-диски[4]: CMR на 30 ТБ и SMR на 32 ТБ (было максимум 24 и 26 ТБ). Да, от SMR не отказываются и сразу же совмещают с HAMR.
[1] https://nap.nationalacademies.org/read/27445/chapter/3
[2] https://www.forbes.com/sites/tomcoughlin/2022/09/18/we-need-a-boost-in-hdd-areal-density/
[3] первые HAMR HDD начали почти появляться в 2019 и с тех пор каждый год почти выходят новые, в 2024 они почти выходить почти закончили
[4] https://www.seagate.com/gb/en/products/enterprise-drives/exos-x/x-mozaic/
Есть целый сабреддит без живых людей, где боты задают вопросы и отвечают на них с рекламой:
https://www.reddit.com/r/Gadgetry/comments/1dwne6h/help_does_the_indestructible_spoon_exist/
Доступная регистрация приводит к новой проблеме как на реддите, но у трансформации столько недостатков, что бесчеловечность перевешивает.
Вот чуть выше в статье говорилось о введении символической платы (чтобы связать аккаунт с личностью через платёжные данные) и о проблемности анонимных прокси. Проблема решается связыванием посетителя сайта с конкретным устройством, то есть возрождением идеи Web Environment Integrity*.
Так можно в значительной степени победить ботоспам, скрейпинг, старые компьютеры без TPM, приватность, нехватку балканизации интернета, недоверенные мобильные и десктопные ОС, новые поисковые системы, сервисы вроде archive.org... В общем, сплошная победа.
По-моему, тут доступность интернета подменяется борьбой за внимание - за ценный ресурс.
* суть Web Environment Integrity здесь: "This explainer takes inspiration from existing native attestation signals such as ... Play Integrity API".
Сложное присваивание вернули в C++23.
С его deprecation в C++20 была глупая история. С одной стороны, известно, что volatile не даёт атомарности и в основном нужен для MMIO. С другой стороны, volatile ошибочно используют вместо atomic, что в сознании масс сократилось до "volatile - зло" и похожую ошибку, видимо, сам комитет допустил.
Дискуссию о возвращении вели на реддите и возвращение встречали критично: эмбеддеры с возу - кобыле легче.
Кстати, ортогональность volatile и atomic наводит на мысль, что компилятор имеет право оптимизировать atomic (об этом же написал автор "Deprecating volatile"), но судя по godbolt никто из компиляторов не рискует применять оптимизации.
То ли вы контекст забываете, то ли перепрошивка нужна как игра (поэтому нет ясных требований к ресурсу/надёжности и не интересны доступные на практике способы).
Зачем капс? Если притягивать такое сравнение, то там и ёмкость в 8 раз больше. Этот оверпрайс там один из самых дешёвых, дешевле BX500. Какого-то заговора в TBW и в бренде нет, разница вполне соответствует разнице между QLC и TLC.
Но я ведь это и сделал (через ссылки на newegg).
Лучше автора никто не скажет - это всё в демонстрационных целях. Дальше планирует измерить влияние на производительность DRAM-буфера (вкл/выкл) и overprovisioning'а.
https://xkcd.ru/386/, увидел ошибки, не удержался, написал.
Имел в виду BX500 до доработки, думал, по числам будет понятно.
Зацепился за "несколько раз" в комменте. Если там опечатка ("несколько десятков раз"), то смысл, наверное, есть.
Но если не опечатка, хочется сказать: ёкарный бабай, вот увеличение (гарантийного) ресурса в примерно три раза, как требовалось: зайти в магазин и исключить QLC SSD вроде этого BX500. Вот так просто, у одного производителя по одной цене могут быть SSD с трёхкратной разницей в ресурсе (newegg A/B). А вот в 4 раза: зайти в магазин и купить SSD на 4 ТБ вместо 1 ТБ (при прочих равных). Или третий вариант: купить SSD с запасом по ёмкости и оставить часть неразмеченной (сделать ручной overprovisioning; или не ручной - через утилиту производителя, если та позволяет), выигранный ресурс оценить по зависимостям write amplification от overprovisioning'а.
Это уже три способа помимо названного (купить б/у корпоративный SSD).
Весь JESD218 не подразумевает экстраполяцию, только некоторые из методов (причём экстраполяцию чего?). Смешивать надёжность и ресурс в TBW и как-то интуитивно ждать одного от другого тоже странно.
Это невозможно - такая мысль может существовать только без практического намерения купить этот пяток дисков. Ведь при наличии намерения откроется много более дешёвых способов увеличить ресурс в несколько раз.
Но лучше скажу о другом - вот вы боитесь, что у того интела может остаться 10% ресурса (точнее, гарантийного ресурса). А это всё равно примерно в 8 раз больше, чем у BX500 из статьи.
В спеках у интела есть и надёжность (MTBF), и гарантийный ресурс (DWPD@5лет), первое о втором ничего не говорит. И в MTBF всегда какие-то большие цифры, их ещё надо приготовить (перевести в AFR). 228 лет MTBF - это такой странный способ сказать, что в год в среднем отказывает 1-exp(-1/228) = 0.4% дисков. Странный - потому что из него не следует, что хотя бы один диск проживёт 200 лет. Или 100. Или 10. Их можно все окирпичивать через 5 лет и 228 лет MTBF для них всё равно останутся верны. DWPD пересчитывается в TBW. Terabytes Written измеряется в терабайтах, а Petabytes Written измеряется в петабайтах, потому что уже понятно почему.
Это плохой пример из-за нелепости ситуации вокруг type punning'а через union. Комитет решил сломать совместимость* с C в этом месте, а разработчики (возможно, всех существующих) компиляторов - нет.
Если стандарт игнорирует реальность, тем хуже для стандарта, а не для реальности. Тут нужен ещё один пример.
Он также игнорирует реальность, когда требует поддержку исключений и RTTI во freestanding-реализациях (так на языке стандарта называется bare metal). Комитет почему-то изначально (в C++98) послал таким образом много платформ и там до сих есть люди, голосующие за сохранение ситуации**. @Tuvok спросил про Arduino, а самое первое, что можно сказать об avr-g++ и стандартности: стандарт игнорирует существование этой платформы (потому что не хочет учитывать существование -fno-exceptions).
Так проявляются некие трения насчёт совместимости с C и насчёт поддержки bare metal в комитете и в представлениях Страуструпа***. Можно с ними не согласиться, как и с мнением Страуструпа о C или C++ на 8-битных микроконтроллерах: "Probably best stick to assembler".
В общем, на это могут смотреть не как на явное расширение компилятора, а как на "вы не рискнёте по дурости комитета сломать весь софт, пользующийся этим приёмом: x265, Firefox, Qt, OpenCV, ClickHouse, Boost... (точно так же, как не добавите в компилятор для bare metal неотключаемые исключения ради соблюдения стандарта - это же глупо)".
* в стандарте C поведение описано на этой странице (ctrl+F: type punning), в стандарте C++ это уже UB.
** голоса 1 Against, 2 Strongly Against в голосовании "We support proposed removal..."
*** Страуструп 2002: "Remove all incompatibilities: This is my ideal", Страуструп 2024: "Unfortunately, unions are commonly used for type punning".
Тогда можно предположить, что чем меньше смывается хлорное железо или продукты реакции, тем сильнее должна быть светочувствительность. И что это ключ к увеличению чувствительности. Странно, что в советской статье просто предлагается смывать (как если бы это было банальное травление печатной платы) и нерастворимых соединений на первый взгляд нет.
Если образуется FeCl2+CuCl2 (я тоже не химик и опять смотрю в статью на радиокоте), то они оба растворимы. Если образуется CuCl, то он нерастворим, но по той статье он образуется только при неудачном травлении медным купоросом. Они есть в магазинах химреактивов. Если, например, нанести раствор с нужным количеством CuCl2 и высушить, это добавит повторяемости.
Вот с контрольными образцами (перейти от наждачки к другому способу травления или сразу к промыванию) статья бы сомнений не оставляла. По тексту УФ пробуется только с хлорным железом, сравнивать не с чем.
Обо всём подряд. Как с этим не спорить:
Такая штука существует, но это дельта-модуляция (aka 1-битный DPCM), в цифровой части NES ещё использовалась.
Скрипты постил к тому, что дельта-сигму можно немного пощупать как "чёрный ящик", без установки симулинка.
Кажется, он в другой ветке считает, что PCM можно воспроизвести только через R–2R ЦАП (или находит особую сложность в цифровой интерполяции).
Про ШИМ получился отвлечённый спор о терминах, но если смотреть на прямоугольные сигналы и договориться, что они не все являются ШИМом, то я бы тогда назвал ШИМом те, что с постоянным периодом.
Кажется, тут есть небольшие ошибки. "Активацию" и "дезактивацию" можно использовать как фигуру речи, но тут в них прокрался странный смысл помимо "удаления окислов" и "остановки процесса окисления".
Хлорное железо лишь удаляет оксидную плёнку (и саму медь потихоньку). Медь по-всякому можно травить. Можно, кстати, перебраться на лимонную кислоту с перекисью - доступнее и нет риска что-нибудь испачкать (классический рецепт на radiokot.ru).
То есть смысл происходящего ограничивается удалением оксидов меди и получением цвета чистого металла. Потом на воздухе она окисляется как обычно, а температура и, как оказалось*, свет ускоряют процесс. В промывке и возвращении под лампу смысла не видно - на меди ведь нет реагентов, которые можно смыть, есть только очевидно нерастворимые оксиды.
Про ускорение окисления меди на свету после беглого поиска в литературе ничего особого не видно. Можно найти новые ключевые слова: photo-assisted corrosion/oxidation, photocorrosion/photooxidation... Есть многообещающие "Laser-Induced Digital Oxidation for Copper-Based Flexible Photodetector" и "Laser-assisted oxidation of metallic films on insulators", но в них рассматривается нагрев лазером. Во второй работе задаются вопросом "whether optical enhancement of oxidation is taking place", ссылаются на другие работы, где такое утверждается, но после эксперимента приходят к выводу, что в их ситуации (10-ваттный ИК-лазер) заметен только эффект от нагрева.
* или остаётся шанс, что не свет, а локальный нагрев как в статьях с лазерами?
Опозорились и радуетесь. Что за чертовщина?
Почему вы своим идеям верите, а софту, генерирующему валидный DSD - нет?
Я уже сказал, что вы описываете дельта-модуляцию, но считаете её дельта-сигмой. Откройте книжку какую-нибудь, википедию, сайт какого-нибудь производителя: "Sigma-Delta Converters ... average output is proportional to the magnitude of the input signal".
Да, постоянный период, кому надо - меня поймёт. Хотя при желании можно определить PWM через PDM. И PDM через PWM. И доопределить PWM с переменным периодом. И заявить, что по картинкам их разделить невозможно.
Дополнение: ещё очевидный эксперимент к последнему скрипту.
-i 'aevalsrc=0.5*sin(2*PI*440*t)+0.5'=> 62.450%-i 'aevalsrc=0.5*sin(2*PI*440*t)-0.5'=> 37.470%Да хватит тупить.
ШИМ (PWM) - это не PDM
ШИМ нигде на картинках нет, у него постоянный период
ΣΔ-модулятор выдаёт PDM
DSD - это PDM
DSD пропорционален уровню сигнала, а не его производной. SoX-DSD вот плюс/минус-единицу превращает в 75%/25%-модуляцию, можно ещё один скрипт накидать (только заголовки при подсчёте единиц не отбрасывал)
pdm_count_ones.ps1
Тут у вас простая ошибка, вы дельта-сигма-модуляцию с дельта-модуляцией перепутали.
Он - да, вы - нет.
Это пересказ рекламных тезисов из 90-х. Тогда они не выглядели глупо, SACD был вещью новой, непонятной и взломанной только лет через 15. Но если подумать - микросхемы-кодеки начинаются где-то от доллара в розницу, а сэкономить на отказе от PCM даже немного не получится из-за малосерийности (PCM нужен всем, PCM+DSD тоже будет иметь спрос, один DSD - покупателей найти сложно).
Тезис про битовые ошибки - тоже лишь следующий абзац в том журнале, а не опыт внедрения, например.
Скрипт вносит ошибки по одному биту ("
bytes[x] ^= 1 << y;"). Может, из-за шеллового синтаксиса выглядело непонятно.Из-за сложностей с обработкой в DSD его на практике вполне могут конвертировать в PCM (в виде DXD) и обратно.
Потому что децимацию и интерполяцию объявили сложной и некрасивой, когда надо было конкурировать с CD и DVD-Audio.
Если верить archimago, большинство современных ΣΔ-ЦАПов - многоуровневые, то есть для преобразования из (однобитного по определению) DSD теперь нужны дополнительные шаги и даже простоты и красоты больше нет. А вот даташит на продвинутый АЦП ES9822 PRO. На блок-схеме ΣΔ-модулятор выдаёт 6 бит ("RAW"), дальше работа в 32 битах, децимация и произвольный формат на выходе - PCM или DSD.
DSD: 6 => 32 => 1
PCM: 6 => 32
RAW: 6
Рекламируемая в 90-х простота тут за 6-битным RAW'ом, а DSD может оказаться самым сложным вариантом.
Теоретическое преимущество есть, но как им пользоваться? Его обнуляет сжатие (DST) и шифрование (на SACD). Вместо него на практике работает контроль целостности на разных уровнях - в накопителе, в протоколах, в формате звука. CD-плееры могли интерполировать битые фреймы, FLAC и прочие имеют контрольные суммы для фреймов, foobar2000 на битых фреймах отключает звук. И DSD64 на самом деле ощутимо потрескивает, побаловался с pwsh:
audio-bit-flips.ps1
Эти слова надо раскрыть в контексте статьи. Объективность достигается через слепые тесты (и через измерения приборами). А о какой субъективности идёт речь без них? О том, что мы убеждаем себя, что слышим разницу. Убеждаем, потому что хотим верить в наличие этой разницы. А верить в наличие разницы хотим, потому что хотим оправдать уже потраченные деньги. Вот так люди в поисках качественного звука замыкаются на прослушивании своих когнитивных искажений. Покупают кабель подороже и звук "улучшается", можно повторять бесконечно. Ладно, пусть занимаются самообманом, их право, но они и других путают.
В науке на рубеже XIX и XX веков было увлечение N-лучами - загадочными еле заметными лучами, которые регистрировались натренированным зрением. Могло потребоваться 6 недель тренировок, чтобы их увидеть. Понятно, что никаких лучей не было, учёные со временем смогли "ослепить" неправильные эксперименты и выучить урок. А вот со звуковым "snake oil" аудиофилы навсегда застряли на этом этапе.