Обычные мыши переносят мышиную лихорадку. Имел "удачу" переболеть. Так вот, без лечения смертность 50%, а с лечением только 10%. Этот ваш птичий грипп, со всеми его мутациями и опасностями, просто нервно курит в сторонке - ответственно заявляю. И вирусу мышиной лихорадки не потребуется устойчивость к температуре, чтобы убить вас.
В течении месяца, я чувствовал себя все хуже и хуже, несмотря на лечение в инфекционной больнице. Был момент, когда я уже не мог самостоятельно встать, и тогда я подумал:-"ну вот, всё, по видимому это так и происходит, иногда разумность человека не так важна, как голый "звериный" иммунитет и видимо так люди и проигрывают вирусам". Кстати, температура тогда как раз перевалила за 41 и уже не сбивалась ничем. Так что опасаться виртуальной угрозы, в то время как реальная вот она тут, прямо у нас под ногами и познакомиться с ней может любой спустившись в подвал старого дома с мышами.
Что интересно, терапевты не могут отличить мышиную лихорадку от гриппа или любого другого ОРВИ и до последнего лечат как от гриппа, а пациенту все хуже и хуже. В конце концов, как правило, понимая что жить осталось не много, а ощущения там очень отчетливо намекают на это, самовольно едут в инфекционную больницу. Меня терапевт отговаривала, и не дала направление и я самовольно поехал в инфекционку. Там ли нужно искать и искоренять, возможно, не существующую угрозу?
Я когда читаю про то как ученые исследуют птичий грипп, у меня создаётся впечатление, что кто-то как раз наоборот видит некую перспективность этого свойство птичьего гриппа - приспособленность к высоким температурам. У человека же температура как раз во время болезни повышается до нормальной для птичьего тела температуры. Да всё никак не получается этот "волшебный" ген приспособить куда-нибудь... (интересно куда?).
Но давайте включим логику. Почему же обычные вирусы, давно не получили этот ген устойчивости к птичьим температурам? Смею предположить, что кроме устойчивости к температуре, этот ген может ослаблять саму приспособляемость вируса к человеческому организму, по этому никто им не болеет так как болеют мышиной лихорадкой. Мы и наши предки, начиная с каких-то доисторических белок предшественников обезьян сколько десятков миллионов лет на одной планете с птицами живём? Уж за это время вирусы имели возможность обменяться любыми наборами генов во всех возможных комбинациях и не один раз и до сих пор птичий грипп специализируется именно на птицах.
Иногда горения может быть инициировано без нагрева, напрямую поглощением фотонов с энергией выше необходимой для активации цепной химической реакции. Есть хороший опыт, шарик со смесью газов облучают красным светом - ничего не происходит, затем освещают синим светом, газовая смесь взрывается, т.к. энергия у фотонов синего света больше и уже достаточна.
Если используется этот эффект, то луч лазера будет поджигать смесь на всём своём пути, а не только в точке фокусировки.
Намного больше движений головки, при большом количестве случайной перезаписи данных и ресурс механики быстро снижается. По факту такие диски служат намного меньше.
Речь идет о разряде ячеек, работающие производят их периодическую регенерацию, но это изнашивает накопитель. Слышал, что серверные nvme особенно быстро теряют заряд, но не знаю правда это или нет, якобы за 3 месяца без питания начинаются потери данных. И якобы optane почти не подвержен этому эффекту, и у них потеря данных может начать происходить через десяток лет. Тоже не проверял.
Можно многослойные чипы делать с распределенным жидкостнвм охлаждением, можно интегрировать вычислительные ядра прямо в чипы памяти, может быть, и ещё что-то можно придумать.
Углекислого газа, по массе, не так уж и много. Интересно, можно ли его химически связывать вместо проветривания? Кислорода в воздухе 20% и от уменьшения его на 0.5% за сутки, думаю, ничего плохого не будет.
Удивительно, все говорят: "надо пойти подышать кислородом", а кислород тут вообще непричем, проблема в углекислрм газе.
Более того, и затормозить она не сможет, т.к. те условные пару кг (а скорее всего намного меньше) которые она скушает никак не повлияют на её траекторию, так что она пролетит Землю насквозь. Не возможно упасть на Землю не имея возможности торможения.
Не понимаю о какой ударной волне говорят про ЧД пикометрового или нанометрового размера? Ударная волна шириной в 1 атом?
По тому, что ваше "шустрят" по факту является удовлетворительным результатам. Проверить просто: берете скрипт, для простоты обновление или какую-нибудь эталонную последовательность действий и запускаете у себя, где 300 баз "шустрят", а потом запускаете то же самое на amd ryzen 9950x3d, 2 планки памяти 6000+ MT/S, optane 4800X с аппаратным форматом 4К и без виртуализации в 1 поток. Ну и какова разница в замерах? Скрипт отрабатывает в разы быстрее - вот это верх шкалы.
Насколько я помню, Гилёв делал этот тест именно для измерения конкретных узких мест оборудования. И до сих пор он показывает эти узкие места.
Но в нормах права нигде не указанно как именно их можно применять, а как нет. По этому, ничто не мешает применять их как угодно, например, повышать статистику по посадкам, если где-то потребуют повысить: просто сажать всех подряд, подобно тому, как камеры штрафы выписывают машинам на эвакуаторе или когда тень от авто пересекает сплошную линию.
Я почему пример со штрафами привел, известно, что добровольно их не отменяют, нужно судиться. Совсем недавно такой случай обсуждали, там водителя оштрафовали за то что он вынуждено стоял в пробке, а его оштрафовали за остановку в неположенном месте. По уму бы нужно было отменить, но этого не произошло по его запросу, ему отказали.
Не вижу причин не воспользоваться удобной конструкцией в законе чтобы решить сиюминутные проблемы конкретного предохранителя, используя эту норму не для "специально таких случаев", а для любых, которые формально хоть как-то подходят.
А какую задачу решают космический датацентры с ИИ? Стоят они как золотые, причем буквально, а вычислительные мощности, по сравнению с Наземными датацентрами мизерные. Зачем это нужно и как оправдывает затраты?
По тому, что корм сухой, а рыба взвешивается не засушенной. Если рыбу засушить, е.ё масса будет меньше чем у изначально сухого корма.
Я сначала тоже удивился, но получил такое объяснение. В этом случае, всё выглядит более правдоподобно. Рыбоводы говорят, что когда рыба себя чувствует хорошо, а ферма настроена идеально, то коэффициент превращения корма в рыбу по весу может превышать единицу, даже может доходить до 1.2, а если рыба себя чувствует плохо, то будет меньше единицы.
За скобками критики тестирования остался самый главный аргумент, что при остановки вируальных машин без выгрузки их из ОЗУ, производительность не восстанавливается. Нечего сказать, это вполне может оказаться правдой. Я сталкивался с не интуитивной зависимостью производительности от особеностей размещения данных в памяти. Во всей красе это раскрывается при майнинге monero: там для максимальной производительности, должны быть не просто все слоты заняты, но и модули какого-то минимального размера и это как-то завязано на взаимодействие кэшей. Поправьте меня если я что-то перепутал за давностью лет, когда сам столкнулся.
Не удивлюсь, если окажется, что загруженные в озу, но не создающие нагрузку на процессор VM, как-то мешают оставшимся получить пиковую производительность. С таким поведением, если это правда, а не артефакт работы hyper-v, идея стопнуть машину и потом не брать деньги за процессор, но брать за все остальное, не сработает. Но я не вижу большой проблемы. Нужно просто выгружать остановленные VM и всё.
В свой практике эксплуатации не большого кластера под proxmox на процессорах AMD, я ни разу не сталкивался с нехваткой именно суммарной производительности CPU. Обычно, оперативки не хватает. Но это вопрос ещё и оптимизации конфигурации сервера в виде подбора отношения количества озу к количеству каналов и ядер.
С моей точки зрения, для 12-канального процессора на DDR5, 24 ядра маловато. Я эксперементально пришел к формуле: для 1С и других требовательных для однопотока приложений, примерно 4 ядра на канал или не более 32 ядер на 8 каналов, ну и 24 тоже не плохо. Например в это формулу укладывается EPYC 7443 и 512GB RAM, т.е. 8 модулей по 64GB. Для менее требовательных до однопоточной производительности, более подходят процессоры с 48-64 ядер, например 76k2 - намного дешевле и 48 ядер, хотя тут, наверное можно поспорить.
Для DDR5 у которого ширина канала вдвое больше, наверное лучше переходить с 64GB на 128GB модули, а следовательно 1536GB на процессор. Для 16GB на ядро - это даст 96 ядер, а не 24. Если используются 64GB-модули, то все равно, при 12 каналов, нужно минимум 48 ядер. Иначе можно было бы взять ryzen 9950X3D, у которого всего 16 ядер и 2 канала, но зато он значительно быстрее в однопотоке (почти в 1,5 раза) и намного дешевле (в 3 раза дешевле) и 256GB udimm ecc ddr5 (у udimm чуть меньше задержки, но ryzen rdimm не поддерживает)
Если у них при тестирования хоть интел, хоть амд, не все слоты заняты были, то это аховая безответственность и гарантированно не правильные выводы. Но не только. Если и эксплуатируются сервера с не вмеми занятыми слотами в расчете на расширение в будущем, то и сервера медленнее работают, причем иногда в разы!
Правильно забивать все слоты сразу, а расширяться либо новыми серверами либо меняя модули на более ёмкие. Два модуля на канал - тоже ошибка, будут работать на пониженных частотах.
Я постеснялся спрашивать про занятость слотов, там же всё таки специалисты.
Обычные мыши переносят мышиную лихорадку. Имел "удачу" переболеть. Так вот, без лечения смертность 50%, а с лечением только 10%. Этот ваш птичий грипп, со всеми его мутациями и опасностями, просто нервно курит в сторонке - ответственно заявляю. И вирусу мышиной лихорадки не потребуется устойчивость к температуре, чтобы убить вас.
В течении месяца, я чувствовал себя все хуже и хуже, несмотря на лечение в инфекционной больнице. Был момент, когда я уже не мог самостоятельно встать, и тогда я подумал:-"ну вот, всё, по видимому это так и происходит, иногда разумность человека не так важна, как голый "звериный" иммунитет и видимо так люди и проигрывают вирусам". Кстати, температура тогда как раз перевалила за 41 и уже не сбивалась ничем. Так что опасаться виртуальной угрозы, в то время как реальная вот она тут, прямо у нас под ногами и познакомиться с ней может любой спустившись в подвал старого дома с мышами.
Что интересно, терапевты не могут отличить мышиную лихорадку от гриппа или любого другого ОРВИ и до последнего лечат как от гриппа, а пациенту все хуже и хуже. В конце концов, как правило, понимая что жить осталось не много, а ощущения там очень отчетливо намекают на это, самовольно едут в инфекционную больницу. Меня терапевт отговаривала, и не дала направление и я самовольно поехал в инфекционку. Там ли нужно искать и искоренять, возможно, не существующую угрозу?
Я когда читаю про то как ученые исследуют птичий грипп, у меня создаётся впечатление, что кто-то как раз наоборот видит некую перспективность этого свойство птичьего гриппа - приспособленность к высоким температурам. У человека же температура как раз во время болезни повышается до нормальной для птичьего тела температуры. Да всё никак не получается этот "волшебный" ген приспособить куда-нибудь... (интересно куда?).
Но давайте включим логику. Почему же обычные вирусы, давно не получили этот ген устойчивости к птичьим температурам? Смею предположить, что кроме устойчивости к температуре, этот ген может ослаблять саму приспособляемость вируса к человеческому организму, по этому никто им не болеет так как болеют мышиной лихорадкой. Мы и наши предки, начиная с каких-то доисторических белок предшественников обезьян сколько десятков миллионов лет на одной планете с птицами живём? Уж за это время вирусы имели возможность обменяться любыми наборами генов во всех возможных комбинациях и не один раз и до сих пор птичий грипп специализируется именно на птицах.
Иногда горения может быть инициировано без нагрева, напрямую поглощением фотонов с энергией выше необходимой для активации цепной химической реакции. Есть хороший опыт, шарик со смесью газов облучают красным светом - ничего не происходит, затем освещают синим светом, газовая смесь взрывается, т.к. энергия у фотонов синего света больше и уже достаточна.
Если используется этот эффект, то луч лазера будет поджигать смесь на всём своём пути, а не только в точке фокусировки.
Они притворяются кирпичом после того как дохнут участки памяти с прошивкой и таблицами трансляции.
А у меня многие "взудлись" - внутри появились пузыри газа и разорвали слои. Они не читаются вообще.
Намного больше движений головки, при большом количестве случайной перезаписи данных и ресурс механики быстро снижается. По факту такие диски служат намного меньше.
Речь идет о разряде ячеек, работающие производят их периодическую регенерацию, но это изнашивает накопитель. Слышал, что серверные nvme особенно быстро теряют заряд, но не знаю правда это или нет, якобы за 3 месяца без питания начинаются потери данных. И якобы optane почти не подвержен этому эффекту, и у них потеря данных может начать происходить через десяток лет. Тоже не проверял.
Можно многослойные чипы делать с распределенным жидкостнвм охлаждением, можно интегрировать вычислительные ядра прямо в чипы памяти, может быть, и ещё что-то можно придумать.
Возможно у них концентрация кислорода выше.
Углекислого газа, по массе, не так уж и много. Интересно, можно ли его химически связывать вместо проветривания? Кислорода в воздухе 20% и от уменьшения его на 0.5% за сутки, думаю, ничего плохого не будет.
Удивительно, все говорят: "надо пойти подышать кислородом", а кислород тут вообще непричем, проблема в углекислрм газе.
Более того, и затормозить она не сможет, т.к. те условные пару кг (а скорее всего намного меньше) которые она скушает никак не повлияют на её траекторию, так что она пролетит Землю насквозь. Не возможно упасть на Землю не имея возможности торможения.
Не понимаю о какой ударной волне говорят про ЧД пикометрового или нанометрового размера? Ударная волна шириной в 1 атом?
Нормально, в том смысле, что один процесс - одно ядро, а если запустить штук 20 1с-ок, то можно 20 ядер нагрузить?
По тому, что ваше "шустрят" по факту является удовлетворительным результатам. Проверить просто: берете скрипт, для простоты обновление или какую-нибудь эталонную последовательность действий и запускаете у себя, где 300 баз "шустрят", а потом запускаете то же самое на amd ryzen 9950x3d, 2 планки памяти 6000+ MT/S, optane 4800X с аппаратным форматом 4К и без виртуализации в 1 поток. Ну и какова разница в замерах? Скрипт отрабатывает в разы быстрее - вот это верх шкалы.
Насколько я помню, Гилёв делал этот тест именно для измерения конкретных узких мест оборудования. И до сих пор он показывает эти узкие места.
В приведенном мною случае речь идёт не о перекрестке, а о движении по крайней правой полосе в условиях пробки. И тем не менее...
Вот если всегда, когда кто-то пишет или говорит "надо", задавать вопрос "кому надо?", то утверждение сразу же представляется в другом свете.
Но в нормах права нигде не указанно как именно их можно применять, а как нет. По этому, ничто не мешает применять их как угодно, например, повышать статистику по посадкам, если где-то потребуют повысить: просто сажать всех подряд, подобно тому, как камеры штрафы выписывают машинам на эвакуаторе или когда тень от авто пересекает сплошную линию.
Я почему пример со штрафами привел, известно, что добровольно их не отменяют, нужно судиться. Совсем недавно такой случай обсуждали, там водителя оштрафовали за то что он вынуждено стоял в пробке, а его оштрафовали за остановку в неположенном месте. По уму бы нужно было отменить, но этого не произошло по его запросу, ему отказали.
Не вижу причин не воспользоваться удобной конструкцией в законе чтобы решить сиюминутные проблемы конкретного предохранителя, используя эту норму не для "специально таких случаев", а для любых, которые формально хоть как-то подходят.
И содержимое материалов нужно выучить, чтобы случайно не подумать мысли которые заложены в них!
А какую задачу решают космический датацентры с ИИ? Стоят они как золотые, причем буквально, а вычислительные мощности, по сравнению с Наземными датацентрами мизерные. Зачем это нужно и как оправдывает затраты?
По тому, что корм сухой, а рыба взвешивается не засушенной. Если рыбу засушить, е.ё масса будет меньше чем у изначально сухого корма.
Я сначала тоже удивился, но получил такое объяснение. В этом случае, всё выглядит более правдоподобно. Рыбоводы говорят, что когда рыба себя чувствует хорошо, а ферма настроена идеально, то коэффициент превращения корма в рыбу по весу может превышать единицу, даже может доходить до 1.2, а если рыба себя чувствует плохо, то будет меньше единицы.
За скобками критики тестирования остался самый главный аргумент, что при остановки вируальных машин без выгрузки их из ОЗУ, производительность не восстанавливается. Нечего сказать, это вполне может оказаться правдой. Я сталкивался с не интуитивной зависимостью производительности от особеностей размещения данных в памяти. Во всей красе это раскрывается при майнинге monero: там для максимальной производительности, должны быть не просто все слоты заняты, но и модули какого-то минимального размера и это как-то завязано на взаимодействие кэшей. Поправьте меня если я что-то перепутал за давностью лет, когда сам столкнулся.
Не удивлюсь, если окажется, что загруженные в озу, но не создающие нагрузку на процессор VM, как-то мешают оставшимся получить пиковую производительность. С таким поведением, если это правда, а не артефакт работы hyper-v, идея стопнуть машину и потом не брать деньги за процессор, но брать за все остальное, не сработает. Но я не вижу большой проблемы. Нужно просто выгружать остановленные VM и всё.
В свой практике эксплуатации не большого кластера под proxmox на процессорах AMD, я ни разу не сталкивался с нехваткой именно суммарной производительности CPU. Обычно, оперативки не хватает. Но это вопрос ещё и оптимизации конфигурации сервера в виде подбора отношения количества озу к количеству каналов и ядер.
С моей точки зрения, для 12-канального процессора на DDR5, 24 ядра маловато. Я эксперементально пришел к формуле: для 1С и других требовательных для однопотока приложений, примерно 4 ядра на канал или не более 32 ядер на 8 каналов, ну и 24 тоже не плохо. Например в это формулу укладывается EPYC 7443 и 512GB RAM, т.е. 8 модулей по 64GB. Для менее требовательных до однопоточной производительности, более подходят процессоры с 48-64 ядер, например 76k2 - намного дешевле и 48 ядер, хотя тут, наверное можно поспорить.
Для DDR5 у которого ширина канала вдвое больше, наверное лучше переходить с 64GB на 128GB модули, а следовательно 1536GB на процессор. Для 16GB на ядро - это даст 96 ядер, а не 24. Если используются 64GB-модули, то все равно, при 12 каналов, нужно минимум 48 ядер. Иначе можно было бы взять ryzen 9950X3D, у которого всего 16 ядер и 2 канала, но зато он значительно быстрее в однопотоке (почти в 1,5 раза) и намного дешевле (в 3 раза дешевле) и 256GB udimm ecc ddr5 (у udimm чуть меньше задержки, но ryzen rdimm не поддерживает)
Вместо 1000 слов иллюстрация
Можете сами поиграться: https://www.cpubenchmark.net/compare/5381vs5513vs6549vs6259vs5742/AMD-EPYC-9174F-vs-AMD-EPYC-9274F-vs-AMD-Ryzen-9-9950X3D-vs-Intel-Xeon-w7-3565X-vs-Intel-Xeon-Gold-6448H
Если у них при тестирования хоть интел, хоть амд, не все слоты заняты были, то это аховая безответственность и гарантированно не правильные выводы. Но не только. Если и эксплуатируются сервера с не вмеми занятыми слотами в расчете на расширение в будущем, то и сервера медленнее работают, причем иногда в разы!
Правильно забивать все слоты сразу, а расширяться либо новыми серверами либо меняя модули на более ёмкие. Два модуля на канал - тоже ошибка, будут работать на пониженных частотах.
Я постеснялся спрашивать про занятость слотов, там же всё таки специалисты.