ZT крайне удобен для организации site-to-site VPN для связи удаленных сегментов одной L2 сети через интернет. Достаточно создать L2 мост между ZT интерфейсом и физическим Ethernet. Удобно администрировать малинки-машинки не выставляя их наружу.
Это работает даже когда сегменты являются не стационарными, используют интернет соединения без белого IP и спрятаны за NAT.
Однако, к сожалению, на мобильном интернете часто не работает или работает со сбоями из-за ограничений мобильных операторов. Операторы не то чтобы блокируют ZT трафик целенаправленно, а, просто дико его режут по скорости и добавляют задержки и минимальный приоритет. Примерно как трафик торрентов. В итоге, соединение становится нестабильным и проседает/пропадает.
Однако, на домашних интернатах работает прекрасно.
В штатах мобильных интернет либо искусственно порезанный по скорости или очень дорогой с оплатой за трафик. На интернете с ограничением по скорости измерять особо смысла нет, т.к. заранее известно что там, а там где тарифицируется трафик никто не меряет особо просто потому, что дорого. На 5G аппаратах оно на скачивание запросто в районе гигабита в секунду выдает, а, иногда и больше ибо там в пределе до десяти гигабит может быть. Одно измерение скорости на speedtest в результате обходится баксов в 30-40$ из-за объема трафика.
В основном это описано тут: https://www.amd.com/content/dam/amd/en/documents/epyc-technical-docs/tuning-guides/amd-epyc-7003-tg-workload-57011.pdf Вся Chapter 2 посвящена настройкам BIOS касающихся производительности и энергосбережения. Переключение этого режима описано в 2.3.2. Что забавно, режим работы дающий максимальную суммарную производительность называется: Performance Determinism: Power Второй режим: Performance Determinism: Performance (default for most OPNs):: Ensure consistent performance levels across a large population of identically-configured CPUs by throttling some CPUs to operate at a lower power level. Подразумевает троттлинг тех ядер, которые работают "слишком быстро и меньше греются" чтобы отдать TDP в пользу тех ядер, которые "сильно греются и работают медленно", чтобы немного их разогнать. И, это режим по-умолчанию.
А вообще, там, прямо в документе, под разные нагрузки есть рекомендации, какие надо выбирать настройки, что очень удобно.
У EPYC чиплетный дизайн и там все, немного по другому. Там TDP выставляется настройкой в BIOS которая доступна пользователям суммарно на все чиплеты, но реально распределение TDP между чиплетами может быть неравномерное и контроль над ним напрямую пользователям не доступен. Есть два режима:
Максимальная производительность каждого отдельного ядра. В этом случае у каждого ядра будет своя частота и свой предел по частоте, но Target-TDP на чиплетах будет примерно одинаковый.
Одинаковая производительность каждого ядра. В этом случае частоты будут совпадать и производительность будет предсказуема, но TDP чиплетов пойдет в разнос. В реальности для производительности используют режим 1, за исключением систем realtime и сложных параллельных расчетов на CPU. Это позволяет получить суммарно большую производительность за счет оптимизации TDP, т.к. процессор будет сильнее разгонять только те ядра, которые выделяют меньше тепла, когда как, в случае 2 все ядра работают со скоростью самого медленного)
Подозреваю, что вендоры могут ограничивать верхний предел TDP, но, по идее, если процессор поддерживается в списке совместимости, не должны ставить этот предел меньше чем TDP процессора по-умолчанию.
Что касается стратегии оптимизации частоты, то, EPYC похоже старается всегда держать одно из ядер чиплета в boost режиме или около того. Вот, например, частоты ядер в idle-режиме (1-2% суммарно нагрузка на EPYC 7773X):
cpu MHz : 3249.834
cpu MHz : 3249.411
cpu MHz : 3249.368
cpu MHz : 3249.011
cpu MHz : 3248.620
cpu MHz : 3248.583
cpu MHz : 3248.553
cpu MHz : 3248.393
cpu MHz : 3248.323
cpu MHz : 3248.262
cpu MHz : 3248.098
cpu MHz : 3248.090
cpu MHz : 3248.080
cpu MHz : 3248.041
cpu MHz : 3247.848
cpu MHz : 3247.638
cpu MHz : 3247.119
cpu MHz : 2803.408
cpu MHz : 2779.103
cpu MHz : 2763.790
cpu MHz : 2762.982
cpu MHz : 2670.299
cpu MHz : 2598.984
cpu MHz : 2598.156
cpu MHz : 2597.341
cpu MHz : 2596.515
cpu MHz : 2596.277
cpu MHz : 2596.051
cpu MHz : 2595.767
cpu MHz : 2594.446
cpu MHz : 2594.407
cpu MHz : 2594.081
cpu MHz : 2593.495
cpu MHz : 2592.366
cpu MHz : 2590.921
cpu MHz : 2590.251
cpu MHz : 2586.464
cpu MHz : 2532.200
cpu MHz : 2380.581
cpu MHz : 2347.828
cpu MHz : 2196.027
cpu MHz : 2180.941
cpu MHz : 2165.977
cpu MHz : 2163.644
cpu MHz : 2160.309
cpu MHz : 2158.444
cpu MHz : 2156.351
cpu MHz : 2155.240
cpu MHz : 2151.560
cpu MHz : 2129.830
cpu MHz : 2127.265
cpu MHz : 2124.286
cpu MHz : 2096.770
cpu MHz : 2091.996
cpu MHz : 2019.602
cpu MHz : 2012.054
cpu MHz : 1866.864
cpu MHz : 1834.021
cpu MHz : 1823.142
cpu MHz : 1821.874
cpu MHz : 1821.682
cpu MHz : 1820.581
cpu MHz : 1819.067
cpu MHz : 1808.081
В общем, я думаю, что там еще виновата операционная система. Зная, что процессоры любят понижать частоты для экономии энергии, она старается разбрасывать активные потоки равномерно по всем ядрам. В результате, ни одно ядро не загружено полностью и частоты остаются низкими. Это неизбежно скажется на скорости выполнения каждой отдельной задачи, и latency вырастет, несмотря на то, что система практически не загружена. Тут надо или отучать ОС от этого, любо процессору запрещать сильно понижать частоты. Но, чем быстрее процессор реагирует на появление нагрузки изменяя частоты вверх, тем меньше это вредит latency. EPYC в этом плане, хорош тем, что практически мгновенно boost-ит то ядро, где есть нагрузка, и, постепенно понижает частоту, если нагрузка пропадает. Но, у EPYC тоже есть косяки и, изменение частот шины памяти, например, не рекомендовано, и, практически всегда, отключено на практике.
К сожалению, функционал администрирования ОС по энергосбережению в ЦП сильно лагает за появлением новых процессоров, и, сильно отличается от производителя к производителю. Потому, производители ЦП вынуждены зашивать все эти настройки в BIOS, чтобы ОС могли работать на этих ЦП, даже, если они про их внутреннюю кухню энергосбережения ничего не знают.
Видимо просто отправляется новый заголовок HSTS. Там, походу, перехватывается вообще весь трафик. Включая DNS. Так что, ECH не проблема. Все сертификаты подменяются на уровне DNS. Для этого есть поддержка перехвата DNS-over-HTTPS.
Есть более простые способы консервации, чем заморозка. https://patents.google.com/patent/RU2322058C2/ru Это 2005ый год. И, восстанавливать полную последовательность ДНК из фрагментов за счет избыточности уже тоже научились.
Кожа, это вид ткани живого существа. Еще можно взять волосы или шерсть. Это тоже виды ткани.
Клонированный эмбрион, - это когда берут яйцеклетку у другого живого существа, возможно, даже, другого вида, например, собаки, и заменяют в ней ДНК на то, что было извлечено из образца ткани, получая таким образом "клонированный эмбрион арктического волка".
Скорее всего вы неверно понимаете процесс клонирования. Там достаточно даже простого соскоба с поверхности кожи. Причем клетки не обязательно должны быть живые. Иначе бы были невозможны попытки восстановления давно вымерших видов.
На современном уровне даже набор полностью целых цепочек ДНК вроде не нужен. Их можно из сохранившихся фрагментов собрать.
Сейчас это просто способ попиарится, ну, еще, и, немного, задел под контроль общественного мнения, который, со временем, превратится в инструмент управления индустрией и сдерживания конкурентов.
Это все будет развиваться по тем же лейкалам, что поддержка эко-движения, которая сначала была просто способом попиариться, потом полилась куча антипиара на тех, кто не участвует и не поддерживает, а, потом, некоторые "экоактивисты" переквалифицировались в "экотеррористов".
Корпорации, которые поддерживают, естественно, нипричем, но, изначально, видят, куда все идет, и, с самого начала, хотят находиться с "правильной" стороны забора.
К сожалению, бывают плавающие ошибки. Поэтому, тестирование производится еще на заводе в запредельных режимах эксплуатации, которые никогда не достигаются в условиях конечного потребителя.
Есть специальные регистры программируемой ПЗУ на основе "пережигаемых предохранителей" a.k.a fuse. Плюс, на эти регистры можно программно накладывать маски отключая некоторые дополнительные блоки.
В процессе тестирования кристалла fuse-регистр пустой, а тестовая программа перебирает различные комбинации масок, таким образом выясняя, какие блоки рабочие. После завершения тестирования в fuse-регистр прописывается маска, которая намертво блокирует блоки, которые в результате тестирования были выявлены как неисправные.
Регистр же остается доступным пользователям, позволяя, например, дополнительно отключить часть ядер или кэш-памяти ЦП.
Я думаю, что заблокированные пользователи переехали на другие площадки, и, заодно, решили перевести на них всю аудиторию той площадки, которая их заблокировала, устранив, таким образом, конкурентов. Как своих, так и площадок, на которых они теперь публикуются.
Большинство LLM в данный момент для комфортного использования (в real-time) на десктопных видеокартах упираются именно в пропускную способность и/или объем памяти. При этом, все технологии, необходимые для увеличения и того, и другого, уже давно существуют и используются в специализированных процессорах для AI. С точки зрения чисто вычислительных возможностей же современные топовые видеокарты и так уже находятся на уровне AI ускорителей или близко к ним.
Увеличение видеопамяти и её пропускной способности (переход на HBM) искусственно ограничивается с целью сегментирования/разделения рынка.
Появление спроса рано или поздно приведет к изменениям на десктопном рынке, и эти технологии станут доступны и на десктопе.
Интересно, а мышкам с клавой тоже будут накидывать баллы за "совместимость с ОС"?
Ну, это вы, видимо, клавиатур и мышек несовместимых из коробки с Linux не встречали... А они есть.
Ставишь какую-нить вполне себе импортную Убунту, а там клавиатура не работает. Вообще. Причем, чем "навороченнее" и "круче" бренд, тем чаще это встречается.
ZT крайне удобен для организации site-to-site VPN для связи удаленных сегментов одной L2 сети через интернет. Достаточно создать L2 мост между ZT интерфейсом и физическим Ethernet. Удобно администрировать малинки-машинки не выставляя их наружу.
Это работает даже когда сегменты являются не стационарными, используют интернет соединения без белого IP и спрятаны за NAT.
Однако, к сожалению, на мобильном интернете часто не работает или работает со сбоями из-за ограничений мобильных операторов. Операторы не то чтобы блокируют ZT трафик целенаправленно, а, просто дико его режут по скорости и добавляют задержки и минимальный приоритет. Примерно как трафик торрентов. В итоге, соединение становится нестабильным и проседает/пропадает.
Однако, на домашних интернатах работает прекрасно.
Что-то такое было при переходе с Pentium 2 на Pentium 3.
Еще до этого был https://ru.wikipedia.org/wiki/Pentium_II#Pentium_II_OverDrive
В штатах мобильных интернет либо искусственно порезанный по скорости или очень дорогой с оплатой за трафик. На интернете с ограничением по скорости измерять особо смысла нет, т.к. заранее известно что там, а там где тарифицируется трафик никто не меряет особо просто потому, что дорого. На 5G аппаратах оно на скачивание запросто в районе гигабита в секунду выдает, а, иногда и больше ибо там в пределе до десяти гигабит может быть. Одно измерение скорости на speedtest в результате обходится баксов в 30-40$ из-за объема трафика.
В основном это описано тут:
https://www.amd.com/content/dam/amd/en/documents/epyc-technical-docs/tuning-guides/amd-epyc-7003-tg-workload-57011.pdf
Вся Chapter 2 посвящена настройкам BIOS касающихся производительности и энергосбережения.
Переключение этого режима описано в 2.3.2. Что забавно, режим работы дающий максимальную суммарную производительность называется:
Performance Determinism: Power
Второй режим:
Performance Determinism: Performance (default for most OPNs):: Ensure consistent performance levels across a large population of identically-configured CPUs by throttling some CPUs to operate at a lower power level.
Подразумевает троттлинг тех ядер, которые работают "слишком быстро и меньше греются" чтобы отдать TDP в пользу тех ядер, которые "сильно греются и работают медленно", чтобы немного их разогнать. И, это режим по-умолчанию.
А вообще, там, прямо в документе, под разные нагрузки есть рекомендации, какие надо выбирать настройки, что очень удобно.
У EPYC чиплетный дизайн и там все, немного по другому. Там TDP выставляется настройкой в BIOS которая доступна пользователям суммарно на все чиплеты, но реально распределение TDP между чиплетами может быть неравномерное и контроль над ним напрямую пользователям не доступен. Есть два режима:
Максимальная производительность каждого отдельного ядра. В этом случае у каждого ядра будет своя частота и свой предел по частоте, но Target-TDP на чиплетах будет примерно одинаковый.
Одинаковая производительность каждого ядра. В этом случае частоты будут совпадать и производительность будет предсказуема, но TDP чиплетов пойдет в разнос. В реальности для производительности используют режим 1, за исключением систем realtime и сложных параллельных расчетов на CPU. Это позволяет получить суммарно большую производительность за счет оптимизации TDP, т.к. процессор будет сильнее разгонять только те ядра, которые выделяют меньше тепла, когда как, в случае 2 все ядра работают со скоростью самого медленного)
Подозреваю, что вендоры могут ограничивать верхний предел TDP, но, по идее, если процессор поддерживается в списке совместимости, не должны ставить этот предел меньше чем TDP процессора по-умолчанию.
Что касается стратегии оптимизации частоты, то, EPYC похоже старается всегда держать одно из ядер чиплета в boost режиме или около того.
Вот, например, частоты ядер в idle-режиме (1-2% суммарно нагрузка на EPYC 7773X):
В общем, я думаю, что там еще виновата операционная система. Зная, что процессоры любят понижать частоты для экономии энергии, она старается разбрасывать активные потоки равномерно по всем ядрам. В результате, ни одно ядро не загружено полностью и частоты остаются низкими. Это неизбежно скажется на скорости выполнения каждой отдельной задачи, и latency вырастет, несмотря на то, что система практически не загружена. Тут надо или отучать ОС от этого, любо процессору запрещать сильно понижать частоты. Но, чем быстрее процессор реагирует на появление нагрузки изменяя частоты вверх, тем меньше это вредит latency. EPYC в этом плане, хорош тем, что практически мгновенно boost-ит то ядро, где есть нагрузка, и, постепенно понижает частоту, если нагрузка пропадает. Но, у EPYC тоже есть косяки и, изменение частот шины памяти, например, не рекомендовано, и, практически всегда, отключено на практике.
К сожалению, функционал администрирования ОС по энергосбережению в ЦП сильно лагает за появлением новых процессоров, и, сильно отличается от производителя к производителю. Потому, производители ЦП вынуждены зашивать все эти настройки в BIOS, чтобы ОС могли работать на этих ЦП, даже, если они про их внутреннюю кухню энергосбережения ничего не знают.
Неправильный ответ. Правильный ответ такой:
sarcasm mode on: Только если вы работаете в АНБ...
Видимо просто отправляется новый заголовок HSTS. Там, походу, перехватывается вообще весь трафик. Включая DNS. Так что, ECH не проблема. Все сертификаты подменяются на уровне DNS. Для этого есть поддержка перехвата DNS-over-HTTPS.
sarcasm mode on: А сертификаты "на лету" там тоже Let's Encrypt генерирует?
Есть более простые способы консервации, чем заморозка.
https://patents.google.com/patent/RU2322058C2/ru
Это 2005ый год.
И, восстанавливать полную последовательность ДНК из фрагментов за счет избыточности уже тоже научились.
Образец кожи называется, - "соскоб".
Кожа, это вид ткани живого существа. Еще можно взять волосы или шерсть. Это тоже виды ткани.
Клонированный эмбрион, - это когда берут яйцеклетку у другого живого существа, возможно, даже, другого вида, например, собаки, и заменяют в ней ДНК на то, что было извлечено из образца ткани, получая таким образом "клонированный эмбрион арктического волка".
Неизвестного охотника и лабораторию, конечно, не нашли....
Скорее всего вы неверно понимаете процесс клонирования. Там достаточно даже простого соскоба с поверхности кожи. Причем клетки не обязательно должны быть живые. Иначе бы были невозможны попытки восстановления давно вымерших видов.
На современном уровне даже набор полностью целых цепочек ДНК вроде не нужен. Их можно из сохранившихся фрагментов собрать.
Сейчас это просто способ попиарится, ну, еще, и, немного, задел под контроль общественного мнения, который, со временем, превратится в инструмент управления индустрией и сдерживания конкурентов.
Это все будет развиваться по тем же лейкалам, что поддержка эко-движения, которая сначала была просто способом попиариться, потом полилась куча антипиара на тех, кто не участвует и не поддерживает, а, потом, некоторые "экоактивисты" переквалифицировались в "экотеррористов".
Корпорации, которые поддерживают, естественно, нипричем, но, изначально, видят, куда все идет, и, с самого начала, хотят находиться с "правильной" стороны забора.
"Не можешь побелить, - возглавь." (с)
"Пчёлы против меда..." (с)
К сожалению, бывают плавающие ошибки. Поэтому, тестирование производится еще на заводе в запредельных режимах эксплуатации, которые никогда не достигаются в условиях конечного потребителя.
Есть специальные регистры программируемой ПЗУ на основе "пережигаемых предохранителей" a.k.a fuse. Плюс, на эти регистры можно программно накладывать маски отключая некоторые дополнительные блоки.
В процессе тестирования кристалла fuse-регистр пустой, а тестовая программа перебирает различные комбинации масок, таким образом выясняя, какие блоки рабочие. После завершения тестирования в fuse-регистр прописывается маска, которая намертво блокирует блоки, которые в результате тестирования были выявлены как неисправные.
Регистр же остается доступным пользователям, позволяя, например, дополнительно отключить часть ядер или кэш-памяти ЦП.
Я думаю, что заблокированные пользователи переехали на другие площадки, и, заодно, решили перевести на них всю аудиторию той площадки, которая их заблокировала, устранив, таким образом, конкурентов. Как своих, так и площадок, на которых они теперь публикуются.
Ничего личного... Просто бизнес... (c)
Большинство LLM в данный момент для комфортного использования (в real-time) на десктопных видеокартах упираются именно в пропускную способность и/или объем памяти. При этом, все технологии, необходимые для увеличения и того, и другого, уже давно существуют и используются в специализированных процессорах для AI. С точки зрения чисто вычислительных возможностей же современные топовые видеокарты и так уже находятся на уровне AI ускорителей или близко к ним.
Увеличение видеопамяти и её пропускной способности (переход на HBM) искусственно ограничивается с целью сегментирования/разделения рынка.
Появление спроса рано или поздно приведет к изменениям на десктопном рынке, и эти технологии станут доступны и на десктопе.
Ну, это вы, видимо, клавиатур и мышек несовместимых из коробки с Linux не встречали... А они есть.
Ставишь какую-нить вполне себе импортную Убунту, а там клавиатура не работает. Вообще. Причем, чем "навороченнее" и "круче" бренд, тем чаще это встречается.
Если вы не используете шифрование. Иначе, сжатие не работает.
Из-за этого, как раз, производители, зачастую, уходят от практики сжатия данных на SSD.