Хотя в статье прямо такого не утверждается, но у меня сложилось впечатление, будто автор считает HOMM игрой про пошаговые сражения. Всё-таки HOMM это стратегия в первую очередь. Основное её содержание — глобальное управление ресурсами и передвижение героя по карте, а битвы это, так сказать, полудекоративная детализация происходящего.
Например расспознование видео с нескольких камер позволят в автоматическом режиме
У меня первая ассоциация — такая же как у комментатора выше.
автоматизировать какой-то производственный процесс на предприятии, карьере, заводе.
Для этого НЕ нужен 5G.
Можно 100500 комбайнов отправить собирать урожай в автоматическом режиме, и управлять ими в реальном времени как в RTS) Сейчас тоже можно, но требуется установка специальных устройств на поле.
Эти специальные устройства для 5G называются базовыми станциями.
В общем основная фича в больших объемах информации на большие расстояния без проводов.
Беспроводная сеть — это не сеть соединения абонентов друг с другом по воздуху, а сеть базовых станций, подключённых к проводным каналам. Беспроводной там только последний отрезок канала до абонентского устройства, и он не такой уж длинный.
Крупным предприятиям, которые хотят что-то автоматизировать на своей большой территории, намного разумнее проложить для этого свою локальную проводную сеть (с намного большими скоростями при необходимости), а тем где провода никак не пробросить — радиоканал до своих же раздающих точек на публичных частотах (и никто им мешать не будет, т.к. территория своя), хоть тот же wifi если надо готовое популярное решение. Вплетать в эту систему посредника-мобильного оператора ну совсем незачем.
Также компания добилась того, чтобы все услуги для операторов ботнета и любые их действия по покупке или аренде дополнительных серверов блокировались.
Интересно, как на это отреагируют те, кто обвиняет ркн в аналогичном поведении (блокируем сайты наркоторговцев вместо посадки их хозяев).
Microsoft сумела использовать закон США о товарных знаках для изъятия и уничтожения инфраструктуры Trickbot C2 на том основании, что вредоносная программа иногда выдает себя за операционную систему Windows.
То есть наложить на них санкции за нарушение копирастических норм они могут, а за организацию ботнета ничего предъявлять даже не пытаются? Типа это законно?
Не доменных имён а урлов. Так что любой https по нему запрещён.
Походу никто не читает процитированный законопроект в статье, а может и вообще дальше дезинформирующего заголовка не идёт и сразу в комменты.
А можно подробнее про фон — что там конкретно, чем измеряется, какие нормы и т. д. Можно ссылкой. А то первый раз слышу про это в официальном качестве, хотя и подозревал.
Нет, не забыл.
Во-первых, там уточнение "на их месте",.т.е. конкретно я не своё личное желание указал, а смоделировал технически логичное поведение для тех, кто хочет блокировать сайты.
Во-вторых, если вам интересно моё личное отношение к ESNI (хотя оно тут не важно), то я уже высказывал его несколько раз, оно негативное — эта штука опирается на монополизацию веб-хостинга (ибо на своём личном сервере смысла почти не имеет), а монополизация это плохо.
позволяющих скрыть имя (идентификатор) Интернет-страницы или сайта в сети «Интернет»
под него любой https подходит, поскольку скрывает url.
Не знаю, где автор данной хабрастатьи усмотрел наезд именно на шифрование SNI.
В таком виде законопроект однозначно вредный, я уж не знаю по глупости это сделали или по злому умыслу.
А вот шифрование SNI я бы на их месте предусмотрительно запретил ещё тогда, когда оно было в ещё не утверждённом проекте rfc. А точнее разослал бы от РКНа инструкцию провайдерам о том, что отсутствие читаемого SNI следует считать за присутствие наиболее плохого варианта из возможных на этом ip-адресе (это на случай, если провайдеры сами не догадаются, что иначе их будут штрафовать на неблокировку доменов).
Отказываться от журналов они не будут, потому что слишком привыкли.
Вот только поколение в итоге сменится на тех, у кого этой привычки нет, и вся эта система рассыпется по причине отсутствия в ней разумных участников (т.е. кого-то кроме бюрократов с менеджерами).
Странная статья. Хотя скорее это заслуга не автора упомянутых в ней выводов, а журналиста, её писавшего, или хабрапереводчика.
суперкомпьютер не нужно использовать на полную мощность
Оптимальное сочетание производительности и выбросов достигается для ~1000 ядер, после чего суперкомпьютер начинает производить больше углерода, чем рабочая станция.
Кажется речь идёт про какой-то конкретный суперкомпьютер, а то и про конкретную вычислительную программу, на нём запущенную.
Наконец, автор призвал воздержаться от использования Python, если речь не идет о больших вычислениях.
Как раз большие вычисления и надо оптимизировать в первую очередь. Я и не предполагал что кто-то додумается для них интерпретируемый язык использовать.
Хотя в идеале конечно всякие питоны с пхп надо только для построения прототипов использовать, а продакшн программы писать только на компилируемых языках.
Проблемы у них начались с тех пор как они решили повторять за хромом, тем самым добровольно поставив себя в положение догоняющего (причём — догоняющего неправильную цель). Аудиторию хрома (домохозяек которые раньше использовали IE) этим не переманить, а свою собственную можно и потерять. Впрочем даже в текущей плачевной ситуации альтернатив файрфоксу (кроме возможно его форков) до сих пор нет.
Лучше было бы если бы с 3.х версии ничего не трогали в интерфейсе и архитектуре, а только добавляли поддержку новых html/css/js конструкций в движок. Который они тоже убили как самостоятельный продукт ещё много лет назад, даже не удосужившись нормально это задокументировать в своём MDN (там кругом устаревшие статьи на этот счёт были по крайней мере ещё недавно).
Может и костыли, но это никак не отменяет того факта, что неиспользование шифрование сайтом А никак не мешает его всё же использовать сайтом Б. И с ESNI так же — никто нигде не заставляет его использовать, включается он только по желанию владельца сайта.
Очевидно, нельзя шифровать в одном месте и не шифровать в другом
Очевидно, можно. Кто-то использует http без tls, то никак не мешает их соседям использовать https.
Поэтому шифруется всё.
Не всё, см. выше.
Впрочем, никто не запрещает мне сделать какой-нибудь прокси до сайта navalny и предоставлять к нему доступ всем, кто пропишет IP моего сервера в файл Hosts.
Запрещает. Я вот даже не поленился посмотреть механику работы ESNI (самому то сразу было очевидно что это что-то дефективное, и тут вот аргументы понадобились — надо выяснить где именно дефект). SNI шифруется ключом из днс. В hosts его никак не прописать. Так что вам придётся давать клиентам ещё и какой-то софт для подмены ключа ESNI (а то и полноценный https mitm организовывать, если окажется что ESNI защищён от подмены). Проще уж дать им настройки зашифрованного прокси сервера (http proxy over tls например), который умел всё то же самое с момента его появления (очень давно) и безо всяких костылей.
Так этой нелепости (ESNI) и надо.
Во-первых, прятать адрес сервера это концептуально идиотизм (вы ещё ip-адрес зашифруйте), а во-вторых, эта чушь работает только при условии нахождения вашего сервера на хостинге централизованного околомонополиста (у которого на том же адресе ещё куча доменов), пользоваться услугами которого ничуть, в идеологическом плане, не лучше чем хоститься в китайском WeChat'е.
Выложил небольшое обновление (ссылки обновлены). Кроме чисто технических правок, что изменилось:
1) исправлен баг при парсинге некорректного http-заголовка без двоеточия (при поиске двоеточия не учитывался завершающий нулевой байт строки заголовка, и двоеточие могло "найтись" в мусоре после конца строки, который был бы посчитан частью заголовка) как в запросе от браузера, так и в ответе от сайта, мог привести к segfault или (при очень "удачном" стечении обстоятельств) к утечке в браузер (а из него через js — на злонамеренный сервер) случайных областей памяти процесса прокси, содержащих данные прошлых проксированных запросов; или злонамеренный клиент мог попытаться отправить на "нужный" сервер обрывки длинных заголовков предыдущего запроса, прошедшего через тот же прокси-процесс;
2) ютуб перестал слушаться опцию &disable_polymer=true, теперь для той же цели используется фейковый юзер-агент;
3) оказывается в сертификатах бывают доменные имена не в нижнем регистре (пример: Techlibrary.hpe.com), теперь домен сравнивается без учёта регистра;
Почему я его выложу на Хабр, а не на свой личный дневничок?
Второй вариант тоже имеет право на существование, я его указал в скобках. Поэтому непонятен второй абзац вообще. Если нужно выдать текст на широкую аудиторию — выкладывают там где читает широкая, и что с того? Речь то не об этом была, а о том, каким образом учёные могут поделиться с желающими результатами своего труда. И в этом плане журналы, на мой взгляд — инструмент мало того что не самый удачный финансово, так ещё тянущий кучу легаси с позапрошлого века (например имитация бумажного форматирования и ежедневных/недельных/месячных выпусков, хотя всё это давно никому не нужно).
Есть более современные, удобные и быстрые инструменты для того, чтобы один человек что-то переслал группе других. Когда-то давно, когда для этого было неизбежно нужно верстать статью на бумаге, затем физически её распечатывать и доставлять домой читателям, журналы эту функцию научились выполнять оптимальным способом. А заодно (думаю, главным образом по причине того, что надо экономить бумагу и не тратить её на невостребованные тексты) приобрели побочную функцию цензоров, которую кто-то, в свою очередь, решил использовать для оценки качества статей (раз попала в этот журнал, славящийся высоким конкурсом на свои страницы, то видимо она хорошая).
Так вот, тут устарела сама основа — бумагу больше экономить (как и тратить) не нужно, организовывать печать и доставку тоже не нужно. Верстать под бумажный формат тоже не нужно, а вообще вёрстку уже давно делают сами авторы.
А механизм оценки качества статьи можно и другой использовать. Повторюсь, в журналах он получился таким как есть не от того, что это лучший способ, а от того, что в этом была финансовая необходимость по экономии бумаги. На хабре есть свой, ну а если кому-то нужен именно экспертный совет — никто не мешает составлять каталоги статей (быть их публикатором для этого не нужно), одобренных советом рецензентов (им же, судя по данной статье, за это и так и так не платят? в чём тогда проблема?). Однако вокруг имеющегося способа уже выросла целая система различных активностей, в которой задействовано множество людей, которые к ней как минимум просто привыкли и не захотят менять на что-то другое вне зависимости от эффективности, а кто-то так и вообще заинтересован в её побочных незапланированных эффектах т.к. он ими пользуется.
Главная проблема научных публикаций — в том что вся эта система представляет из себя бюрократизированное legacy. И дело не в каких-то конкретных аспектах, а во всей системе целиком.
Есть современные методы публикации своих работ — в интернете — тот же хабр, а так же много других сайтов (форумы, блоги). Они не представляют из себя развитие устаревшего хлама из позапрошлого века, а построены с нуля в новых реалиях и под новые потребности. Но инерция велика, и люди (и гос. структуры), привыкшие к той системе, предпочитают в ней и оставаться (у них слишком много всего завязано на её систему понятий), да ещё и вербуют туда пополнение из новых поколений.
Да вы чё, реально же полезная прога. Хоть и в целом неодобрительно отношусь в microsoft'у, но тут стоит признать что это полезный инструмент, и сделанный без подтекстов вида "чтобы переманить их потом на винду". Хотя, с другой стороны, sysinternals то не совсем microsoft, хоть и входит в их состав.
Варианты с top+strace+ещё неизвестно что это, конечно, в некотором роде альтернатива, но ей в плане итогового удобства далеко до монолитного продуманного приложения, где НЕ надо делать никаких донастроек и интеграций, путь даже и коротких. А ещё она будет работать когда у вас вдруг pid'ы закончатся или ещё что, мешающее запускать новые процессы.
Если отсеять тех, то адресами вообще не пользуется, либо пользуется, но не готов платить ежемесячно/ежегодно (да, раньше, а может и сейчас, их раздавали навечно и не предполагали механизм возврата) их хватит ещё на 100 лет вперёд, а то и больше.
А ipv6 и все ему сопутствующие агит-материалы это маркетинг.
Хотя в статье прямо такого не утверждается, но у меня сложилось впечатление, будто автор считает HOMM игрой про пошаговые сражения. Всё-таки HOMM это стратегия в первую очередь. Основное её содержание — глобальное управление ресурсами и передвижение героя по карте, а битвы это, так сказать, полудекоративная детализация происходящего.
У меня первая ассоциация — такая же как у комментатора выше.
Для этого НЕ нужен 5G.
Эти специальные устройства для 5G называются базовыми станциями.
Беспроводная сеть — это не сеть соединения абонентов друг с другом по воздуху, а сеть базовых станций, подключённых к проводным каналам. Беспроводной там только последний отрезок канала до абонентского устройства, и он не такой уж длинный.
Крупным предприятиям, которые хотят что-то автоматизировать на своей большой территории, намного разумнее проложить для этого свою локальную проводную сеть (с намного большими скоростями при необходимости), а тем где провода никак не пробросить — радиоканал до своих же раздающих точек на публичных частотах (и никто им мешать не будет, т.к. территория своя), хоть тот же wifi если надо готовое популярное решение. Вплетать в эту систему посредника-мобильного оператора ну совсем незачем.
Интересно, как на это отреагируют те, кто обвиняет ркн в аналогичном поведении (блокируем сайты наркоторговцев вместо посадки их хозяев).
То есть наложить на них санкции за нарушение копирастических норм они могут, а за организацию ботнета ничего предъявлять даже не пытаются? Типа это законно?
Не доменных имён а урлов. Так что любой https по нему запрещён.
Походу никто не читает процитированный законопроект в статье, а может и вообще дальше дезинформирующего заголовка не идёт и сразу в комменты.
А можно подробнее про фон — что там конкретно, чем измеряется, какие нормы и т. д. Можно ссылкой. А то первый раз слышу про это в официальном качестве, хотя и подозревал.
Нет, не забыл.
Во-первых, там уточнение "на их месте",.т.е. конкретно я не своё личное желание указал, а смоделировал технически логичное поведение для тех, кто хочет блокировать сайты.
Во-вторых, если вам интересно моё личное отношение к ESNI (хотя оно тут не важно), то я уже высказывал его несколько раз, оно негативное — эта штука опирается на монополизацию веб-хостинга (ибо на своём личном сервере смысла почти не имеет), а монополизация это плохо.
под него любой https подходит, поскольку скрывает url.
Не знаю, где автор данной хабрастатьи усмотрел наезд именно на шифрование SNI.
В таком виде законопроект однозначно вредный, я уж не знаю по глупости это сделали или по злому умыслу.
А вот шифрование SNI я бы на их месте предусмотрительно запретил ещё тогда, когда оно было в ещё не утверждённом проекте rfc. А точнее разослал бы от РКНа инструкцию провайдерам о том, что отсутствие читаемого SNI следует считать за присутствие наиболее плохого варианта из возможных на этом ip-адресе (это на случай, если провайдеры сами не догадаются, что иначе их будут штрафовать на неблокировку доменов).
Отказываться от журналов они не будут, потому что слишком привыкли.
Вот только поколение в итоге сменится на тех, у кого этой привычки нет, и вся эта система рассыпется по причине отсутствия в ней разумных участников (т.е. кого-то кроме бюрократов с менеджерами).
Статья интересная, но ей не хватает удобной для чтения структуры, она сейчас выглядит просто как набор тезисов один за другим, по одному на абзац.
Странная статья. Хотя скорее это заслуга не автора упомянутых в ней выводов, а журналиста, её писавшего, или хабрапереводчика.
Кажется речь идёт про какой-то конкретный суперкомпьютер, а то и про конкретную вычислительную программу, на нём запущенную.
Как раз большие вычисления и надо оптимизировать в первую очередь. Я и не предполагал что кто-то додумается для них интерпретируемый язык использовать.
Хотя в идеале конечно всякие питоны с пхп надо только для построения прототипов использовать, а продакшн программы писать только на компилируемых языках.
Проблемы у них начались с тех пор как они решили повторять за хромом, тем самым добровольно поставив себя в положение догоняющего (причём — догоняющего неправильную цель). Аудиторию хрома (домохозяек которые раньше использовали IE) этим не переманить, а свою собственную можно и потерять. Впрочем даже в текущей плачевной ситуации альтернатив файрфоксу (кроме возможно его форков) до сих пор нет.
Лучше было бы если бы с 3.х версии ничего не трогали в интерфейсе и архитектуре, а только добавляли поддержку новых html/css/js конструкций в движок. Который они тоже убили как самостоятельный продукт ещё много лет назад, даже не удосужившись нормально это задокументировать в своём MDN (там кругом устаревшие статьи на этот счёт были по крайней мере ещё недавно).
Может и костыли, но это никак не отменяет того факта, что неиспользование шифрование сайтом А никак не мешает его всё же использовать сайтом Б. И с ESNI так же — никто нигде не заставляет его использовать, включается он только по желанию владельца сайта.
Сколько глупостей подряд.
Очевидно, можно. Кто-то использует http без tls, то никак не мешает их соседям использовать https.
Не всё, см. выше.
Запрещает. Я вот даже не поленился посмотреть механику работы ESNI (самому то сразу было очевидно что это что-то дефективное, и тут вот аргументы понадобились — надо выяснить где именно дефект). SNI шифруется ключом из днс. В hosts его никак не прописать. Так что вам придётся давать клиентам ещё и какой-то софт для подмены ключа ESNI (а то и полноценный https mitm организовывать, если окажется что ESNI защищён от подмены). Проще уж дать им настройки зашифрованного прокси сервера (http proxy over tls например), который умел всё то же самое с момента его появления (очень давно) и безо всяких костылей.
Так этой нелепости (ESNI) и надо.
Во-первых, прятать адрес сервера это концептуально идиотизм (вы ещё ip-адрес зашифруйте), а во-вторых, эта чушь работает только при условии нахождения вашего сервера на хостинге централизованного околомонополиста (у которого на том же адресе ещё куча доменов), пользоваться услугами которого ничуть, в идеологическом плане, не лучше чем хоститься в китайском WeChat'е.
Выложил небольшое обновление (ссылки обновлены). Кроме чисто технических правок, что изменилось:
1) исправлен баг при парсинге некорректного http-заголовка без двоеточия (при поиске двоеточия не учитывался завершающий нулевой байт строки заголовка, и двоеточие могло "найтись" в мусоре после конца строки, который был бы посчитан частью заголовка) как в запросе от браузера, так и в ответе от сайта, мог привести к segfault или (при очень "удачном" стечении обстоятельств) к утечке в браузер (а из него через js — на злонамеренный сервер) случайных областей памяти процесса прокси, содержащих данные прошлых проксированных запросов; или злонамеренный клиент мог попытаться отправить на "нужный" сервер обрывки длинных заголовков предыдущего запроса, прошедшего через тот же прокси-процесс;
2) ютуб перестал слушаться опцию &disable_polymer=true, теперь для той же цели используется фейковый юзер-агент;
3) оказывается в сертификатах бывают доменные имена не в нижнем регистре (пример: Techlibrary.hpe.com), теперь домен сравнивается без учёта регистра;
Второй вариант тоже имеет право на существование, я его указал в скобках. Поэтому непонятен второй абзац вообще. Если нужно выдать текст на широкую аудиторию — выкладывают там где читает широкая, и что с того? Речь то не об этом была, а о том, каким образом учёные могут поделиться с желающими результатами своего труда. И в этом плане журналы, на мой взгляд — инструмент мало того что не самый удачный финансово, так ещё тянущий кучу легаси с позапрошлого века (например имитация бумажного форматирования и ежедневных/недельных/месячных выпусков, хотя всё это давно никому не нужно).
Есть более современные, удобные и быстрые инструменты для того, чтобы один человек что-то переслал группе других. Когда-то давно, когда для этого было неизбежно нужно верстать статью на бумаге, затем физически её распечатывать и доставлять домой читателям, журналы эту функцию научились выполнять оптимальным способом. А заодно (думаю, главным образом по причине того, что надо экономить бумагу и не тратить её на невостребованные тексты) приобрели побочную функцию цензоров, которую кто-то, в свою очередь, решил использовать для оценки качества статей (раз попала в этот журнал, славящийся высоким конкурсом на свои страницы, то видимо она хорошая).
Так вот, тут устарела сама основа — бумагу больше экономить (как и тратить) не нужно, организовывать печать и доставку тоже не нужно. Верстать под бумажный формат тоже не нужно, а вообще вёрстку уже давно делают сами авторы.
А механизм оценки качества статьи можно и другой использовать. Повторюсь, в журналах он получился таким как есть не от того, что это лучший способ, а от того, что в этом была финансовая необходимость по экономии бумаги. На хабре есть свой, ну а если кому-то нужен именно экспертный совет — никто не мешает составлять каталоги статей (быть их публикатором для этого не нужно), одобренных советом рецензентов (им же, судя по данной статье, за это и так и так не платят? в чём тогда проблема?). Однако вокруг имеющегося способа уже выросла целая система различных активностей, в которой задействовано множество людей, которые к ней как минимум просто привыкли и не захотят менять на что-то другое вне зависимости от эффективности, а кто-то так и вообще заинтересован в её побочных незапланированных эффектах т.к. он ими пользуется.
Главная проблема научных публикаций — в том что вся эта система представляет из себя бюрократизированное legacy. И дело не в каких-то конкретных аспектах, а во всей системе целиком.
Есть современные методы публикации своих работ — в интернете — тот же хабр, а так же много других сайтов (форумы, блоги). Они не представляют из себя развитие устаревшего хлама из позапрошлого века, а построены с нуля в новых реалиях и под новые потребности. Но инерция велика, и люди (и гос. структуры), привыкшие к той системе, предпочитают в ней и оставаться (у них слишком много всего завязано на её систему понятий), да ещё и вербуют туда пополнение из новых поколений.
Да вы чё, реально же полезная прога. Хоть и в целом неодобрительно отношусь в microsoft'у, но тут стоит признать что это полезный инструмент, и сделанный без подтекстов вида "чтобы переманить их потом на винду". Хотя, с другой стороны, sysinternals то не совсем microsoft, хоть и входит в их состав.
Варианты с top+strace+ещё неизвестно что это, конечно, в некотором роде альтернатива, но ей в плане итогового удобства далеко до монолитного продуманного приложения, где НЕ надо делать никаких донастроек и интеграций, путь даже и коротких. А ещё она будет работать когда у вас вдруг pid'ы закончатся или ещё что, мешающее запускать новые процессы.
Если отсеять тех, то адресами вообще не пользуется, либо пользуется, но не готов платить ежемесячно/ежегодно (да, раньше, а может и сейчас, их раздавали навечно и не предполагали механизм возврата) их хватит ещё на 100 лет вперёд, а то и больше.
А ipv6 и все ему сопутствующие агит-материалы это маркетинг.
А ну да, как-то упустил этот момент, что по факту тут требование апача исходило от коммерческого клиента и автор не виноват.