Можно добавить что выпуск сертификатов на три года теперь невозможен (с 1 марта 2018). Так что обычные поставщики сертификатов потеряли один из плюсов.
А задержка с выпуском в прод wildcard сертификатов это очень грустно. Буквально сидел и ждал когда настанет 27-е февраля…
Видимо, под "автоматически" имеется в виду автоматический режим официального клиента, который работает с правами root и, в теории, может быть скомпрометирован. Хотя под капотом он всё равно cron использует. Под вторым вариантом, видимо, подразумевают ручную настройку клиента с ограниченными правами.
Мне нравится отдельно про обновление LE сертов «напоминание»:
Вы можете, конечно, перевыпускать сертификат каждые 3 месяца, но обязательно следите за сроками.
…
Автоматическое обновление. Этот способ подразумевает, что вы принимаете автоматические настройки, предусмотренные Центром сертификации. И тут нужно понимать, что вы таким образом даёте свое согласие на то, что ЦС может вносить изменения по своему усмотрению в ПО и настройки вашего сервера.
Бред и бред же: с сертом от других ЦС обновлять можно только руками (так что следить и следить, да еще ходить по всяким личным кабинетам, чтобы забрать серт), а что автообновление сертификата позволяет «вносить изменения по своему усмотрению в ПО и настройки вашего сервера» — это прямо раскидистая клюква.
Теперь, правда, GlobalSign себя загнал в ловушку: если сделают автообновление их сертификатов, то подпадут под свою же «критику номер два», если не сделают — отгребают по своей критике про то, что «следить надо».
Но самое важное: GS стыдливо замалчивает момент того, что в 99% случаев вполне хватает DV-сертификатов (чем и занимается LE), и отличные, в принципе, серты от GS как бы нужны (и стоят своих денег) только для оставшегося 1%.
Хотя есть одна большая оговорка: на TPU мы не смогли добиться сходимости модели, хотя та же модель (размер пакетов и прочее) на GPU работала нормально.
Напоминает анекдот:
Устраивается секретарша на работу. Директор спрашивает:
— Какая у вас скорость печати?
— 10000 знаков в минуту!
— Так много???
— Правда такая ерунда получается…
У меня на i5 собиралась часов 4-5.
Как у него собирается я не понял. У него 24 ядра и 64 памяти на рабочей машине для тестов сборки. Хотя он действительно писал, что использует распределенную компиляцию.
Все равно, лишний раз напомнил мне, что пора обновляться.
64 с нуля собирается за пару часов на обычном i7. Ребята там серьёзно потрудились над сборкой. А у этого чувака из гугла так вообще goma — распределённая система компиляции хрома. Так что там у него только линковка финальная и осталась небось.
У меня была чем-то похожая история. Настроил на телефоне с Sailfish OS по расписанию запуск скрипта, который выкачивал обновления большого файла в zip архиве. При запуске руками скрипт отрабатывал отлично, а вот при работе по расписанию unzip в большинстве случаев создавал битый файл, в котором был тупо пропущен кусок. Ровно 64 KiB. Не в хвосте или начале, а в случайном месте! Очень удивительно было искать причины.
Это совсем другая история. CygWin пытается эмулировать fork — и сделано это через такое место, что высказывание Роланда (сказанное им по похожему, но другому поводу) оказывается весьма к месту: «если говорить начистоту, то сравнивать этот подход со скотчем, алюминиевой проволокой или жевательной резинкой — это оскорбление всех трёх преотличных строительных материалов» (Frankly, I think referring to this scheme with «duct tape», «bailing wire», or «chewing gum» does a disservice to all three of those fine building materials.)
Напомнило баг из собственной практики… Довольно большой проект (около получаса полной сборки) собирался под виндой цигвином. Собирался на самом деле с помощью visual studio, но с помощью make от cygwin, а потому в его среде (не я это придумал). И вот если был запущен файрфокс, а в нем были открыты пара страничек с видео (тогда еще в flash), то в какой-то момент cygwin начинал валиться в coredump. Стоило перезапустить файрвокс и сборка опять налаживалась. Вот такие чудеса бывают.
На ДНС-сервере провайдера создается фейковая доменная зона и всего делов. Пол интернета так не заблокируешь. Тут накрывает намного более точечно, чем блокировка по ip. Такой способ довольно дешев, т.к. не требует замены оборудования — т.е. не требует повышения тарифов.
Не умеет, конечно. Как в судебном постановлении написано, так Роскомнадзор в реестр и вносит. Как-то вносили ссылку с обратными слешами (https:\\something), и она там была длительное время.
А были случаи когда кто то выплачивал эту компенсацию?
По этому все ссылки с UTM-метками utm_campaign=lets%20encrypt
А задержка с выпуском в прод wildcard сертификатов это очень грустно. Буквально сидел и ждал когда настанет 27-е февраля…
одного не понял: почему крон — это не "автоматически", и что такое тогда "автоматически"?
Видимо, под "автоматически" имеется в виду автоматический режим официального клиента, который работает с правами root и, в теории, может быть скомпрометирован. Хотя под капотом он всё равно cron использует. Под вторым вариантом, видимо, подразумевают ручную настройку клиента с ограниченными правами.
Бред и бред же: с сертом от других ЦС обновлять можно только руками (так что следить и следить, да еще ходить по всяким личным кабинетам, чтобы забрать серт), а что автообновление сертификата позволяет «вносить изменения по своему усмотрению в ПО и настройки вашего сервера» — это прямо раскидистая клюква.
Теперь, правда, GlobalSign себя загнал в ловушку: если сделают автообновление их сертификатов, то подпадут под свою же «критику номер два», если не сделают — отгребают по своей критике про то, что «следить надо».
Но самое важное: GS стыдливо замалчивает момент того, что в 99% случаев вполне хватает DV-сертификатов (чем и занимается LE), и отличные, в принципе, серты от GS как бы нужны (и стоят своих денег) только для оставшегося 1%.
Напоминает анекдот:
Устраивается секретарша на работу. Директор спрашивает:
— Какая у вас скорость печати?
— 10000 знаков в минуту!
— Так много???
— Правда такая ерунда получается…
Как у него собирается я не понял. У него 24 ядра и 64 памяти на рабочей машине для тестов сборки. Хотя он действительно писал, что использует распределенную компиляцию.
Все равно, лишний раз напомнил мне, что пора обновляться.
Это ещё что, я баг в прошивке винчестера находил.
Там и не только Firefox мог повлиять…
Напомнило баг из собственной практики… Довольно большой проект (около получаса полной сборки) собирался под виндой цигвином. Собирался на самом деле с помощью visual studio, но с помощью make от cygwin, а потому в его среде (не я это придумал). И вот если был запущен файрфокс, а в нем были открыты пара страничек с видео (тогда еще в flash), то в какой-то момент cygwin начинал валиться в coredump. Стоило перезапустить файрвокс и сборка опять налаживалась. Вот такие чудеса бывают.
Забыли про конституцию и свободу слова?