Открываете консольку хрома, обновляете страницу (прямо тут на хабре можно), ищете запросы с вхождением слова collect(GA). Там и разрешение экрана, и информация о посещенной странице и еще много всего. Не знаю как у GA, но у Метрики например есть webvisor, которые еще и карту ваших кликов по странице снимает. Понятное дело что решение об установке и последующей аналитике принимает владелец сайта, но никто не мешает системе анализировать глобально по всему собранному массиву данных со всех сайтов в разрезе одного человека. На основе этого анализа строится контекстная реклама например.
А это разве надо доказывать? Достаточно зайти на https://myactivity.google.com/ и подобные или заказать у сервиса выгрузку данных о себе(не знаю у всех ли она есть). И будет очевидно, что данные собираются и их достаточно много. Хватает ли этого чтобы называться "досье"? Не знаю, но некоторым хватает для того чтобы быть против.
А зачем так привязываться к Supervisor? Что такого он делает с HA кроме подняния после падения? При запуске в docker/docker-compose весь функционал Supervisor выполняет демон докера. При запуске на голой системе примерно тоже самое можно реализовать с использованием systemd.
В Spark переходя на python вы попадаете как минимум на сериализацию/десериализацию данных. По сути вы получили скорость работы локального Python скрипта + время поднятия/запуска spark job.
Spark вообще c local[*] имеет смысл запускать только для целей отладки. Spark это не локальная утилита для расчетов. Он про распределенные вычисления на кластерах и большие массивы данных. Так же там нужно озаботиться правильным шардированием данных по нодам, чтобы соблюдать data locality и избегать shuffle.
Это как взять камаз для доставки спичечного коробка по высокоскоростной магистрали. Да, легковушка довезет быстрее. Вот только если вам этих спичек нужно будет привезти тонну, производительность камаза даже с его 80км/ч будет гораздо выше.
Главная уязвимость Zoom это пользователи не умеющие ставить паузу демонстрации, когда копипастят свои пароли из бережно заготовленного файлика на рабочем столе.
В общем правая рука Альфа-Банк не знает что делает левая. Саппорт сказал что можно, финкронтроль благополучно заявку зарезал.
Но есть костыль. Переходим в старый ЛК, и кажется там можно сделать заявление в котором сразу указать что часть валюты нужно продать, а часть оставить.
СДЭК дважды отправлял чужие посылки от моего имени. Мне приходили все уведомления и трек номера. Только вот ни адресов таких я не знаю, ни посылок не отправлял. Так что сливу их базы вообще ни разу не удивлен.
Выгода в том что люди привыкают к сервису, пишут под него тулы, учатся. А потом отдают голос за него, когда встает выбор подобного сервиса в компании. И вот тут уже начинается заработок.
Спрашивается, зачем вводить платёжные реквизиты, если инстанс совершенно бесплатный?
Например для того чтобы люди не злоупотребляли бесплатными ресурсами. Без ввода карты это прямая дорога для написания бота, поднятия на нем спам рассыльщика, майнера и прочей гадости. А с вводом реальной работающей карты, с которой еще и иногда снимают (с возвратом) некоторую сумму, данный кейс становится просто невыгодным. Выпуск виртуальных карт сожрет все профиты.
Без доли сарказма хочу спросить, в чем изобретение? 3d принтеры нынче совсем не редкость, цена на них тоже падает все ниже. Сварочный аппарат вроде тоже не изобрели. Присоединить сварочник вместо экструдера, согласен, требует заморочиться с креплением/проводкой. Но в остальном, чуть ли не ванильный Marlin и пачка g-code.
Нет нет, конечно, безумно круто что люди в столь молодом возрасте уже делают такие вещи.
Но в чем ноухау? В чем профит? Времени тут тоже кажется не выиграть, ибо пока все это настроишь и заправишь, руками быстрее сделать. А если на поток то медленно.
В общем тема как-то не раскрыта, но парни безусловно молодцы.
После нее, т.е. спустя более чем полгода(на 02.02.2021), было выпущено уже 29(!) версий в рамках мажорной 13й. Не говоря уже о том что есть уже мажорная 14я. Среди них были и security updates.
Так что ничего удивительного и сенсационного. Давайте еще поставим windows 98 и будем удивляться что с первого же сайта словили порнобаннеры, шифровальщики и прочую грязь.
Понятно что в рамках мажорной не у всех есть возможность обновляться так быстро, но вот минорные надо ставить. Вообще Gitlab достаточно динамичный в плане выпуска версий, это надо понимать когда ставишь его в инфраструктуру.
У нас есть Interceptor через который централизованно проходят все запросы. Он в свою очередь пишет все это просто в лог. На самом деле даже разбивать на отдельные поля в ELK не приходится. Хватает того что body запроса просто есть в поле message.
Из важных нюансов еще, важно разбивать любой запрос на 2 сообщения. Одно про request, второе про response, потому что response по итогу может и вовсе не случиться, зато будет request с которым можно будет ходить к коллегам и спрашивать, что же в нем не так и почему оно вызывает ошибку.
На проде мы такого не гоняем, а на деве нет такой нагрузки чтобы весь этот механизм хоть сколько нибудь сильно влиял на производительность.
Да, про логгирование есть, но я бы добавил прям отдельным пунктом:
Все без исключения запросы к внешним системам должны быть залоггированы (включая request/responce body на уровне DEBUG) и замониторены (rps, p75,p95,p99, error rate).
Это еще на этапе разработки сохранит десятки часов дебага и традиционного упражнения "покажите наши логи".
И еще бы наверное стоило добавить пункт:
Мое приложение пишет логи в json(или ином сериализованном формате) и их(логи) не приходится парсить регулярками чтобы нормально проанализировать.
Есть ли в lerna способ задать ту версию которую я хочу выставить? По дефолту она вроде сама инкрементит версию, но как быть если версия приходит "извне" и не поддается простой логике lerna?
Открываете консольку хрома, обновляете страницу (прямо тут на хабре можно), ищете запросы с вхождением слова collect(GA).
Там и разрешение экрана, и информация о посещенной странице и еще много всего. Не знаю как у GA, но у Метрики например есть webvisor, которые еще и карту ваших кликов по странице снимает. Понятное дело что решение об установке и последующей аналитике принимает владелец сайта, но никто не мешает системе анализировать глобально по всему собранному массиву данных со всех сайтов в разрезе одного человека. На основе этого анализа строится контекстная реклама например.
А это разве надо доказывать? Достаточно зайти на https://myactivity.google.com/ и подобные или заказать у сервиса выгрузку данных о себе(не знаю у всех ли она есть). И будет очевидно, что данные собираются и их достаточно много. Хватает ли этого чтобы называться "досье"? Не знаю, но некоторым хватает для того чтобы быть против.
1млн техники apple... Как громко звучит то!
Это они 2 ноута на m1 и 1 айфон на сдачу вынесли? )))
А зачем так привязываться к Supervisor? Что такого он делает с HA кроме подняния после падения?
При запуске в docker/docker-compose весь функционал Supervisor выполняет демон докера.
При запуске на голой системе примерно тоже самое можно реализовать с использованием systemd.
Home Assistant бывает и в виде боксов.
https://www.home-assistant.io/blue/
https://www.crowdsupply.com/nabu-casa/home-assistant-yellow
Сама затея, как процесс интересная, но кажется ковырнуть аппку и дергать API его бекенда напрямую было бы куда проще и оперативнее.)
В Spark переходя на python вы попадаете как минимум на сериализацию/десериализацию данных. По сути вы получили скорость работы локального Python скрипта + время поднятия/запуска spark job.
Spark вообще c local[*] имеет смысл запускать только для целей отладки. Spark это не локальная утилита для расчетов. Он про распределенные вычисления на кластерах и большие массивы данных. Так же там нужно озаботиться правильным шардированием данных по нодам, чтобы соблюдать data locality и избегать shuffle.
Это как взять камаз для доставки спичечного коробка по высокоскоростной магистрали. Да, легковушка довезет быстрее. Вот только если вам этих спичек нужно будет привезти тонну, производительность камаза даже с его 80км/ч будет гораздо выше.
Главная уязвимость Zoom это пользователи не умеющие ставить паузу демонстрации, когда копипастят свои пароли из бережно заготовленного файлика на рабочем столе.
В общем правая рука Альфа-Банк не знает что делает левая.
Саппорт сказал что можно, финкронтроль благополучно заявку зарезал.
Но есть костыль. Переходим в старый ЛК, и кажется там можно сделать заявление в котором сразу указать что часть валюты нужно продать, а часть оставить.
Официальный ответ Альфы сегодня.
Вы можете при создании РСТС перевести средства на валютный счет и после конвертировать валюту в рубли.
P.S.
Заранее прошу прощения если картинка припрепится такой огромной какой я ее вижу в редакторе.
СДЭК дважды отправлял чужие посылки от моего имени. Мне приходили все уведомления и трек номера. Только вот ни адресов таких я не знаю, ни посылок не отправлял. Так что сливу их базы вообще ни разу не удивлен.
Выгода в том что люди привыкают к сервису, пишут под него тулы, учатся. А потом отдают голос за него, когда встает выбор подобного сервиса в компании. И вот тут уже начинается заработок.
Например для того чтобы люди не злоупотребляли бесплатными ресурсами. Без ввода карты это прямая дорога для написания бота, поднятия на нем спам рассыльщика, майнера и прочей гадости. А с вводом реальной работающей карты, с которой еще и иногда снимают (с возвратом) некоторую сумму, данный кейс становится просто невыгодным. Выпуск виртуальных карт сожрет все профиты.
Без доли сарказма хочу спросить, в чем изобретение?
3d принтеры нынче совсем не редкость, цена на них тоже падает все ниже.
Сварочный аппарат вроде тоже не изобрели. Присоединить сварочник вместо экструдера, согласен, требует заморочиться с креплением/проводкой. Но в остальном, чуть ли не ванильный Marlin и пачка g-code.
Нет нет, конечно, безумно круто что люди в столь молодом возрасте уже делают такие вещи.
Но в чем ноухау? В чем профит? Времени тут тоже кажется не выиграть, ибо пока все это настроишь и заправишь, руками быстрее сделать. А если на поток то медленно.
В общем тема как-то не раскрыта, но парни безусловно молодцы.
А почему не рассматривали wildcard сертификаты LE? Тот же cert-manager их может выпускать и обновлять.
После нее, т.е. спустя более чем полгода(на 02.02.2021), было выпущено уже 29(!) версий в рамках мажорной 13й. Не говоря уже о том что есть уже мажорная 14я.
Среди них были и security updates.
Так что ничего удивительного и сенсационного. Давайте еще поставим windows 98 и будем удивляться что с первого же сайта словили порнобаннеры, шифровальщики и прочую грязь.
Понятно что в рамках мажорной не у всех есть возможность обновляться так быстро, но вот минорные надо ставить. Вообще Gitlab достаточно динамичный в плане выпуска версий, это надо понимать когда ставишь его в инфраструктуру.
Перед глазами прям промелькнули 2010е. Стоит только к названию любой софтины в поиске дописать +crack и вся поисковая выдача забита сайтами с варезом.
А как они потом рассылали владельцам доменов претензии за использование крякнутой версии самого DLE. Ох, ушла эпоха...
У нас есть Interceptor через который централизованно проходят все запросы. Он в свою очередь пишет все это просто в лог. На самом деле даже разбивать на отдельные поля в ELK не приходится. Хватает того что body запроса просто есть в поле message.
Из важных нюансов еще, важно разбивать любой запрос на 2 сообщения. Одно про request, второе про response, потому что response по итогу может и вовсе не случиться, зато будет request с которым можно будет ходить к коллегам и спрашивать, что же в нем не так и почему оно вызывает ошибку.
На проде мы такого не гоняем, а на деве нет такой нагрузки чтобы весь этот механизм хоть сколько нибудь сильно влиял на производительность.
Да, про логгирование есть, но я бы добавил прям отдельным пунктом:
Это еще на этапе разработки сохранит десятки часов дебага и традиционного упражнения "покажите наши логи".
И еще бы наверное стоило добавить пункт:
Есть ли в lerna способ задать ту версию которую я хочу выставить? По дефолту она вроде сама инкрементит версию, но как быть если версия приходит "извне" и не поддается простой логике lerna?