Как стать автором
Обновить
72
0
Alrond @alrond

Пользователь

Отправить сообщение
> Самым простым будет создание защищенного ssh соединения с сервером. Несколько клиентов подключаются по OpenSSH и общаются, например, используя команду wall. Дешево и сердито.
github.com/shazow/ssh-chat
У меня есть простое правило: покупать те устройства, которые способны управляться локально, без использования облаков. После этого девайсу блокируется выход в интернет файрволом на уровне роутера — готово. Если хочется управлять снаружи, то девайс заводится в Home Assistant, где всё под контролем, при чём под собственным.

В принципе, именно к локальному управлению я и готовила кормушку, когда произошёл сабж.

Вот, почему умный автоматизированный дом должен быть оффлайн. Без отправки данных всяким гуглам и китайцам. Сначала люди покупают чёрные ящики, которые не способны работать без доступа к каким-то левым серверам — таким же чёрным ящикам, а потом удивляются, почему их данные утекли в сеть.


По этому поводу меня очень разочаровали хлаоми в своё время, когда я внезапно узнал, что данные с Mi Band синхронизируются с китаем. Ничего не имею против Китая и не боюсь зондов из каждого утюга, но такие вещи должны иметь документацию протоколов, чтоб любой частный программист мог сам себе написать приложение и складывать полученные данные на своём домашнем сервере. Без неё, к сожалению, как бы мне ни нравился Mi Band, пользоваться я им не хочу — просто неприятно. Уж лучше PineTime купить от Pine64


P.S. Да, я знаю, что умельцы уже раскопали команды управления браслетом, и даже есть альтернативные приложения, но тем не менее, эта штука всё равно остаётся чёрным ящиком, которую ни прошить как хочется, ни что-либо кастомное с ней сделать. Даже зонды в Android от Google не так напрягают — к Android хотя бы документация есть и можно собрать его из исходников по своему разумению

НЛО прилетело и опубликовало эту надпись здесь
Например, фотографии Олега Брызгалова посмотрите:

olegbr.astroclub.kiev.ua/

Главный секрет такого успеха, после мастерства самого Олега, это правильная монтировка. Оптика тут вообще десятая по важности, хотя у Олега, конечно, термостабилизированное зеркало, ну и + он снимает не на обычную зеркалку, как большинство любителей, а на специализированную ПЗС-камеру с охлаждением, как у профессионалов. Но камера, на сколько я понимаю, это всего 20-30% успеха. 60% это всё-таки монтировка :)

Ни БТА ни ЗТШ не в состоянии делать снимки дипскай объектов с выдержками больше десяти минут. А монтировки вроде Парамаунта или отечественного Белого Лебедя на это способны. Поэтому Хаббл и отдыхает по сравнению с современными любителями: любитель может поставить в Чили удаленный телескоп на Парамаунте, и снимать несколько месяцев серии по 10-15 минут, и накопить очень много сигнала. Те объекты, которые хорошо выглядят на 2х метрах, выйдут лучше у любителя, хоть на снимке Хаббла прорисуется что-то более мелкое (за счет большего фокуса), но снимок любителя выйдет сочнее, так как никто Хабблу не даст копить сигнал столько времени, слишком дорогое наблюдательное время.

Ну а ЗТШ с БТА никогда не смогут делать подобные снимки, так как Вы уже сами сказали: атмосфера. Слишком маленькое поле зрения, к тому же всё в мыле на таком большом фокусном расстоянии. Был бы ЗТШ со светосилой 1/0.05, может и можно было бы снять художественне любителей, но такой светосильной оптики не существует, к тому же такой апертуры!

Именно поэтому нет никакого смысла заниматься астрофото с телескопа в новости: монтировка, позволяющая для него делать на десяти метрах фокуса снимки с выдержками >10 минут просто не существует, да и не будет никакого термостаба, в поле зрения на фотке будет одно мыло, по сравнению с аккуратными иголочками звезд у телескопов современных астрофотографов.

Вряд ли стоит заниматься астрофото с фокусом больше >5m
на ЗТШ оптика ни разу ни дифракционного качества: никаких лямбда на шесть, и даже на четыре, вполне обычных для любительских инструментов, там нет. Почему?

1) термостабилизация. Она НИКОГДА не происходит (кстати, у телескопа из новости она тоже не случится, слишком большой кусок стекла). Вот для тонких, секционных современных телескопов она возможна. Ну и в случае с адаптивной оптикой, даже если главное зеркало кусок толстого стекла, тоже можно что-то сделать
2) Всё-таки гнутия монтировки. И это не на добе, а на альт-азимутале(на ЗТШ не альт-азимутал, как на БТА, экваториал, но конструктивно монтировки очень схожи), не предназначенном для визуала дипская, для которого число штреля почти не важно, в отличие от апертуры
3) качество главного зеркала: и там и там оно мягко говоря фиговое.

Вы видели современные снимки любителей? У которых нормальная монтировка (парамаунт тот же, или белый лебедь?)? Ну и которые снимают не ленясь на засвеченной даче, а в поле в синей зоне засветки, или у которых стационар в Чили, в Намибии? Художественнее, чем у хаббла получается :)

А всё по тому, что термостабилизированное лямбда на 4 зеркало, правильная монтировка, позволяющая выдержки более десяти минут на более чем двух метрах фокуса. Когда складываются сотни кадров серии, все NGC-ые галактики начинают выглядеть фантастически красиво (если, конечно, двух метров достаточно, что бы их можно было разглядеть).

Нет, телескоп из новости это мечта. Но мечта для дипскайного визуала. Фотографировать через него, или визуалить по планетам бред :)

Интересно, в него можно увидеть глазами красный цвет в туманности ориона?

На ЗТШ, например, звёзды
Наверное, именно поэтому все снимают на Белом Лебеде, а не на добсонах? :)
Монтировка страшно провисает, в том числе у профессиональных инструментах. На тот же БТА или ЗТШ снимать нельзя, так как будет страшное мыло, на них снимают спектры, а вот астрофото не делают.
Вы себе представляете КАКАЯ жесткость нужна для съемки на 10м? Тут уже на 1000мм нельзя снимать на EQ5, а Вы предлагаете на добе!
То о чём вы говорите — это HOTP и TOTP. Он основан на использовании HMAC и общего секрета между пользователем и сервером. Ubikey можно использовать и в этом режиме, но не очень удобно — тогда требуется специальный апплет на компьютере, и действительно тогда смартфон удобнее.

Ubikey работает в следующих режимах (список не полный, только то, чем пользуюсь сам):
  • U2F — второй фактор для авторизации, в основе которого лежит криптография на эллиптических кривых и HMAC. Плюс в том, что работает во всех современных браузерах сразу и требует от пользователя только прикосновения к брелку. Достаточное количество веб-сервисов его уже поддержиают; я использую его и для входа на локальную машину (pam_u2f в линуксе, на других системах наверное тоже есть).
  • OpenPGP смарт-карта — в этом режиме брелок можно использовать как смарт-карту для GnuPG, а это значит: можно шифровать, расшифровывать и подписывать без опасений, что ключ украдут. Можно использовать его же для авторизации по SSH: GnuPG тогда работает по протоколу агента SSH и криптографическая операция с ключом при входе происходит на брелке. Никакой специальной поддержки со стороны сервера не требуется.


Насчёт бэкапов — бэкапить второй фактор не принято, принято иметь альтернативный второй фактор: или скрэтч-коды, или второй TOTP, или U2F.

А вот ключ, хранящийся на смарт-карте OpenPGP бэкапить действительно стоит. Тогда перед загрузкой его на карту его нужно скопировать в безопасное место. После загрузки (или генерации его прямо на карте) извлечь его не удастся.
НЛО прилетело и опубликовало эту надпись здесь
Если по времени работы то смотрите часы от Garmin, там много разных моделей, из минусов — чуть хуже экраны, у дешевых моделей дизайн еще хуже чем у Pebble, софт плохой, в сторе у них одни циферблаты (из-за ограниченного и глючного SDK там ничего особенно серьезного не сделать).
Еще вот наткнулся на VectorWatch — обещают месяц+ от одного заряда, но судя по всему там еще все очень сыро.
Мне как-то напрочь изолированный kvm ближе. Ресурсов и памяти у сервера с избытком…
Так и было. Сначала был вариант Postgress + файловая система. То есть тупо агрегированные данные записывались в определенную систему папок в сгруппированном виде. И раз в месяц стирались. Кстати, до сих пор считаю этот вариант самым предсказуемым по скорости при первом доступе к данным.

Потом Postgres + Redis. В этом случае все почти здорово, но если диск безразмерен, то память конечна, и это несколько напрягало. На диск я могу данные класть хоть по крону (так сказать, предподготовка кеша раз в неделю). Но отдавать под Редис пару десятков гигов смысла нет. Е раз нет — проблема прогрева все равно остается.

ElasticSearch эту проблему решил. Сейчас этот вариант — основной. Конечно, есть опасения в стабильности решения, доверия PostgreSQL больше (старый конь борозды не портит), но с другой стороны — выгоды от применения просто неожиданно полно перекрыли бизнес-требования, что решили рискнуть.
Я всё же не до конца понимаю про что именно надо рассказать?
Про устройство нашего слаб аллокатора? Индексов в памяти? Файберов? Взаимодействия между тредами?
Вот навскидку несколько видео с моими выступлениями про Тарантул:

www.youtube.com/watch?v=ijLITsbc29w
techforum.mail.ru/report/73

www.youtube.com/watch?v=bM0zK0lwEz8

vimeo.com/111068763
Avito оперативно организовали meetup чтобы рассказать об их использовании Tarantool :-):

www.meetup.com/Tarantool/events/220924229/
За этот не скажу, но есть которые умеют, например medilas.com.ua/developing/esr-meter.html
«Возможность проверять конденсаторы не выпаивая из схем.»

Или этот masterkit.ru/help/articles/49
«Имея же прибор для внутрисхемной диагностики электролитических конденсаторов, можно быстро проверить их все и заменить только низкокачественные»
Вот пример моего конфига с которым ssllabs.com дает A+
listen                      443 ssl spdy;
ssl                         on;
ssl_protocols               TLSv1.2 TLSv1.1 TLSv1;
ssl_session_cache           shared:SSL:20m;
ssl_session_timeout         10m;
ssl_ciphers                 'EECDH+ECDSA+AESGCM:AES128+EECDH:AES128+EDH:!RC4:!aNULL:!eNULL:!LOW:!3DES:!MD5:!EXP:!PSK:!SRP:!DSS:!CAMELLIA:!ADH';
ssl_prefer_server_ciphers   on;

resolver                    8.8.8.8 8.8.4.4 valid=300s;
resolver_timeout            10s;
add_header                  X-Frame-Options             "DENY";
add_header                  X-Content-Type-Options      "nosniff";
add_header                  Strict-Transport-Security   "max-age=31536000";
add_header                  Public-Key-Pins 'pin-sha256="[SOME_BASE64]"; max-age=5184000;';  #[SOME_BASE64] надо выставлять свое, гуглить как считать Public-Key-Pins
ssl_stapling            on;
ssl_trusted_certificate /etc/nginx/ssl/[SITE]/trustchain.pem;
ssl_certificate         /etc/nginx/ssl/[SITE]/server.crt;
ssl_certificate_key     /etc/nginx/ssl/[SITE]/server.key;
ssl_dhparam             /etc/nginx/ssl/[SITE]/dh.pem;        #openssl dhparam 2048 -out dh.pem
pyenv переключает нужную версию питона просто по файлу .pyenv-version в корне проекта. Например в нужном проекте сработает python2.7, в другом 3.4.1.
pyenv может легко поставить любую версию python, в том числе и последние свежие pypy и тому подобное.
То что его идея пришла из мира руби не делает её плохой.
Чуваки из дебиан немного странные и сломали easy_pip как-то раз, с совершенно тупой аргументацией. В итоге python -m venv пошел лесом.

Но учитывайте же, что это всё инструменты для удобной разработки — деплоить через pyenv я не рекомендую — при деплое вполне возможно воткнуть на сервер правильную версию интерпретатора с помощью какого-либо репо.

update_alternatives — ооочень странные рекомендации — нафига? В стартовом скрипте укажите полный путь до нужной версии, всё будет работать без этой фигни странной.
Собирал full-mesh на tinc ( www.tinc-vpn.org/ )
Выглядит существенно более зрелым.
Приватную сделать можно, у меня своя.
Но там, на первый взгляд, всё лучше с шифрованием — промежуточные хосты не могут почитать трафик, предназначенный не им. Не то, чтобы это очень сильно всем нужно, но спасает от появления в peervpn контролируемого злоумышленником хоста — трафик он транзитный всё равно не посмотрит.

Информация

В рейтинге
Не участвует
Откуда
Германия
Зарегистрирован
Активность