• Самая нужная программа на свете
    +1
    еще лет 10 назад задумывался о проблемах организации инфы, но кривые велосипеды писать не хотелось, потому забил.

    потом лет 5 назад пришлось разбираться в новых для меня областях (экономика, политика, история, философия), и проблема «информационных перегрузок» встала в полный рост. но там я уже немного лучше понимал запущенность проблемы, и снова забил. вернее нашел нечто более менее удобоваримое (diigo), и успокоился.

    окончательно ситуация сдвинулась когда прочитал замечательную статью об Информационно-Аналитической Системе (ИАС) Palantir (Говорящие камни на службе цру, на здньюс от берда киви) — и чтото в голове перещелкнуло. сразу стало понятно что всякие пимы, миндмапы, блокноты и прочие поделки это просто не тот уровень, нужна именно комплексная аналитическая система по типу палантира, только открытая) и как раз это уже вполне реально(хотя и более трудозатратно, но само решение более адекватно вызову).

    кстати есть более менее доступные варианты ИАС, например «сайтспутник». не помню есть ли там организация базы знаний(должна быть), но по функционалу уже чтото близкое. кому интересно можно еще на сайте hrazvedka.ru пошерстить инструментарии, там тоже много интересного, хотя именно ИАС вообще довольно мало, и практически все коммерческие.

    >но я нигде не могу найти их в бумажном виде. С экрана же глубокого чтения у меня не получается. Максимум что могу читать — художественную литературу с книгочиталки. Но техническую не воспринимаю. Возможно потому, что книгочиталки — это один «лист», а мне нужно быстро прыгать вперед-назад в поисках разных мест, но книгочиталки такого не позволяют, слишком они медленные и неудобные.

    а вы не задумывались что вот это «быстро прыгать вперед назад в поисках разных мест» — это 100% кейс который должен решать ваш «Мемекс»? то есть в идеале книжки тоже нужно читать из вашей системы, да и чтоб она сначала делала какуюнить предобработку инфы, а потом вы еще сами по тексту могли какието вещи отмечать и так далее?

    лично я скорее пытаюсь решать более общую проблему — не только организацию своих знаний, но и поиск релевантной информации и преобразование ее в знания. как минимум прежде чем читать книжку, сначала нужно найти правильную книжку, а не читать все подряд. ну и это не только книжек касается — те кто пытался почитать отзывы перед покупкой нового девайса(чтобы потом не быть разочарованными), или проверять факты (исторические или банально новости, что особенно актуально), или просто разобраться в новой для себя области — все сталкиваются с проблемой информационных перегрузок, и им нужны соответствующие инструменты. вообще это уже область OSINT — опен соурс интеллидженс (разведка по открытым источникам). и она имеет самое прямое отношение к работе с информацией в любой сфере.

    но пока что действительно складывается впечатление что в информационном веке у нас все еще нет подходящих инструментов для жизни и работы в нем. все какието палки копалки из 90х. при этом сами люди такие же как и до книгопечатания, а информация все пребывает и пребывает) многих уже просто смыло потоком, и они уже даже не пытаются барахтаться)
  • Дальнобойщик из Юты построил самый большой любительский телескоп в мире с диаметром зеркала 1,8 метра
    0
    Например, фотографии Олега Брызгалова посмотрите:

    olegbr.astroclub.kiev.ua/

    Главный секрет такого успеха, после мастерства самого Олега, это правильная монтировка. Оптика тут вообще десятая по важности, хотя у Олега, конечно, термостабилизированное зеркало, ну и + он снимает не на обычную зеркалку, как большинство любителей, а на специализированную ПЗС-камеру с охлаждением, как у профессионалов. Но камера, на сколько я понимаю, это всего 20-30% успеха. 60% это всё-таки монтировка :)

    Ни БТА ни ЗТШ не в состоянии делать снимки дипскай объектов с выдержками больше десяти минут. А монтировки вроде Парамаунта или отечественного Белого Лебедя на это способны. Поэтому Хаббл и отдыхает по сравнению с современными любителями: любитель может поставить в Чили удаленный телескоп на Парамаунте, и снимать несколько месяцев серии по 10-15 минут, и накопить очень много сигнала. Те объекты, которые хорошо выглядят на 2х метрах, выйдут лучше у любителя, хоть на снимке Хаббла прорисуется что-то более мелкое (за счет большего фокуса), но снимок любителя выйдет сочнее, так как никто Хабблу не даст копить сигнал столько времени, слишком дорогое наблюдательное время.

    Ну а ЗТШ с БТА никогда не смогут делать подобные снимки, так как Вы уже сами сказали: атмосфера. Слишком маленькое поле зрения, к тому же всё в мыле на таком большом фокусном расстоянии. Был бы ЗТШ со светосилой 1/0.05, может и можно было бы снять художественне любителей, но такой светосильной оптики не существует, к тому же такой апертуры!

    Именно поэтому нет никакого смысла заниматься астрофото с телескопа в новости: монтировка, позволяющая для него делать на десяти метрах фокуса снимки с выдержками >10 минут просто не существует, да и не будет никакого термостаба, в поле зрения на фотке будет одно мыло, по сравнению с аккуратными иголочками звезд у телескопов современных астрофотографов.

    Вряд ли стоит заниматься астрофото с фокусом больше >5m
  • Дальнобойщик из Юты построил самый большой любительский телескоп в мире с диаметром зеркала 1,8 метра
    0
    на ЗТШ оптика ни разу ни дифракционного качества: никаких лямбда на шесть, и даже на четыре, вполне обычных для любительских инструментов, там нет. Почему?

    1) термостабилизация. Она НИКОГДА не происходит (кстати, у телескопа из новости она тоже не случится, слишком большой кусок стекла). Вот для тонких, секционных современных телескопов она возможна. Ну и в случае с адаптивной оптикой, даже если главное зеркало кусок толстого стекла, тоже можно что-то сделать
    2) Всё-таки гнутия монтировки. И это не на добе, а на альт-азимутале(на ЗТШ не альт-азимутал, как на БТА, экваториал, но конструктивно монтировки очень схожи), не предназначенном для визуала дипская, для которого число штреля почти не важно, в отличие от апертуры
    3) качество главного зеркала: и там и там оно мягко говоря фиговое.

    Вы видели современные снимки любителей? У которых нормальная монтировка (парамаунт тот же, или белый лебедь?)? Ну и которые снимают не ленясь на засвеченной даче, а в поле в синей зоне засветки, или у которых стационар в Чили, в Намибии? Художественнее, чем у хаббла получается :)

    А всё по тому, что термостабилизированное лямбда на 4 зеркало, правильная монтировка, позволяющая выдержки более десяти минут на более чем двух метрах фокуса. Когда складываются сотни кадров серии, все NGC-ые галактики начинают выглядеть фантастически красиво (если, конечно, двух метров достаточно, что бы их можно было разглядеть).

    Нет, телескоп из новости это мечта. Но мечта для дипскайного визуала. Фотографировать через него, или визуалить по планетам бред :)

    Интересно, в него можно увидеть глазами красный цвет в туманности ориона?

    На ЗТШ, например, звёзды
  • Дальнобойщик из Юты построил самый большой любительский телескоп в мире с диаметром зеркала 1,8 метра
    0
    Наверное, именно поэтому все снимают на Белом Лебеде, а не на добсонах? :)
    Монтировка страшно провисает, в том числе у профессиональных инструментах. На тот же БТА или ЗТШ снимать нельзя, так как будет страшное мыло, на них снимают спектры, а вот астрофото не делают.
    Вы себе представляете КАКАЯ жесткость нужна для съемки на 10м? Тут уже на 1000мм нельзя снимать на EQ5, а Вы предлагаете на добе!
  • Yubikey 4 — покупка, доставка и получение
    +1
    То о чём вы говорите — это HOTP и TOTP. Он основан на использовании HMAC и общего секрета между пользователем и сервером. Ubikey можно использовать и в этом режиме, но не очень удобно — тогда требуется специальный апплет на компьютере, и действительно тогда смартфон удобнее.

    Ubikey работает в следующих режимах (список не полный, только то, чем пользуюсь сам):
    • U2F — второй фактор для авторизации, в основе которого лежит криптография на эллиптических кривых и HMAC. Плюс в том, что работает во всех современных браузерах сразу и требует от пользователя только прикосновения к брелку. Достаточное количество веб-сервисов его уже поддержиают; я использую его и для входа на локальную машину (pam_u2f в линуксе, на других системах наверное тоже есть).
    • OpenPGP смарт-карта — в этом режиме брелок можно использовать как смарт-карту для GnuPG, а это значит: можно шифровать, расшифровывать и подписывать без опасений, что ключ украдут. Можно использовать его же для авторизации по SSH: GnuPG тогда работает по протоколу агента SSH и криптографическая операция с ключом при входе происходит на брелке. Никакой специальной поддержки со стороны сервера не требуется.


    Насчёт бэкапов — бэкапить второй фактор не принято, принято иметь альтернативный второй фактор: или скрэтч-коды, или второй TOTP, или U2F.

    А вот ключ, хранящийся на смарт-карте OpenPGP бэкапить действительно стоит. Тогда перед загрузкой его на карту его нужно скопировать в безопасное место. После загрузки (или генерации его прямо на карте) извлечь его не удастся.
  • Консоль 21 века: mosh, tmux, fish
    НЛО прилетело и опубликовало эту надпись здесь
  • Fitbit купила Pebble ради патентов. Бренд будет ликвидирован, поддержка устройств — прекращена
    +2

    Если что — торрент с бекапом всего магазина приложений.


    https://m.reddit.com/r/pebble/comments/5g0gmx/in_light_of_recent_news_i_archived_the_app_store/

  • Fitbit купила Pebble ради патентов. Бренд будет ликвидирован, поддержка устройств — прекращена
    0
    Если по времени работы то смотрите часы от Garmin, там много разных моделей, из минусов — чуть хуже экраны, у дешевых моделей дизайн еще хуже чем у Pebble, софт плохой, в сторе у них одни циферблаты (из-за ограниченного и глючного SDK там ничего особенно серьезного не сделать).
    Еще вот наткнулся на VectorWatch — обещают месяц+ от одного заряда, но судя по всему там еще все очень сыро.
  • Linux-контейнеры дома: зачем и как
    +2
    Мне как-то напрочь изолированный kvm ближе. Ресурсов и памяти у сервера с избытком…
  • Прощай, MongoDB, здравствуй, PostgreSQL
    0
    Так и было. Сначала был вариант Postgress + файловая система. То есть тупо агрегированные данные записывались в определенную систему папок в сгруппированном виде. И раз в месяц стирались. Кстати, до сих пор считаю этот вариант самым предсказуемым по скорости при первом доступе к данным.

    Потом Postgres + Redis. В этом случае все почти здорово, но если диск безразмерен, то память конечна, и это несколько напрягало. На диск я могу данные класть хоть по крону (так сказать, предподготовка кеша раз в неделю). Но отдавать под Редис пару десятков гигов смысла нет. Е раз нет — проблема прогрева все равно остается.

    ElasticSearch эту проблему решил. Сейчас этот вариант — основной. Конечно, есть опасения в стабильности решения, доверия PostgreSQL больше (старый конь борозды не портит), но с другой стороны — выгоды от применения просто неожиданно полно перекрыли бизнес-требования, что решили рискнуть.
  • Tarantool 1.6 от первого лица
    +5
    Я всё же не до конца понимаю про что именно надо рассказать?
    Про устройство нашего слаб аллокатора? Индексов в памяти? Файберов? Взаимодействия между тредами?
    Вот навскидку несколько видео с моими выступлениями про Тарантул:

    www.youtube.com/watch?v=ijLITsbc29w
    techforum.mail.ru/report/73

    www.youtube.com/watch?v=bM0zK0lwEz8

    vimeo.com/111068763
  • Tarantool 1.6 от первого лица
    +3
    Avito оперативно организовали meetup чтобы рассказать об их использовании Tarantool :-):

    www.meetup.com/Tarantool/events/220924229/
  • Что подарить гику?
    0
    За этот не скажу, но есть которые умеют, например medilas.com.ua/developing/esr-meter.html
    «Возможность проверять конденсаторы не выпаивая из схем.»

    Или этот masterkit.ru/help/articles/49
    «Имея же прибор для внутрисхемной диагностики электролитических конденсаторов, можно быстро проверить их все и заменить только низкокачественные»
  • Обновление сервисов, запущенных на Go
    +1
    «Вы опасно некомпетентны в криптографии»
    habrahabr.ru/post/181372/

    вы самостоятельно реализовали шифрование в виде AES в CFB режиме плюс SHA1 как MAC,
    наверняка это все подвержено timing-атакам, «padding oracle» и прочему
    проверка валидности заголовка тоже не внушает доверия (строка 133 и вокруг нее)

    не лучше ли просто использовать с обоих сторон стандартный человеческий TLS?
  • Переходим на HTTPS на Nginx: шпаргалка
    +48
    Вот пример моего конфига с которым ssllabs.com дает A+
    listen                      443 ssl spdy;
    ssl                         on;
    ssl_protocols               TLSv1.2 TLSv1.1 TLSv1;
    ssl_session_cache           shared:SSL:20m;
    ssl_session_timeout         10m;
    ssl_ciphers                 'EECDH+ECDSA+AESGCM:AES128+EECDH:AES128+EDH:!RC4:!aNULL:!eNULL:!LOW:!3DES:!MD5:!EXP:!PSK:!SRP:!DSS:!CAMELLIA:!ADH';
    ssl_prefer_server_ciphers   on;
    
    resolver                    8.8.8.8 8.8.4.4 valid=300s;
    resolver_timeout            10s;
    add_header                  X-Frame-Options             "DENY";
    add_header                  X-Content-Type-Options      "nosniff";
    add_header                  Strict-Transport-Security   "max-age=31536000";
    add_header                  Public-Key-Pins 'pin-sha256="[SOME_BASE64]"; max-age=5184000;';  #[SOME_BASE64] надо выставлять свое, гуглить как считать Public-Key-Pins
    ssl_stapling            on;
    ssl_trusted_certificate /etc/nginx/ssl/[SITE]/trustchain.pem;
    ssl_certificate         /etc/nginx/ssl/[SITE]/server.crt;
    ssl_certificate_key     /etc/nginx/ssl/[SITE]/server.key;
    ssl_dhparam             /etc/nginx/ssl/[SITE]/dh.pem;        #openssl dhparam 2048 -out dh.pem
    
  • Пример запуска Django 1.7.4 под Python 3.4.2 на Ubuntu 14.04
    0
    pyenv переключает нужную версию питона просто по файлу .pyenv-version в корне проекта. Например в нужном проекте сработает python2.7, в другом 3.4.1.
    pyenv может легко поставить любую версию python, в том числе и последние свежие pypy и тому подобное.
    То что его идея пришла из мира руби не делает её плохой.
    Чуваки из дебиан немного странные и сломали easy_pip как-то раз, с совершенно тупой аргументацией. В итоге python -m venv пошел лесом.

    Но учитывайте же, что это всё инструменты для удобной разработки — деплоить через pyenv я не рекомендую — при деплое вполне возможно воткнуть на сервер правильную версию интерпретатора с помощью какого-либо репо.

    update_alternatives — ооочень странные рекомендации — нафига? В стартовом скрипте укажите полный путь до нужной версии, всё будет работать без этой фигни странной.
  • PeerVPN – пиринговый VPN с открытым кодом
    +2
    Собирал full-mesh на tinc ( www.tinc-vpn.org/ )
    Выглядит существенно более зрелым.
  • PeerVPN – пиринговый VPN с открытым кодом
    0
    Приватную сделать можно, у меня своя.
    Но там, на первый взгляд, всё лучше с шифрованием — промежуточные хосты не могут почитать трафик, предназначенный не им. Не то, чтобы это очень сильно всем нужно, но спасает от появления в peervpn контролируемого злоумышленником хоста — трафик он транзитный всё равно не посмотрит.
  • Highly Available кластер RabbitMQ
    +7
    Уж простите что здесь отвечаю… Тема уж больно до боли знакомая.

    Что было у нас:

    Задача организовать подписку на события для клиентов (кроссплатформенный клиент-бороузер). расчетное кол-во клиентов 1000000. Стресс задача — все клиенты (сволочи) ломятся за событиями. Собирали стенд на 1000000 одновременных коннектов. остановились на 210000 потому, что понятно, что держит и как масштабироваться и смысл лупить дальше коннекты не имеет смысла.



    конфиг nginx

    #
    # Transport site
    #
    
    upstream rabbitmq {
            server  dev-queue1:15674 weight=5;
            server  dev-queue2:15674 weight=10;
            server  dev-back1:15674  weight=10;
            server  dev-back2:15674  weight=10;
            server  dev-back3:15674  weight=10;
            server  dev-back4:15674  weight=10;
            server  dev-back5:15674  weight=10;
            server  dev-back6:15674  weight=10;
            server  dev-back7:15674  weight=10;
            server  dev-back8:15674  weight=10;
    }
    
    server {
        listen          80;
        listen          88;
    
        server_name 10.76.156.241 dev-front1;
        access_log     off;
        error_log          /dev/null;
    
        root         /var/www;
    
        location /stomp/ {
            proxy_pass http://rabbitmq;
            proxy_http_version 1.1;
            proxy_set_header Upgrade $http_upgrade;
            proxy_set_header Connection "upgrade";
            proxy_buffering off;
        }
    
        location / {
        }
    
    }
    
    
    #
    # end
    #
    


    Собственно как все решилось. Клиент использует websocket+stomp. кролик умеет stomp из коробки. между клиентами и кроликом стоит nginx, который умеет апстримы и вебсокеты. тем самым при выпадении любой нодды клиент просто переконекчивается и живет дальше. nginx так же осуществляет балансировку по нодам кролика. nginx балансируется DNS балансировкой с ТТЛ 60, тем самым решается автоматическое исключение фронта, т.е. кластер полностью автоматизирован.

    Во что уперлись. Да собственно в канал, потому, что выдать всем клиентам одновременно 1024байт (json) в таких масштабах превращается в гигабиты траффика. Мы уперлись на 1Гб в сетевухи. Инженеры могли переделать на 10Гб, но нам уже было не надо.

    Что имели при тестах. Без оптимизации ОС кролик благополучно падал так, что восстановить кластер было не возможно. Выедал всю память, Уходил в своп и тю-тю… kill -9 и кластера нет. Лечилось полной остановкой, удалением mnesia кролика и пересборкой кластера ручками.

    Рекомендации. Не жалейте памяти. Для кролика оно все. Считайте циферки до, чем после. Прежде чем что-то сделать — нарисуйте на бумаге и покажите знакомым. Может что посоветуют.

    Что использовали:

    — CentOS release 6.5 (Final) (тюненый TCP стек и ядро под HA)
    — {rabbit,«RabbitMQ»,«3.1.5»},
    — {mnesia,«MNESIA CXC 138 12»,«4.5»},
    — nginx version: nginx/1.4.4
    — клиент sock.js stomp.js из коробки (проверяли почти во всех броузерах. все пашет именно по вебсокетам на постоянном коннекте. старые ИЕ летят по HRX по лонг-поллинг)

    Резюме? Все работает почти из коробки. Немного напильника и жизнь удалась.
  • Нетрадиционный обзор AngularJS
    +11
    Почитайте тему AngularJs 1.3 vs 2.0 и поймете всю боль ситуации. Повод задуматься:
    * Ушел создатель Ang из Google и вернулся в Durandal
    * 2.0 будет полностью переписан и ничего общего с 1.3 иметь не будет, как мигрировать неизвестно
    * Будут распылять свои силы между поддержкой AngularDart, 1.3 и 2.0…