Да, еще докучи пожалуйста, сделайте приоритет предоплаченного интернета (если он был включен до этого). А то кладешь, как обычно, на счет 600 рублей, чтобы он их списал за интернет за месяц, и в ту же секунду оплачивается услуга «интернет на день» за 50р. И на счету уже 550р, чего не хватает для оплаты интернета на месяц, приходится пополнять счет повторно.
Извиняюсь, немного не в теме. О вас читаю первый раз. Так и не понял, вы разрабатываете софт для виртуалок или для хостов? Или речь идет о каком-то конкретном гипервизоре? Вот, например, у меня даже на нетбуке составной LVM (mmc+mmc) с шифрованием. Гадаю по скриншотам, софтинке нужно пароль вводить?! А то на первом скриншоте лог прерывается на bootloader on /dev/sda.
.Чтобы не страдать паранойей за камеру, ее надо подключать к регистрирующему устройству через S-VIDEO.
Иногда бывает нужен вот такой переходничек.
И паранойте себе на здоровье теперь за регистратор. Там уже проще систему переставить.
В добавление к вышесказанному сарказму, давайте еще по-умолчанию требование подписей авторами пакетов во всех репозиториях уберем! А то достали стопорить процесс обновления сообщения, один какой-то openssl не подписан или суммы не сходятся, и без него не могут обновиться любимые Firefox и Telegram.
В копилку средств для синхронизации https://owncloud.org/. Правда, в моем случае (бесплатно) требует свой сервер, за то без ограничений, разве что кроме физических (в сравнении с dropbox, если не ошибаюсь, бесплатно 1гб, а цены на сам dropbox выше, чем на дешевенький голландский vds).
А идеальный PIM — это приложение которое бы умело быстро строить индекс по различным форматам файлов (text, docx, odt, pdf, mht и т.д.). Натравливаешь его на каталог, и оставляешь висеть в трее, чтобы всегда иметь быстрый доступ. Все что от него нужно э- то быстро найти файл(ы) и перейти в каталог или запустить их. Вот такого ПО удовлетворительного качества пока нет, к сожалению.
Из коробки может быть решения и нет, но по отдельности все давно решено. Можно прикрутить, например, yad-морду к sphinx.
Хакайте Wordpress. Размещайте на сайтах свои эксплойты со всякими там полезностями с зашитым зевсом в один exe-шник. Недалекие юзеры запускают программу. Вот вам пример проникновения в сеть.
Наверное, самая распространенная задача — рутануть хост, станцию, девайс; отличаются задачи только обстоятельствами.
А так в теории все просто!
Что не так то? Общался с одной знакомой, работает начальником ИБ в небольшой сети продовольственных магазинов. Самый мощный инструмент в инвентаре, ни за что не догадаетесь, — MS Outlook. Иногда удивляет, за что людям платят зарплату…
Все компании были российскими; наверное, это важное уточнение. Каждая компания занималась разработкой какого-то ПО, отвечающего за безопасность.
Смеялся до слез.
На самом деле, работая в такого рода конторах, вы никогда не получите должного опыта. Хоть даже за 20 лет!
Мой совет, скачивайте свежую сборочку Kali linux, и учитесь взламывать все в подряд. Что-то вроде промышленный хакинг, — типа хакинг ради факта взлома, не ради получения профита или размещения какого-нибудь дефейса. С развитием унифицируете подходы, объединяете действия в скрипты и запускаете скрипты на арендованной VDS чтобы бесконечно проходил по всей доменной базе в рандомном порядке 24х7.
Потом собирате удачные взломы и, как хороший добрый хакер, пишете скрипт, который залатывает найденные уязвимости.
Я к чему это все?! Суть в том, что там, где важна скорость, часто выгоднее использовать простые решения, чем оптимизированные мега-комбайны.
Поведаю коротенькую историю. Около 10 лет назад устроился на работу в среднюю организацию. На тот момент были офисы в четырех городах: Москва (~40 человек), Питер (5 человек), Киев и Минск (~по 10 человек). Информационные задачи обслуживала самописная CRM на php, которая в свое время модернизировалась из CRM на основе Microsoft Office. Как раз в период времени пока работал там, она переписывалась с устаревшей php4 на php5. Обслуживал все это хозяйство сервер на Windows Server 2000 (или 2003 — уже не вспомню). Руководство получило от меня инициативу, помимо перехода на новый php, обновить и СУБД. На тот момент БД управляла mysql3. Вся СУБД со всеми зависимостями умещалась в один файл mysqld-max.exe, на моей памяти, весом чуть больше 1мб. В итоге, мне было предложено найти что-нибудь стабильней/быстрей. По скорости, с этой версией даже близко не могли сравниться ни 4я, ни 5я, ни даже 6я бета версии mysql. По итогу, позже перешли на MS SQL-сервер (это уже не по моей инициативе, по-моему, были какие-то требования для MS BizTalk), а после моего ухода компания перешла на какую-то несамописную расширяемую CRM (тоже уже не могу вспомнить какую).
Для Mysql можно декларировать функцию (подробнее). Несложной манипуляцией можно создать необходимые индексы.
CouchDB примитивен, затрагивает отдельный уровень обработки данных. Скорость работы couchdb обусловлена в том числе и его простотой. Хранение данных можно настроить другими средствами (хранить полностью в озу, или настроить репликации на жесткий диск), так что частые обновления — тут совсем не фактор. Предложенные Вами статьи 4-5 летней давности. Для обработки гео-данных есть geocouch.
Я бы даже сказал, что задача древняя как Netscape.
Я имел в виду задача для nodejs древняя.
По поводу выбора языка, на данный момент bash по гибкости не сильно уступает perl. Многие используемые bash`ом инструменты по обработке текстов написаны на perl. А уж проверить баланс или спарсить внешний ip откуда-нибудь — задача вообще одной строчки.
Ох, задача древняя как IE8. Видел статью на русском еще с nodejs-v0.4.0. Сейчас даже не могу найти.
Хоть я и фанат nodejs, такие несложные задачи обычно решаю на bash с использованием curl и pup. Если не заморачиваться с кодированием выходной информации, скрипт получается гораздо короче. Очень удобно использовать, например, для проверки баланса на счете или для определения инфы по внешнему ip…
Вы правы. Если WP может по клику обновиться сам и обновить плагины — это уже дыра в безопасности!
Обязательно возможность executeться оставлять только корневому index.php. — Правда, могут глючить некоторые плагины из админки.
Если правильно настроить, то в периодических обновлениях исчезает необходимость (кроме случаев того или иного апгрейда сайта).
На разные ОС по разному.
Версия для Linux в распакованном виде 105.9Mb.
Чтобы уменьшить вес программы, можно собирать Electron вручную. Серьезного профита можно добиться выключив поддержку ES2015 в ключах сборки v8. Да и вообще, из v8 можно много чего выкинуть…
Я всегда утверждал, что нужно бороться с количеством зависимостей. Ни в коем случае нельзя допускать "двух-килобайтные" зависимости. Да и, если используешь не всю мощь пакета, со временем надо щипать необходимый код зависимости и вставлять в свой, со своими тестами.
Ни раз меня ругали за это. А потом удивляются, как так получается, что сайт работает на expressjs, а в папке node_modules поиском можно найти три разные версии connect.
На сегодняшний момент ~10% кода вручную копирую из старых проектов в свежесозданные. По крайней мере, за пару лет, я переписал все middleware (и еще некоторые модули), которые использую в разработке и продакшене. Что я там только не находил, left-pad — это еще цветочки! В каком-то из пакетов видел реализацию урезанной версии util.inspect().
По началу было тяжело, приходилось самому следить за обновлениями зависимостей и внедрять их вручную. Но, чем дольше живет npm-пакет, тем реже в него вносятся обновления (да и сами обновления все меньше и меньше). Последние пол года уже за ними не слежу. Все костыли, которые вносят в старые пакеты, к моему коду уже почти отношения не имеют.
Единственное, в одном я упростил себе задачу — не заморачиваюсь с кроссплатформенностью. Так уж получилось, что работаю и развертываю код на Linux, мне не важно как код работает в Windows или в браузере.
Иногда бывает нужен вот такой переходничек.
И паранойте себе на здоровье теперь за регистратор. Там уже проще систему переставить.
Из коробки может быть решения и нет, но по отдельности все давно решено. Можно прикрутить, например, yad-морду к sphinx.
https://atom.io/packages/activate-power-mode
Для всего остального gedit и vim
Наверное, самая распространенная задача — рутануть хост, станцию, девайс; отличаются задачи только обстоятельствами.
А так в теории все просто!
Смеялся до слез.
На самом деле, работая в такого рода конторах, вы никогда не получите должного опыта. Хоть даже за 20 лет!
Мой совет, скачивайте свежую сборочку Kali linux, и учитесь взламывать все в подряд. Что-то вроде промышленный хакинг, — типа хакинг ради факта взлома, не ради получения профита или размещения какого-нибудь дефейса. С развитием унифицируете подходы, объединяете действия в скрипты и запускаете скрипты на арендованной VDS чтобы бесконечно проходил по всей доменной базе в рандомном порядке 24х7.
Потом собирате удачные взломы и, как
хорошийдобрый хакер, пишете скрипт, который залатывает найденные уязвимости.Вот вам и опыт ИБ. Желаю успехов!
Поведаю коротенькую историю. Около 10 лет назад устроился на работу в среднюю организацию. На тот момент были офисы в четырех городах: Москва (~40 человек), Питер (5 человек), Киев и Минск (~по 10 человек). Информационные задачи обслуживала самописная CRM на php, которая в свое время модернизировалась из CRM на основе Microsoft Office. Как раз в период времени пока работал там, она переписывалась с устаревшей php4 на php5. Обслуживал все это хозяйство сервер на Windows Server 2000 (или 2003 — уже не вспомню). Руководство получило от меня инициативу, помимо перехода на новый php, обновить и СУБД. На тот момент БД управляла mysql3. Вся СУБД со всеми зависимостями умещалась в один файл mysqld-max.exe, на моей памяти, весом чуть больше 1мб. В итоге, мне было предложено найти что-нибудь стабильней/быстрей. По скорости, с этой версией даже близко не могли сравниться ни 4я, ни 5я, ни даже 6я бета версии mysql. По итогу, позже перешли на MS SQL-сервер (это уже не по моей инициативе, по-моему, были какие-то требования для MS BizTalk), а после моего ухода компания перешла на какую-то несамописную расширяемую CRM (тоже уже не могу вспомнить какую).
CouchDB примитивен, затрагивает отдельный уровень обработки данных. Скорость работы couchdb обусловлена в том числе и его простотой. Хранение данных можно настроить другими средствами (хранить полностью в озу, или настроить репликации на жесткий диск), так что частые обновления — тут совсем не фактор. Предложенные Вами статьи 4-5 летней давности. Для обработки гео-данных есть geocouch.
Я имел в виду задача для nodejs древняя.
По поводу выбора языка, на данный момент bash по гибкости не сильно уступает perl. Многие используемые bash`ом инструменты по обработке текстов написаны на perl. А уж проверить баланс или спарсить внешний ip откуда-нибудь — задача вообще одной строчки.
Хоть я и фанат nodejs, такие несложные задачи обычно решаю на bash с использованием curl и pup. Если не заморачиваться с кодированием выходной информации, скрипт получается гораздо короче. Очень удобно использовать, например, для проверки баланса на счете или для определения инфы по внешнему ip…
Обязательно возможность executeться оставлять только корневому index.php. — Правда, могут глючить некоторые плагины из админки.
Если правильно настроить, то в периодических обновлениях исчезает необходимость (кроме случаев того или иного апгрейда сайта).
Версия для Linux в распакованном виде 105.9Mb.
Чтобы уменьшить вес программы, можно собирать Electron вручную. Серьезного профита можно добиться выключив поддержку ES2015 в ключах сборки v8. Да и вообще, из v8 можно много чего выкинуть…
Ни раз меня ругали за это. А потом удивляются, как так получается, что сайт работает на expressjs, а в папке node_modules поиском можно найти три разные версии connect.
На сегодняшний момент ~10% кода вручную копирую из старых проектов в свежесозданные. По крайней мере, за пару лет, я переписал все middleware (и еще некоторые модули), которые использую в разработке и продакшене. Что я там только не находил, left-pad — это еще цветочки! В каком-то из пакетов видел реализацию урезанной версии util.inspect().
По началу было тяжело, приходилось самому следить за обновлениями зависимостей и внедрять их вручную. Но, чем дольше живет npm-пакет, тем реже в него вносятся обновления (да и сами обновления все меньше и меньше). Последние пол года уже за ними не слежу. Все костыли, которые вносят в старые пакеты, к моему коду уже почти отношения не имеют.
Единственное, в одном я упростил себе задачу — не заморачиваюсь с кроссплатформенностью. Так уж получилось, что работаю и развертываю код на Linux, мне не важно как код работает в Windows или в браузере.