Вот что гуглится про него:
http://ecoruspace.me/%D0%90%D0%98%D0%A1%D0%A2-2%D0%94.html
Разработанные в СГАУ приборы для «Аиста-2» предназначены для ориентации и управления космическим аппаратом, а также для изучения воздействия космической среды на бортовое оборудование и материалы конструкции спутника. Аппаратура «Метеор-М», например, будет исследовать микрометеориты и частицы космического мусора, а специальный датчик частиц будет фиксировать состояние наноматериалов и терморегулирующих покрытий, регистрируя их эрозию под воздействием потоков различных космических частиц. Также будет изучена радиационная стойкость и эффективность защиты микросхем.
Я, наверное, не понимаю вас. Почему этого мало? Пользователю нужен веб-сервер. Это задача. Почему он должен смотреть на апач, но не на nginx? Именно это здесь обсуждается в статье и в комментариях.
Какие убийственные аргументы вы можете привести с вашим опытом?
А разве мало того что это веб-сервер? Особенно если нужен именно веб-сервер — что выбрать? И как?
И почему только «раздавать статику»? У них у обоих очень богатые возможности по роутингу, например, или проксированию.
Если вы умеете писать расширения для них — можете написать очень эффективное, в плане производительности, приложение.
То есть расшарил ты WiFi, а друг подключился, поставил себе приложение и попал в твой личный кабинет, ему доступны все твои личные данные?
Техподдержка пытается отмазаться, но они неправы.
Вообще, приложение, запущенное на телефоне может получить доступ к информации (с необходимыми правами, конечно), в том числе и о номере. А сравнить номер с номером аккаунта — самое первое что может придти в голову.
Можете написать им жалобу письмом и предложить решение.
Мне кажется, смысл сравнивать очень даже есть. Они претендуют на решение одной и той же задачи и очень часто встречаются мануалы по использованию и того и другого.
The cost of the upload ability and security of suPHP is not cheap. suPHP is slow and requires quite a bit of CPU to process all the files. In addition, as it must process the file each and every time it is called, suPHP cannot use any OPCode caching such as APC or memcached resulting in even higher CPU usage by your application. If you are running on a low-end VPS or other server with an application such as WordPress this configuration can easily push you passed any CPU limits you might have whenever traffic starts to climb.
.htaccess, на мой взгляд, плох именно тем, что он может размазать конфигурацию по всем директориям. Имея все в одном месте — можно видеть всю конфигурацию сразу.
Как раз роутинг бы и хотелось видеть сразу весь, потому что иначе отладка превращается в БОЛЬ.
А кто сейчас до сих пор выбирает Apache для использования и в каких случаях?
По мне, единственной причиной может быть только использование какой-то CMS, которая только с ним может работать.
Для PHP уже вполне нормально работает php-fpm и hhvm, а для всего остального есть более легковесные wsgi-сервера типа puma, gunicorn, etc…
Может, оттуда и пошли эти задачи в стиле «сколько шариков уместится в этой комнате»? Раньше можно было набирать инженеров по принципу «сколько серверов вы сможете разместить в этой комнате»?
А, вот, кстати, спасибо. Это что-то новое, я еще не видел этой фичи.
Похоже что оно использует промежуточные сервера, связанные через ActiveMQ для одновременной посылки broadcast-сообщений на сервера.
Однако вот это примечание сразу настраивает меня против:
The middleware network broadcasts the message to all nodes.
Every node gets the message and validates the filter
Когда я все-таки допишу статью, я объясню что я еще и против принятия решений нодами. :)
Большой плюс вам за пакеты — не все так делают, а если не делают, то при деплое очень много веселого геморроя с удалением.
PE я тоже не трогал руками, но, судя по документации, не так уж много он умеет — просто может объединять задачи в несколько этапов (например, процент одновременно обновляемых серверов). Тем более в командной строке — половина работы руками.
Меня тут все правильно поправляют что puppet/chef — не для полноценного деплоя. Хорошо когда это понимают, потому что он позиционируется именно как инструмент для руления всей инфраструктурой.
IP-адрес — это просто пример из жизни. Случиться может что угодно.
DNS-адреса могут кэшироваться, а задача «поднимем виртуалку» имеет смысл только если у вас есть полный образ всего сервера. Либо бэкапы всех сертификатов нод, чтобы заново их не регистрировать.
http://ecoruspace.me/%D0%90%D0%98%D0%A1%D0%A2-2%D0%94.html
Какие убийственные аргументы вы можете привести с вашим опытом?
И почему только «раздавать статику»? У них у обоих очень богатые возможности по роутингу, например, или проксированию.
Если вы умеете писать расширения для них — можете написать очень эффективное, в плане производительности, приложение.
Техподдержка пытается отмазаться, но они неправы.
Вообще, приложение, запущенное на телефоне может получить доступ к информации (с необходимыми правами, конечно), в том числе и о номере. А сравнить номер с номером аккаунта — самое первое что может придти в голову.
Можете написать им жалобу письмом и предложить решение.
А когда срок-то?
www.chriswiegman.com/2011/10/fastcgi-vs-suphp-vs-cgi-vs-mod_php-dso
Как раз роутинг бы и хотелось видеть сразу весь, потому что иначе отладка превращается в БОЛЬ.
По мне, единственной причиной может быть только использование какой-то CMS, которая только с ним может работать.
Для PHP уже вполне нормально работает php-fpm и hhvm, а для всего остального есть более легковесные wsgi-сервера типа puma, gunicorn, etc…
Похоже что оно использует промежуточные сервера, связанные через ActiveMQ для одновременной посылки broadcast-сообщений на сервера.
Однако вот это примечание сразу настраивает меня против:
Когда я все-таки допишу статью, я объясню что я еще и против принятия решений нодами. :)
PE я тоже не трогал руками, но, судя по документации, не так уж много он умеет — просто может объединять задачи в несколько этапов (например, процент одновременно обновляемых серверов). Тем более в командной строке — половина работы руками.
Меня тут все правильно поправляют что puppet/chef — не для полноценного деплоя. Хорошо когда это понимают, потому что он позиционируется именно как инструмент для руления всей инфраструктурой.
DNS-адреса могут кэшироваться, а задача «поднимем виртуалку» имеет смысл только если у вас есть полный образ всего сервера. Либо бэкапы всех сертификатов нод, чтобы заново их не регистрировать.
А как бы вы разрулили мой пример (плюс остальные, если есть мысли)? Чисто для статистики — хочется знать мнения коллег.