Кстати, если кого-то заинтересует идея достаточности, то рекомендую обратить своё внимание на шведскую национальную философию "Лагом". Это как раз про умеренность во всём.
Добавлю сюда пару selfhosted решений, которыми сам пользуюсь и могу точно сказать, что они отлично справляются с поставленными задачами =)
1. Metabase — www.metabase.com
Пользователи задают вопросы о данных, а Metabase отображает ответы в осмысленных форматах, таких как гистограмма или таблица. Вопросы к данным сохраняются и группируются в информативные дашборды, которые испольует вся команда.
Есть коннекторы ко всем актуальным базам, я бы назвал систему как очень современная, как визуально, так и по подходу.
Киллер фича — автоматический поиск данных (по сути группировка тех или иных данных по столбцу даты в базе)
2. Superset от Apache — superset.apache.org
Больше функций, чем в мете, но она и немного сложнее. Есть коннекторы также +- ко всему актуальному.
3. Redash — redash.io
По сравнению с первыми это уже ближе к чисто BI системе, пишем запрос, группируем — строим график. Для программистов отличный и понятный инструмент.
А это вообще законно? Например требовать чтобы _Заявитель_ оплатил все расходы на адвокатов (вне зависимости от решения суда?)
И мне нравится пункт, я обязуюсь не выдвигать, но если всеже получится — то не более чем на 1USD, бред какой-то.
Но так или иначе, покупая бюджетное оборудование не стоит рассчитывать на супер поддержку и ответственность, хотя легитимность вышеописанных пунктов явно под сомнением.
Моё мнение, что будучи на профильном сайте, где столько хороших и сильных IT специалистов можно не стесняться в терминах и сразу использовать то, что считаете нужным, дабы потом не оправдывать свои действия фразами в стиле «Использовал чтобы на простом (и не очень эффективном) примере показать». Я не притесняю тех, кто только начал свой путь в IT, но в данном вопросе я и не думаю что это удел новичков бороться с DDoS атаками.
Да и если на то пошло, это как раз те, кто изучают и хотят научиться должны расти, а не мы — называющие себя «профессионалами» упрощать контент в угоду массам, если нет задачи распиариться.
Выскажу свое мнение. Я бы побоялся пользоваться вашими услугами после такой статьи, позвольте объяснить почему:
1) Использование MySQL(!), которая часто и так является бутылочным горлышком производительности веб приложений.
1b) LOAD DATA для логов, парсинг этого дела… да еще и при DDoS (при парсинге по интервалам, лог будет больше обычного)? Какой перерасход ресурсов, не находите?
2) Абсолютная неподготовленность к ботам, которые работают на браузерных движках.
2b) Если такие боты слишком круты для этой статьи, то мне ничего не мешает написать скрипт который будет дергать все данные на странице, получать 5 байт и отваливаться, в лог запишется, защита пройдена.
3) Плохой сценарий работы с реальными клиентами, не учтены кеширующие прокси, кеши браузера (всех браузеров), итд.
4) К сожалению, в случае использования мултифронтендов логи придется собирать по ним, что также не учтено.
Что я бы предпочел вместо всего этого огорода, да и работающее на фронтенд серверах, без баз данных и прочего — это простые счетчики запросов, и несколько основных критериев подозрения:
1) Слишком много запросов (Abnormal)
2) уникальные счетчики запросов для каждого IP со списками лимитов на действия за период времени, таким образом в случае повторного поиска, пользователя случайно не забанят.
3) чтобы счетчики работали лучше и не были подвержены атаке на несуществующие URL — брать только элементы URL через компилированный regex для скорости.
Как-то так, но всеже мне это видится более перспективным.
На Мильнере свет клином не сошелся, если идея ценная (пускай и далекая от завершения) то ее заметят другие инвесторы. Тут главное не останавливаться, у каждого инвестора свои тараканы в голове.
Не знаю, как насчет секретов (их врядли бы пересылали мейлами как раз из-за вероятности взлома), но вот информаторы, хоть их инициалы, это поистине грандиозный облом такой серьезной организации…
Тогда наверняка есть технология обнаружения свободного падения, во всех Мак Буках Про она тоже есть, причем в двух экземплярах, как на матплате так и на самом харде. (проверить можно взяв справа и потряся ноутбук)
А я уже успел избавиться от этого телефона, взамен взяв HTC Desire 2. Решился в основном из-за уверенности в том, что до 2.2 дело не дойдет, я уже молчу про более новые прошивки. Ну и да, мультитача не будет, никогда. Хотя телефон с виду был так ничего.
Спасибо, исправили!
Раньше и про VPN знали специалисты и энтузиасты, так что всему своё время.
Кстати, если кого-то заинтересует идея достаточности, то рекомендую обратить своё внимание на шведскую национальную философию "Лагом". Это как раз про умеренность во всём.
1. Metabase — www.metabase.com
Пользователи задают вопросы о данных, а Metabase отображает ответы в осмысленных форматах, таких как гистограмма или таблица. Вопросы к данным сохраняются и группируются в информативные дашборды, которые испольует вся команда.
Есть коннекторы ко всем актуальным базам, я бы назвал систему как очень современная, как визуально, так и по подходу.
Киллер фича — автоматический поиск данных (по сути группировка тех или иных данных по столбцу даты в базе)
2. Superset от Apache — superset.apache.org
Больше функций, чем в мете, но она и немного сложнее. Есть коннекторы также +- ко всему актуальному.
3. Redash — redash.io
По сравнению с первыми это уже ближе к чисто BI системе, пишем запрос, группируем — строим график. Для программистов отличный и понятный инструмент.
Если еще остались промо — был бы очень признателен!
И мне нравится пункт, я обязуюсь не выдвигать, но если всеже получится — то не более чем на 1USD, бред какой-то.
Но так или иначе, покупая бюджетное оборудование не стоит рассчитывать на супер поддержку и ответственность, хотя легитимность вышеописанных пунктов явно под сомнением.
Да и если на то пошло, это как раз те, кто изучают и хотят научиться должны расти, а не мы — называющие себя «профессионалами» упрощать контент в угоду массам, если нет задачи распиариться.
1) Использование MySQL(!), которая часто и так является бутылочным горлышком производительности веб приложений.
1b) LOAD DATA для логов, парсинг этого дела… да еще и при DDoS (при парсинге по интервалам, лог будет больше обычного)? Какой перерасход ресурсов, не находите?
2) Абсолютная неподготовленность к ботам, которые работают на браузерных движках.
2b) Если такие боты слишком круты для этой статьи, то мне ничего не мешает написать скрипт который будет дергать все данные на странице, получать 5 байт и отваливаться, в лог запишется, защита пройдена.
3) Плохой сценарий работы с реальными клиентами, не учтены кеширующие прокси, кеши браузера (всех браузеров), итд.
4) К сожалению, в случае использования мултифронтендов логи придется собирать по ним, что также не учтено.
Что я бы предпочел вместо всего этого огорода, да и работающее на фронтенд серверах, без баз данных и прочего — это простые счетчики запросов, и несколько основных критериев подозрения:
1) Слишком много запросов (Abnormal)
2) уникальные счетчики запросов для каждого IP со списками лимитов на действия за период времени, таким образом в случае повторного поиска, пользователя случайно не забанят.
3) чтобы счетчики работали лучше и не были подвержены атаке на несуществующие URL — брать только элементы URL через компилированный regex для скорости.
Как-то так, но всеже мне это видится более перспективным.
Почту скину в ПМ, заранее спасибо!
Link
Приятного просмотра =) (можно добавить в топик, по желанию автора)
Уже около года используем в некоторых проектах, очень удобный и быстрый (в том числе для разработки) движок, спасибо разработчикам!
Чтож, хороший подарок преподнесли к Новому Году!
А вообще, очень жаль, что "(...) и единственный в топ-25, который представляет собой полностью некоммерческий сервис (...)"