Фундаментальные законы информационной безопасности

    Все мы знаем о фундаментальных законах физики, открытые Ньютоном и Галилеем. Наверное хотя бы немного со школьных парт слышали об аксиоматике Евклида. Кто решил хотя бы приблизиться к положению homo universalis, (хотя в наш XXI век это весьма непросто) наверное что-то слышал о законах Данилевского, Тойнби и/или Сэмюэла Хантингтона...


    А что с Информационной Безопасностью? Есть ли у нас, ИБ-шников свои фундаментальные законы? Да — есть! И в этой статье о них пойдет речь.



    Сразу скажу, что многие читатели сделают замечание; ведь многие законы были известны задолго до того, как я их услышал от определенных лиц… Что-ж, в этом случае сошлюсь на Закон Стиглера: "No scientific discovery is named after its original discoverer".


    Закон Индюкова


    Чем больше прошло времени с момента последнего серьезного ИБ-инцидента, тем больше вероятность взлома системы

    Этот закон я впервые услышал от одного системного администратора одного весьма крупного банка…
    Вот прошел инцидент, украли XX млн.руб, всем дали по заднице, пароли сменили, заказали крутые ИБ-системы (во всех сферах! по всем фронтам!...). Угомонились…
    Проходит время, люди расслабляются… И вновь 50-летние тетеньки ставят 12345 пароль на систему или пишут его на бумажке и прикрепляют орбитом к монитору… И вновь на многих серваках коряво настроена сеть… И вновь по http можно подключиться ко всем камерам учреждения и узнать, какой кофе пил генеральный директор… И вновь… И вновь… И вновь… Пока опять что-то серьезное не случится...


    Со стороны кажется бредом, но таковы реалии многих-многих крупных организаций, с превалирующей бюрократической составляющей. Люди расслабляются. Люди в крупных бюрократических конторах ведут себя как мальчуганы, которые в марте гуляют с непокрытой головой и без шарфа.
    Мальчуганы простужаются, сопливят и ложатся с гриппом или простудой. Выздоровев, они надевают шарфы и шапки, но через год все повторяется снова.


    Как защититься от Закона Индюкова лично я не знаю. Есть мнение? — напишите в комментариях.


    Закон Митника


    Даже выключенный компьютер можно взломать

    Это знаменитая цитата из книги Кевина Митника Искусство Обмана.
    Не надо думать, что вы защищены. Всегда, даже в "очевидном способе 100% защиты" можно найти изъян.
    Выключенный компьютер можно включить. Руками. Физически нажав на power. Впрочем, чтобы его взломать, можно и не включать, можно просто его украсть, или украсть часть компьютера (жесткий диск).


    Закон Склярова


    Если стоимость взлома объекта A больше выгоды от взлома объекта A, то объект не будет взломан

    Закон я услышал от сотрудника Positive Technologes, Дмитрия Склярова. Закон тривиален и очевиден, но… глядя на некоторых, не будем показывать пальцем, лиц, принимающих стратегические решения в определенных компаниях, я понимаю, что Закон Склярова известен не всем. Или его сурово игнорируют. Защищают сто рублей, устанавливая дорогущий сейф… Или наоборот действительно интересную и ценную информацию совершенно не защищают.


    Бизнес должен взвесить риски. Понять, какова ценность той или иной защищаемой информации и создавать (или покупать) системы ИБ, обеспечивающие стоимость взлома для потенциальных хакеров большую, чем возможная потенциальная выгода.


    У закона есть нюансы:


    1. Стоимость взлома может резко упасть (например появилась новая уязвимость или вы внедрили инсайдера в штат компании)
    2. Вы можете оценить стоимость взлома и/или стоимость прибыли неадекватно.
    3. Не все можно измерить деньгами и не всегда хакеры руководствуются денежными мотивами.

    Закон Батенёва


    Сказав о законе Склярова, перейдем к закону, сформулированным Александром Батенёвым (Group-IB).


    Предположим, что верны условия
    1. Есть различные, публично известные объекты: А и Б
    2. Стоимость взлома А больше стоимости взлома Б
    3. Выгода от взлома А меньше от взлома Б
      Закон Батенёва:
      Объект А не будет взломан до тех пор, пока не взломан объект Б

    Закон кажется невероятно очевидным (в принципе так оно и есть!) Однако многие и многие представители бизнеса абсолютно убеждены, что раз их не трогают — следовательно они защищены. Аааа!!! Это не верно!!! Например если ДБО вашего банка не взламывают хакеры, то это всего лишь означает, что Сбербанк и ВТБ а так же более мелкие, но "продвинутые" банки, пока еще не до конца решили все свои проблемы с безопасностью. Они просто "вкуснее" вас! Это как в анекдоте про Неуловимого Джо. Когда вы будете кому-то нужны, то возможно вас легко и быстро взломают. Бизнес, а бизнес, вам это надо?


    Именно Закон Батенёва "защищает" различные инфраструктуры. Хакеры просто не могут извлечь выгоду от взлома АЭС, синкансэнов, и свечных заводиков...


    Данный закон был ответом Александра на мой вопрос об актуальности стеганографии. По его мнению, стеганография "это конечно круто", но есть гораздо более простые способы достигнуть те же результаты… А вот когда "мир поумнеет", вот тогда "стеганография и стегоаналитика станут крайне актуальными". Что ж, тут не поспоришь. Видимо так оно и есть. Не пришло пока время для моей любимой стеганографии… Эх...


    Закон Дейкстры


    Чем глубже стек протоколов (используемых технологий), тем более уязвима система

    Иначе говоря чем сложнее и запутаннее система, тем легче её взломать.


    Изначально Эдсгер Вибе Дейкстра сформулировал свой закон по отношению к пониманию системы в целом,
    имея в виду, что достаточно скоро наступят времена, когда программист не будет в деталях понимать все
    процессы, происходящие в вычислительной технике… В принципе так оно и оказалось. Да что там детали,
    к сожалению и в целом как устроен компьютер знают далеко не все программисты :(...


    И это печально. Потеря контроля над цельностью восприятия реальности заставляет на многие и многие элементы действительно большой системы смотреть как на черные ящики или, в лучшем случае, как на очень серые ящики. Даже если функционал каждого ящика известен тому или иному разработчику и каждый из них может гарантировать (интересно чем?) безопасность "своей грядки", то это вовсе не значит, что система, состоящая из безопасных элементов сама безопасна. Целое не есть сумма его частей.


    Закон Дейкстры не просто неизбежное зло. Этот закон заставляет нас поменять парадигму нашего отношения к информационной безопасности. Без обиняков, мы, безопасники, просто "украли" парадигму у военных и пытались строить строгие системы, которые совсем-совсем защищены. Даже в математическом смысле пытались что-то строгое изобрести… Ну помните там модель Белла-Лападулы, модель Биба, модель Кларка-Вильсона, модель Харрисона-Руззо-Ульмана ну и т.д. В рамках этой классической парадигмы, если пользователя ломали — то это не проблема ИБ-систем, это проблема криворукого персонала, ненадежных паролей и социальной инженерии!..


    Но мир меняется и системы становятся очень большими. Они начинают жить своей собственной жизнью. Вы можете себе представить организацию с более чем 1500 различных СУБД во внутренней сети! Вы можете себе ЭТО представить!?.. Вот КАК это все можно администрировать и быть уверенным в безопасности?!..


    Что же делать? Я думаю выход только один: переходить с пассивных систем на активные. Т.е. работать "на опережение". Современный преступный кибермир уже давно не состоит из гениальных хакеров-одиночек. Это целая система. Нужно изучать и исследовать эту систему. Я вовсе не призываю отказаться от "классических" антивирусных решений, DLP, токенов, SFTP и т.д. Нет! Я просто призываю признать эти меры недостаточными в силу Закона Дейкстры.


    Так же как борьба с терроризмом заключается не только в проверках сумок в аэропортах и вокзалах, но и в работе спецслужб; так же и в мире ИБ активным действиям нужно дать ход не только когда инцидент ИБ уже произошел. Нужно регулярно и систематически работать в данном направлении, создавая активные "решения" в ИБ.


    Закон Ашманова-Масаловича


    Человек так же подвержен взлому. Возможно именно человека нужно защищать в первую очередь

    Наслушавшись замечательных лекций Игоря Ашманова и Андрея Масаловича, я не мог не написать об этом фундаментальном законе. Кто не видел еще "Большие данные в соцсетях: специальной слежки АНБ за вами не требуется" и "Жизнь после Сноудена. Современный инструментарий интернет-разведки" — срочно устраняем пробелы.


    Изначально все это выросло из информационных войн. Честно скажу, было большое искушение что-нибудь из политики жахнуть… Но… правила хабра это запрещают. Поэтому приведу пример из области бизнеса:


    В декабре 2014 г. Сбербанк России пережил беспрецедентную атаку на его клиентов. Они получали сотни
    тысяч SMS с предупреждением о том, что выданные Сбербанком карты Visa скоро перестанут обслуживаться. Были вбросы и в социальных сетях: говорилось, что Сбербанк столкнулся с проблемами ликвидности и не в состоянии выдавать деньги. Клиенты, мгновенно сориентировавшись, побежали изымать свои депозиты. Около 300 млрд руб. – такой оказалась цена хорошо спланированной информационной атаки, следы которой, по заявлениям представителей Банка России, вели на украинские Интернет-ресурсы. И вновь бизнес вспомнил про безопасность пост-фактум, затеяв расследование произошедшего.

    Алексей Лукацкий. ИБ для бизнеса: Как продать невидимку

    В целом любая социальная инженерия — это следствие Закона Ашманова-Масаловича.


    Закон Березина


    Пока гром не грянет, бизнес деньги на ИБ не даст

    Закон известный всем. И постоянно об этом говорят. И никто ничего не может сделать. Ну не хочет бизнес тратить деньги на ИБ. А все потому, что ИБ не приносит прибыли и уж очень таинственно и непонятно сокращает издержки. Вот если вы яму копаете не ложкой а лопатой то тут все понятно! Покупаем лопату, выкидываем ложки! А с ИБ — не понятно. Березин считает, что так будет вечно. Лично я с ним полностью согласен. А вы?


    Т.к. эта статья первое что у меня выскочило в поисковике, то в честь А.Березина этот закон и назовем.


    Закон систематической исторической несправедливости Саймона Сингха


    Все в ИБ изобретается минимум два раза: один раз результаты публикуются в закрытых источниках, второй раз в открытых источниках

    Вы знаете, что RSA изобрели не Ривест, Шамир и Адлеман; а алгоритм Диффи-Хелмана был изобретен до Диффи и Хелмана? Просто до появления открытых работ данные задачи решали математики ведущих спецслужб и их работы былы засекречены… Вы знаете, что Алан Тьюринг не изобретал Колосс, а знаменитый фильм — это фейк. В действительности первый вычислительный компьютер изобрели и построили Мариан Реевский, Ежи Рожицкий и Генрих Зыгальский аж в 1938 году… Позднее этих гениальных польских изобретателей передали Великобритании, где они, выражаясь современным языком, под менеджментом Тьюринга, допиливали свое решение и создали Colossus.


    Вот такая историческая несправедливость. В принципе ничего удивительного в этом нет, ведь информационная безопасность весьма щепетильная тема!.. Возможно уже решена задача дискретного логарифмирования, или где-нибудь (разумеется глубоко под землей, чтобы никто не увидел) считает свои задачки уже кем-то созданный квантовый компьютер...


    Заключение


    В каждой шутке есть доля правды.

    Всех, кто отнесся ко всему написанному слишком серьезно — поздравляю с праздником! Впрочем согласитесь, что хотя многие мысли, и очевидны, и банальны, а иногда просто нелепы… но в целом являются справедливыми. И, к сожалению, до сих пор невероятно актуальны!


    Возможно, эти "законы" будут всегда актуальны и истины. В этом случае, почему бы не объявить их фундаментальными? Я серьезно! В конце этого поста вынесен вопрос на "референдум" ;) Обязательно проголосуйте.


    А какие законы знаете вы? Смело пишите в коментах!


    Давайте вместе сделаем текст лучше! Если обнаружили описку — пишите в личку.

    Only registered users can participate in poll. Log in, please.

    Референдум ИБ-шников. На голосование выносится список предлагаемых законов

    • 90.5%Утвердить258
    • 9.4%Отклонить27
    Share post

    Comments 43

      +1
      Проблему закона Индюкова можно решить периодическими учениями и попытками проникновения в IT инфраструктуру. Насколько я знаю, есть фирмы специализирующиеся на проведении атак на IT — можно заказать атаку на самого себя. По результатам проводить репрессии, как будто и в самом деле что-то утекло.

      Принцип Дийкстры не настолько фатален как кажется. Иногда от лишних слоёв абстракции бывает даже польза. Приложение, запущенное внутри песочницы, внутри виртуальной машины более безопасно, чем если бы непосредственно запускалось на хосте, несмотря на введение дополнительных слоёв абстракции. Просто надо не забывать вставлять водоразделы между несколькими слоями, не доверять всем подряд «раз некто оказался за DMZ — значит некто безопасен»

      Принцип исторической несправедливости справедлив. Если ты отказался поделиться своими исследованиями с миром, то мир и не должен отдавать тебе приоритет.
        +1
        Самая большая проблема в законе Березина. Все остальное решаемо :)
        Пока гром не грянет, бизнес деньги на ИБ не даст
          +1
          На мой взгляд песочницы и виртуальные машины это не усложнение, а напротив упрощение. Что проще — разобраться в в мегабайтах кода, чтобы быть точно уверенным в его безопасности или засунуть этот код в граничные условия из которых он не должен выходить?
          Это как — проще засунуть бомбу в железный сейф и там подорвать, чем разбираться в том как бомба устроена, чтобы ее дезактивировать.
            0
            Кода больше — значит усложнение. Зато написан он исходя из тех принципов, чтобы упростить его применение. В него изначально закладывается безопасность как основное требование.

            Можно сравнить с табличными процессорами для примера. Там на первое место выходит удобство пользователя, который может практически любой скрипт ассоциировать с изменениями данных в ячейках, вплоть до записи и чтения из файлов. Таковы встроенные в emacs возможности, pyspread, другие достойные приложения. Их разработчики прикладываются множество усилий, чтобы сделать использование простым и предоставить широчайший спектр возможностей для пользователя. Однако же безопаность в них не входит, открытие документов в этих редакторов — всё равно что запуск непроверенного скрипта. Тем не менее, ими продолжают пользоваться.

            Так что вопрос не в сложности, не в количестве строчек, в а предназначении программы и дизайнерских решениях, принятых чтобы его достичь.
              0
              На мой взгляд песочницы и виртуальные машины это не усложнение, а напротив упрощение.
              А как же дыры в песочницах? Например, печально известный Flash должен предоставлять безопасную среду для запуска скриптов, но в каждой версии находили дыры (уж за столько лет должны были запатчить всё).
              0

              По закону Индюкова — политика ИБ + люди, которые будут заниматься постоянным аудитом соблюдения этих правил.

              +3
              Этот первоапрельский пост написан кровью, потом и слезами нескольких поколений безопасников, спасибо автору огромное за него.
              О том, что основная задача ИБ — сделать несанкционированный доступ к информации дороже самой информации (переформулировка закона Склярова) и о том, что security has no market value (оригинальная формулировка закона Березина) я и сам постоянно тут в комментариях пишу совершенно без шуток.
              P.S. законы эти настолько фундаментальные, что на них отлично работает принцип Арнольда, известный также как закон Стиглера.
                +6
                Законы ИБ можно разделить на два множества: а) утверждения, которые ближе по своей сути к законам Мёрфи, Паретто и прочих паркинсонов и б) формально доказуемые утверждения. Законы, упомянутые в статье, относятся скорее к первой категории. Ну, по крайней мере, у меня нет мыслей по поводу того, как их доказать.

                А вот кое-что из второй категории. Концепция обеспечения безопасности конкретной информационной системы (ИС) может быть выражена в виде модели, построенной в рамках некоторой формальной теории. Там где формальная теория, там и аксиомы, на которых она построена. Формальная теория, позволяющая моделировать концепцию безопасности фактически определяет отношение доверия между объектами модели. Иными словами (закон №1), любая формализуемая концепция обеспечения безопасности ИС подразумевает наличие ряда недоказуемых утверждений (аксиом) о доверии некоторым объектам модели, которую она реализует. Говоря простым языком, обеспечение безопасности ИС всегда предполагает наличие либо компонентов, которые принимаются за априори безопасные, либо других ИС, которым защищаемая ИС слепо доверяет. Более того, Гёдель утверждал, что любая формальная система либо полна, либо непротиворечива. А, следовательно (закон №2), любая формализуемая концепция безопасности ИС, либо подразумевает наличие компонентов, безопасность которых нельзя доказать или опровергуть, либо не охватывает всю модель угроз .

                Ну а про теорему Райса я уже писал раньше. Из неё следует, что (закон №3) проблема доказательства безопасности информационной системы неразрешима.

                Всех, кто отнесся ко всему написанному слишком серьезно — поздравляю с праздником!

                +1. Хотя… ;)
                  +1
                  Доверие информационным системам — это слишком радикально. Тут необходим более гибкий процент отказов. Доверие людям — не существует, лучше заменить на теорию игр, она предоставляет необходимый инструментарий. В любом случае будет масса эвристических коэффициентов.
                    +1
                    Ох, любят Гёделя упоминать по любому поводу.

                    Да, действительно, для сложной системы существуют утверждения, которые нельзя доказать или опровергнуть, но по Гёделю это довольно специфичные утверждения, содержащие самоотсылки.

                    Попробуйте доказать, что утверждения о безопасности или надёжности системы лежат среди Гёделевых.
                      0
                      О надёжности систем речь вообще не шла. Утверждение же о безопасности, по крайней мере, конкретного вычислительного процесса, по сути, описывает нетривиальное инвариантное свойство алгоритма, реализуемого в рамках этого процесса. А задача классификации алгоритмов по признаку наличия у них подобных свойств является неразрешимой по Райсу (т.е. утверждение о наличии у алгоритма того или иного свойства нельзя ни доказать, ни опровергнуть). По крайней мере, в рамках тьюринговой модели вычислений. Есть некоторое множество классов уязвимостей, признаки которых вряд ли возможно выразить через свойства алгоритмов, реализуемых вычислительными процессами. Например race conditions / TOCTOU и всевозможные утечки по побочным каналам aka side channels information leaks. Да и просто утечки, вероятнее всего, тоже. Так вот для таких классов, доказать принадлежность утверждений о них к гёделевщине действительно вряд ли возможно (опять-таки, в рамках модели тьюринговых вычислений).

                      Обобщать же это на всю систему — дело действительно бесполезное и неблагодарное, здесь соглашусь. Правда Гёдель тут особо не причём. Неотъемлемой частью любой информационной системы, как правило, является человек. А он обычно вертеть хотел и Гёделя, и Райса с Тьюрингом, и все нетривиальные инвариантные свойства безопасности системы вместе взятые.
                        0
                        Мне просто стало интересно, есть ли связь между непротиворечивостью и проблемой останова.
                        Насколько я знаю, связи нет.
                          +1
                          Если речь о причинно-следственной связи, то она есть (но лучше сначала прочитать статью, которая там обсуждается)
                            0
                            Спасибо, интересно. Всё же моё замечание оказалось верным. Из теоремы о неразрешимости проблемы останова выводится теорема о неполноте, но не наоборот. Нельзя ссылаться на теорему о неполноте как на причину невыводимости свойств алгоритмов.
                              0
                              Теорему останова также возможно доказать через теорему о неполноте (через построение формальной системы, позволяющей конструировать утверждения «алгоритм P остановится на наборе данных X»), но суть даже не в этом. Ни одна из них не является следствием другой. Связь между ними в том, что они обе являются приложениями диагональной леммы, а, следовательно, частными случаями теоремы Ловера о неподвижной точке из теории категорий.

                              Одну и ту же модель безопасности вычислительных процессов мы можем рассматривать и как систему формальных утверждений, истинность которых говорит о безопасности системы, и как некий разрешающий алгоритм, останавливающийся в том случае, если анализируемая им система безопасна. В зависимости от этого к этой модели будет применима либо теорема о неполноте, либо теорема останова (а если точнее, то её обобщение на все нетривиальные свойства алгоритмов — теорема Райса).
                                0
                                Вот последнее утверждение у меня и вызывает трудности с пониманием.

                                Как расширить проблему останова на проблему доказательства любого другого свойства алгоритма — понятно. Как расширить проблему неполноты на недоказуемость утверждений о безопасности — непонятно.
                    +5
                    Можно еще добавить «Закон слабого звена в цепи» на ИБ языке: Информационная система защищена настолько, насколько защищено самое слабое ее звено
                      +1
                      Так как зачастую самое слабое звено человек, то все информационные системы защищены приблизительно одинаково.
                      0
                      Представляю как три закона Ньютона на форуме физиков утверждают.
                      Даже законы Мерфи объективны, а не результат общественного соглашения.
                        0
                        Как мне кажется, есть еще один закон. Непреложный. И никогда не соблюдаемый.
                        Информационная безопасность не может стоить меньше того, что она защищает. Иначе дешевле купить лояльность безопасности :-)
                          +1
                          Закон работал бы в условиях анархии, без законов, государства и регуляторов.

                          В текущих реалиях у безопасников выбор
                          — получить X денег за защиту,
                          — получить Y денег за взлом и риск быть осужденным за преступление.

                          Не удивительно, что закон «не соблюдаемый», даже при Y > X непросто найти исполнителей.
                            +1
                            А я как-то не согласен, ну именно с такой формулировкой. Тезис: банки защищают денежные средства всех своих вкладчиков; стоит ли им тратить такую же сумму на безопасность?
                              +1
                              Следует ли из этого утверждения то, что безопасник, защищающий системы жизнеобеспечения, должен отдать свою жизнь за их защиту? ^_^
                              0
                              А еще надо бы про энтропию: никакими детерминированными алгоритмами нельзя увеличить число бит энтропии. А то есть «любители»…
                                0
                                Офигенный пост, классно написано, одно но — колоссальное количество ошибок (в русском языке), буквально в каждем абзаце по нескольку. Вычитывайте, пожалуйста.

                                А сам пост прочитался на одном дыхании. :)

                                Спасибо!
                                  +1
                                  Ещё предлагается — закон «профессионализма». В общем название можно обсудить.
                                  Закон действует не только в информационной безопасности, но и в ИТ, и в других сферах то же, но к сожалению в ИБ довольно часто.
                                  «Уровень безопасности системы зависит от уровня строящих и обслуживающих её специалистов.»
                                  К сожалению в сфере информационной безопасности, есть очень много проходимцев, лентяев, кумовства. Слишком часто в информационную безопасность приходят люди из спецслужб, которые и в спецслужбах занимались не информационной безопасностью, а чем то другим. И хорошо если этот индивид будет достаточно умён чтобы пригласить себе в команду нормальных спецов, и не будет им мешать, так нет зачастую, он и в команду набирает таких же бездарей как и сам. Эти люди не только не знают, но и учиться не желают.
                                  Этот закон вступает с утверждением что бизнес не понимает, не даёт. Зачастую бизнес понимает и даёт, а горе специалисты всё сводят к нулю. Оценивали тут успешность проектов ИБ в одной довольно крупной организации, оказалось что многие проекты выполнены плохо, а многие не выполнены совсем.
                                  Отсюда же в свою очередь растёт и нежелание бизнеса в финансировании ИБ, а то деньги тратятся, а инцидентов меньше не становится. Получается так: за отчётный период из-за проблем с ИБ было потеряно 1 мешок денег. Было принято решение улучшить систему, потрачено 1 мешок денег. За второй период из-за проблем с ИБ был потерян ещё один мешок денег. Итого общие потери за второй период — 2 мешка денег. И когда это продолжается из года в год, какие претензии к бизнесу?
                                    0
                                    Закон Стиглера

                                    Как непатриотично вы обозвали принцип Арнольда)
                                      0
                                      «Закон Склярова» в оригинале звучит вот так «Стоимость затрат на создание системы защиты информации на объекте не должна превышать стоимость защищаемой информации. В противном случае защита информации становится нецелесообразной. За исключением случаев, когда речь идет о защите информации предоставляющей государственную важность или стоимость утери информации не может быть оценена.» Собственно Дмитрию его именно в таком виде и преподносили в далеких 90-ых годах, впрочем как и всем кто учился в то время на только открывшихся кафедрах информационной безопасности. Предмет назывался «Основы ИБ», раздел «Технико экономическое обоснование ЗИ». А преподаватели, заботящиеся об будущем студентов, всегда добавляли «в обсуждении с заказчиком старайтесь избегать этой темы всеми силами, так как разные методы оценки стоимости информации будут давать разные результаты и обсуждение возможных средств защиты перейдет в бессмысленный спор о реальной стоимости информации».
                                      К сожалению, сейчас об этом мало кто знает и оценку средств ЗИ делают по принципу «Сколько???? Нет, это очень дорого. Мне только что предлагали решение ХХХ и оно стоит в два раза дешевле.» А дальше начинается смена средств защиты, в целях уменьшения стоимости проекта, при этом напрочь забывается о том что в первую очередь надо бы оценивать достигаемый уровень защищенности. Что рано или поздно приводит к различным инцидентам ИБ.
                                        +1
                                        Законы Склярова и Батенёва оперируют такой штукой, как «стоимость взлома», которая подобна нуль-транспортировке — очень удобна для расчетов, но не смотря на это в объективном виде не существует.

                                        Взлом — это озарение «а поглядим-ка мы вот тот параметр того POST запроса, что-то он странный какой-то». Озарение занимает меньше секунды. Проверка его — от секунд, до нескольких часов. Сложная система может взламываться через последовательную эксплуатацию 5-6 уязвимостей. То есть, и взлом пентагона и взлом швейцарского банка, если идти прямым путем, равны 1-2-3 днем работы квалифицированного специалиста. Но на практике, опять же, системы могут быть практически неломаемыми потому что никто не знает прямой путь, и часто требуется проверять множество разных «тропинок», 99.9% из которых — тупиковые.

                                        Стоимость взлома может быть очень разной в зависимости от специализации, интуиции и просто удачи, например, если система ломается через DNS, то ее достаточно легко сломать сетевику, который свободно работает с tcpdump/wireshark/hping, а DNS пакеты декодирует из хекса в уме. И невероятно сложно веб программисту, который владеет всеми фреймворками javascript, наизусть знает их дыры. Поэтому там, где для одного стоимость взлома — многомиллионная, для другого она копеечная.

                                        Причем для защитника она всегда неизвестная. Это невозможная ситуация «взломщики сломают нас воспользовавшись доступом к админке, которая у нас в мир смотрит, но сначала они потратят 5 дней пытаясь подобрать эксплойт к движку». Если защищающийся не знает уязвимость — то стоимость взлома — бесконечна. (Конечно, умный человек понимает ограниченность своих знаний и возможную ошибочность предположений).Если же он знает уязвимость — то довольно глупо говорить о стоимости взлома — она копеечная.
                                          0
                                          Как минимум, есть ситуации когда стоимость можно с очень высокой точностью посчитать. Например, какой сложности шифрование использовать. Шифрование А, для брутфорса которого потребуется два компьютера за 500 долларов и месяц машинного времени, или Шифрование Б, для брутфорса которого потребуется значительно больше ресурсов.
                                            0
                                            Но кто обяжет хакера ломать именно брутфорсом? Систему А он взломает через уязвимость в сетевом демоне, а систему Б — через уязвимость в реализации (а не в самой идее) криптографического алгоритма (забыли использовать рандомный salt для пароля, хотя по проекту предполагалось). У обоих атак будет какая-то своя, относительно низкая стоимость, которая будет существенно ниже расчетной.

                                            Сама идея «стоимости взлома» основана на ложном предположении что реальная система абсолютно точно соответствует простой модели в нашей голове. Но это заведомо неверно. Система из тысяч строк кода — сложна и «не помещается в голове». А то что уместилось — это упрощение. В этом упрощении есть функция check_login(), вместо реальных 100 строк кода, которые ее реализуют. check_login работает «неуязвимо», а реальные 100 строк кода — имеют одну маленькую уязвимость, которую найдет взломщик. И еще неизвестно сколько уязвимостей, которые он не сможет найти.

                                            Черный лебедь потому и такая опасная птица, что все живут в модели-мире, кто черных лебедей не существует.
                                            0
                                            Вы забыли об ещё одном факторе, влияющем на стоимость взлома — массовость. Если один и тот же приём можно автоматически применять ко множеству систем, то его удельная стоимость сильно понижается. Этим объясняется недавнее широкое развитие шифровальщиков — случайно уцепившись за каждый тысячный компьютер из миллионов опробованных, шифровальщик окупает своё создание.
                                              0
                                              Забыл, но заметьте — как красиво я забыл! Я ведь утверждаю идею бессмысленности термина «стоимость взлома», как раз на основании того, что невозможно предусмотреть все — что-то да выпадет из поля внимания. Так что, моя забывчивость, подолнительный аргумент в пользу моего тезиса!
                                            +1

                                            Насчёт всего, что связано со стоимостью информации и стоимости взлома, не совсем согласен.


                                            Иногда случается так, что некоторые взломы делаются ради фана/азарта/престижа/статуса (т.е. именно ради взлома, чтобы доказать себе или другим, что ты можешь взломать конкретную систему), безотносительно фактической стоимости полученной информации.

                                              +2
                                              Забыли самую главную аксиому — «Безопасность обратно пропорциональна удобству».
                                                0
                                                Вот что правда, то правда!
                                                0

                                                Мы сейчас обсуждали iT безопасность, а давайте вспомним вообще про нашу с вами безопасность в целом.


                                                В нашем детстве многие методы обучения граничат со смертью. Это из Stand Up Виктор Комаров

                                                Подробней тут...

                                                Я помню, как меня в детстве отец учил кататься на велосипеде. Никакой предварительной техники безопасности. Просто посадил на велик, взял за седушку и отпустил. <...> Зато из-за этого, мне кажется, в более сознательной жизни, у нас притуплено чувство самосохранения. Я был однажды в аэропорту. Сижу в кафе. И по громкой связи звучит объявление, где женщина чёрным по белому объявляет: «Пожарная тревога! Срочно покиньте...» Но никто не пошевелил булками. Единственное, что поменялось, — мужик за соседним столиком начал быстрее размешивать сахар в кофе. И это мы с вами. Мы так делаем. Пока мы точно не будем уверены, что нам угрожает опасность, мы не будем шевелиться. Пока мы не увидим горящего мужика, который пробегает с фразой «Это не учебная!»

                                                  0
                                                  Защититься от закона Индюкова можно устраивая раз в несколько лет «учения». Сисадмин умышленно запускает по всей системе некую @#$%! А когда все, включая директора, встанут на уши и последний начнет раздавать ***ли, говорит, что мол спокойно, все под контролем, только надо сменить пароли и т.п.
                                                    +1
                                                    А потом директор пообщается со своим знакомым — директором другой фирмы, который скажет, что у них такой хрени не бывает никогда. И следующим шагом админа первой фирмы увольняют «за непрофессионализм».
                                                      0
                                                      Когда директор посчитает, сколько денег стоило «стояние на ушах» у 20 человек, и попросить оплатить их время из своей з/п, админ на это по-другому посмотрит.
                                                        0
                                                        – Это решается принудительными политиками. В ОС уже давно есть политики, контролирующие сложно пароля.
                                                        – Среди персонала надо продавать штрафы за халатное отношение к конф. данным (пароли на листках или на внешнем (к организации) устройстве в открытом виде).
                                                        – Периодические заказы тестов на проникновение… раз 2 года потратить некоторую сумму денег на аудит IT безопасности всё таки можно, если бизнес завязан на IT инфраструктуре.
                                                        – Конечно не заставить всех исполнять банальные, но важные правила, но хотя бы снять с себя ответственность можно. Я не к тому, что прикрывайте свой зад, а к тому, что плоскость вопроса уже не техническая, а административная: сами нарушают — сами пусть за это и расплачиваются. Ведь если не на кого будет спихнуть вину после инцидента (на свитерастых админов, например), то с большей вероятностью виновный будет найден и наказан.

                                                        Так что моё мнение такое: всё что можно решить технические — решается любыми методами технически, что не поддаётся настройке и не попадается под полномочия, должно решаться административным ресурсом. Если решилось плохо — административный ресурс сам сам и разберётся.
                                                        0
                                                        > Закон систематической исторической несправедливости Саймона Сингха
                                                        В России более известен как принцип Арнольда (который математик):
                                                        Если какой-либо объект имеет собственное имя (например, Америка), то это не имя первооткрывателя.

                                                        Имеется также дополнение — принцип Берри:
                                                        Принцип Арнольда применим к самому себе.

                                                        © «Что такое математика» В. И. Арнольд
                                                          0
                                                          Предположим некто Джим в какой-то социалке разместил фото красивейшего заката на каких-нибудь островах в океане. Также представим, что некоему Джону это фото ну очень понравилась и он репостнул его у себя в ленте.
                                                          Вдруг выясняется, что внутри этого фото с помощью стеганографии скрыто еще одно, например с детским порно.
                                                          Вопрос:
                                                          Можно ли в этом случае предъявить Джиму и Джону обвинения в распространении детского порно, при условии, что они оба настаивают на том, что не знали о том, что внутри фото с закатом было еще что-то?

                                                          Only users with full accounts can post comments. Log in, please.