Обновить

Безопасность — это не отсутствие структуры, а наличие правильной структуры: топология как новый язык науки

Уровень сложностиПростой
Время на прочтение9 мин
Охват и читатели5.7K
Всего голосов 4: ↑3 и ↓1+2
Комментарии5

Комментарии 5

Мы привыкли думать о безопасности как о чем-то случайном: "чем больше случайности, тем безопаснее".

Кто это - мы?

Не всё человечество, конечно! Под словом «мы» я в первую очередь имел в виду себя, друзей и коллег, вспоминая прежде всего nonce ECDSA. О Вас я точно не думал — уж простите меня.

>Мы привыкли думать о безопасности как о чем-то случайном: "чем больше случайности, тем >безопаснее".
А чем вы измеряете (больше\меньше) случайность?

Спасибо! Неожиданно, отличный и глубокий вопрос — он касается фундаментального понимания случайности в криптографии.

Мы измеряем случайность через энтропию, а обеспечиваем её через криптографически стойкие генераторы и равномерное распределение ключей.

«Больше случайности» — это не про длину, а про непредсказуемость и равномерность.

Как мы измеряем «больше» или «меньше» случайности?

Основной инструмент — энтропия по Шеннону (в битах):

H(X) = -\sum_{x} \Pr[X = x] \log_2 \Pr[X = x]

  • Если ключ выбирается равномерно из N вариантов, то энтропия = \log_2 N бит.

  • Если распределение неравномерное (например, некоторые ключи выбираются чаще), энтропия меньше, и система уязвима.

" Видят прямую от до n-1 и на этой прямой рандомят "
"Персистентная гомология"

Эта статья - перевод через гугл-переводчик?

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации