Комментарии 25
У меня дежавю.
+2
Интересно, существует ли во множестве мд5 хешей такой, от которого хеш мд5 равен самому себе?
(Ну тоесть md5(a) = a)
(Ну тоесть md5(a) = a)
+12
Это легко проверить, всего-то нужно провести 2^128 операций)
+5
Хэш Мебиуса?
+1
Это называется неподвижная точка.
+6
Более полезный случай, когда код содержит хэш равный хэшу от этого кода.
+3
Бегает по психушке md5 и кричит «я вас всех тут хеширую»…
+3
Т.к. в md5 хэше 16 байт => 2^(16*8)=3,4*10^38 комбинаций.
Проще говоря, если для вычисления одного хэша по 16 байт требуется одна миллисекунда, то нам потребуется 10790283070806014188970529154,99 лет для расчета всех этих хэшей.
Проще говоря, если для вычисления одного хэша по 16 байт требуется одна миллисекунда, то нам потребуется 10790283070806014188970529154,99 лет для расчета всех этих хэшей.
-3
Неподвижная точка в мд5 не только существует, но и представляет собой валидную программу на перле (с) не-помню-откуда
+7
И так хочется верить, что время md5 подошло к концу, но ник автора… эх…
-3
если нашли коллизии первого рода, то почему до сих пор не посчитали md5 который == 0?
0
Правильно я понимаю что речь идет о коллизиях первого рода?
0
А если использовать сразу два быстрых хэш алгоритма(sha1 и md5 например). И хранить соответственно два хэша.
Хоть и там и там есть коллизии, думаю подобрать набор данных который будет выдавать коллизии для обоих алгоритмов будет в разы сложнее.
Хоть и там и там есть коллизии, думаю подобрать набор данных который будет выдавать коллизии для обоих алгоритмов будет в разы сложнее.
+4
Вы знаете, авторы сборок разного софта так и делают.
0
Да я и сам так делаю :)
Просто на мой взгляд в плане уникальности на одном наборе данных несколько хэш алгоритмов может быть гораздо выгодней чем любой один. Разве только он не имеет коллизий на блоке одного размера, в этом случае вторый параметром для определения уникальности будет размер.
p.s. мне для уникальности файлов пока хватает md5+sha1+file size, но есть предположение что в рамках больших чисел в конце концов эта система все равно может дать сбой, пометив два разных файла как один. ^_^
Просто на мой взгляд в плане уникальности на одном наборе данных несколько хэш алгоритмов может быть гораздо выгодней чем любой один. Разве только он не имеет коллизий на блоке одного размера, в этом случае вторый параметром для определения уникальности будет размер.
p.s. мне для уникальности файлов пока хватает md5+sha1+file size, но есть предположение что в рамках больших чисел в конце концов эта система все равно может дать сбой, пометив два разных файла как один. ^_^
0
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Коллизии в 512-битных блоках MD5