Как стать автором
Обновить
78
0

Пользователь

Отправить сообщение
«ECC криптографически более стойкая чем RSA, что позволяет использовать более короткие ключи, и как следствие, снижает требования к производительности.»
Некорректное утверждение про производительность.
1) ECC и RSA работают на разной математике. ECC использует более короткую длину ключей, но и сложность вычислений ECC для такой длины ключей существенно выше.
2) RSA может быть ускорен за счёт CRT, ECC может быть ускорен за счёт предвычислений.
3) У RSA операция на закрытом ключе (расшифровка/подпись) считается сложнее, чем на открытом (шифрования/проверка); у ECC проверка подписи в ~2 раза сложнее формирования и согласования ключа.
А ещё зависит от архитектуры вычислителя и т.п.
> считать вирусом любое внедрение постороннего кода
А как быть с интерпретаторами скриптов, например в браузерах. С одной стороны это не внедрение, т.к. код браузера не меняется, с другой — посторонний код исполняется.
А что ж такие больше отступы между письмами-то?..
Что в Preview, что в «Preview (Dense)». Вернул обратно Turf.
«Случайности не случайны» :)
(с) мастер Угвей, Кунг-фу Панда
Да, такая проблема есть, и это один из возможных векторов атаки на систему.
Однако никто не мешает оставшимся энтузиастам договориться и ввести в официальный клиент сброс сложности с огромного значения на приемлемое — после определённого блока. То есть сделать разовый «хотфикс» сложности.
Смысл в том что правила в сети задаёт большинство.
Даже если 1 человек останется «верен биткоинам», он сможет сделать сброс сложности и продолжить работу сети. Я лично так сделаю в случае обвала (ну если биткоины не запретят смертной казнью, конечно :) )
Скачать базу где-то можно?
Что-то не нагугливается.
Мне для анализа сложности паролей только.
Если ищешь что-то, собираешь разрозненную информацию — быстрый интернет помогает. Чем быстрее загружаются страницы, тем быстрее ты работаешь.
Потому что у вас был с выбором одного варианта.
Как меня всегда радуют линейные интерполяции современности в будущее.
Лондон задохнётся от лошадинного навоза…
К звёздам будем летать с компьютерами на перфолентах…
Для любых задач хватит 640 килобайт ОЗУ…
В 2015 у нас будут летающие автомобили и головные телевизоры…

«Человеческий разум не сможет конкурировать с ИИ в киберпространстве» — ровно из этой же серии.
> при каких условиях вообще будут возникать дефекты такого рода? (большие связные дефектные области)
Условия не такие уж и редкие. Повреждение фотоснимка на флешке довольно часто убивает существенный фрагмент файла — в средине или до конца. Недокопировался, недозаписался, записался криво, удалён и восстановлен после записи на флешку.

> восстанавливать с помощью например тех же кодов Рида-Соломона
Рид-Соломон добавляет возможность восстановления ~X% объёма исходного файла за счёт добавления ~2X% к хранимому объёму. Засада в том, что если повредится больше X% объёма файла, то Рид-Соломон не сработает вообще.
Помимо уже указанной невозможности сжать изображение после такого кодирования, есть и другие побочные эффекты.
1) Если окончание изображения не было «оторвано» или залито чёрным, а заменено фрагментом другого изображения, вы получите смесь из двух изображений. При примерно одинаковой яркости вы можете уже не подобрать фильтр, который подавит одно изображение и выделит другое.
Пример: восстановление удалённых файлов обычно приводит к такой каше из файлов.
2) Если средина файла была утрачена, а всё что после сдвинуто к началу, причём вы не знаете на сколько байт — сдвинутые данные распакуются на неправильные места и вы вместо *всего* изображения снова получите «помехи».
Пример: при перегреве флешек данные из них копируются с потерей синхронизации — с выпадениями и сдвигами.
3) Самое уязвимое место файла — заголовок. Для адаптивного JPEG-а повреждение таблиц Хаффмана (100-200 байт в заголовке) означает полную потерю изображения.

В целом вам нужно оценить устойчивость вашего кодирования к:
1) Замене данных на произвольные — белый шум, часть другого изображения вашего же формата, константы, BMP-образные данные и т.п.
2) Вставке чужих данных со сдвигом
3) Потере со сдвигом фрагмента файла вашего формата
4) Повреждению заголовка, в котором записана информация о типе кодирования, размере файла, типе и параметрах кодирования.
Практика ремонта JPEG-ов в течение нескольких лет показывает, что при сбое Progressive JPEG восстановлению подлежит только изображение очень низкого разрешения — первый скан, а все дальнейшие сканы восстановлению не подлежат совсем.
С другой стороны, в случае sequental, даже заметный сбой в начале/средине может быть нивелирован — «выкусыванием» сбойного фрагмента с восстановлением всего изображения после сбоя.
Ещё можно в «период полураспада» пересчитать.
79 лет получается, довольно стабильный «элемент».
10 лет ещё не прошло, а уже судьба под вопросом
Замечательно.
«победителями на рынке разработки приложений станут люди, которые смогут заставить HTML петь»
И я даже знаю, кому это удалось.
Новая глава в бесконечной череде «технологий будущего» от Microsoft.

«В это время группа отступников внутри Microsoft обнаружила в .NET фатальный недостаток — его писали не они!»

Знаем, помним, обсуждали: forum.ixbt.com/topic.cgi?id=26:29823-2#48 (2004й год)
Тот кто знает, что такое 1337 не ставит настолько простые коды, имхо
В Антарктиде есть интернет, я с коллегой по аське общался, когда он там был. Задержка была ощутима — секунда туда, секунда обратно.
Надо капчу делать из теста на IQ
Ну хорошо, а если сделать не round robin fashion, а random?
Или переставлять порядок потоков случайным образом после каждого круга?

Информация

В рейтинге
Не участвует
Откуда
Зеленоград, Москва и Московская обл., Россия
Дата рождения
Зарегистрирован
Активность