Обновить
58
0
Ivan Velichko@iximiuz

Software Engineer

Отправить сообщение
Учите матчасть! Видеокарты от процессоров общего назначения значительно отличаются архитектурой. Если процессоры берут спекулятивным исполнением команд, конвейеризацией и многоуровневым кэшированием, то карты выигрывают за счет поддержки огромного количества одновременно выполняемых потоков и дешевой с точки зрения временных затрат смены контекста. А дальше уже нужно плясать от этих особенностей и смотреть, что принесет больший выигрыш при решении той или иной вычислительной задачи.

P.S. А матом ругаться не красиво, Вас родители разве этому не учили?
Да это я не тот коммент ответил, промахнулся в кнопочку =) Нужно было чуть выше
разница между взломом WPA-PSK и WPA2-PSK всего в 1 функции хэширования. При подсчете целостности сообщения в WPA2 SHA-1 заменена на md5. Так что если будет реализация, то сразу для обоих алгоритмов
Гоняясь за скоростями я слишком мало уделяю внимания практике подбора. Реальные сетки только WEP ломал.

Сейчас беда в том, что по стандарту (IEEE 802.11i) в качестве пароля можно использовать любую фразу от 8 до 63 символов с 32 по 126 символы ASCII. Собственно программы ломающие так и делают, во всяком случае aircrack. А мы с вами всеми живем в замечательной стране России, где национальный язык русский. Товарищи из Майкрософт, со своей неугомонной тягой к локализации всего подряд, позволяют в Windows 7 при установлении сети Wi-Fi использовать русские пароли. На этом весь перебор оканчивается… Собственно ради этого я и пишу собственную реализацию. С учетом языковых специфик.

P.S. Написал статью про алгоритм подбора WPA-PSK, думаю собравшимся здесь она будет интересна, но вот не могу опубликовать из-за кармы… Не сочтите за наглость только =) Сумнящимся готов отправить в личку на ознакомление
36^8 комбинаций, а это 2821109907456 паролей. При скорости 100000 ключей/с это 28211099,07456 сек, то есть 326,5 дней. Если удастся на одной карте считать с такой скоростью, то считайте, что Вам сильно повезло. И поделитесь тогда моделькой карты, куплю себе такую ) Никто полным перебором не считает WPA-PSK, используйте словари
Нет, одна карта всего. Я говорю об увеличении всего порядка нескольких процентов, не более 10
как правило на картах ATI больше универсальных вычислителей, следовательно проще поддерживать одновременное выполнение бОльшого количества потоков, выполняющих перебор. Для задачи взлома пароля по словарю это один из определяющих факторов увеличения быстродействия
на виртуалке не будет работать никак, туда карточку не передашь как NVIDIA. Она будет как некоторый универсальный графический адаптер и уж конечно без поддержки CUDA и OpenCL
P.S. ~85.000 pmk/s — голубая мечта брутеров )))
У WPA ломается только режим WPA-PSK. Если бы автор соизволил изучить алгоритм формирования набора ключей данного режима (стандарт IEEE 802.11i), то заметил бы, что использование радужных таблиц имеет нулевую эффективность в связи с тем, что в формировании ключей помимо essid используются случайные числа, генерируемые клиентом и точкой доступа в момент аутентификации.

Следовательно подбор возможен только по сырым свежим данным. Скорости перебора следующие — для видеокарты NVIDIA GeForce GTX 480 при достаточно древнем остальном железе скорость проверки паролей из словаря составляет около 30000 ключей/с. Для ознакомления — ПО проприетарное, но на трекерах можно найти ключики =)

Кому интересно, обращайтесь по вопросу подбора ключей WPA-PSK в личку, есть собственные реализации с использованием видеокарт работающие даже чутка шустрее пендосовских аналогов
А причем здесь SQL? ) Вроде речь о тестировании…

И какова по Вашему основная цель рефакторинга, если более понятный код — побочный эффект?
Ну если Рефакторинг — это процесс исправления ошибок, то опытные программисты может и делают его реже…

Но все же рефакторинг — это процесс улучшения существующего кода с целью сделать его более понятным. Без периодически повторяющегося рефакторинга проект развалится из-за слишком быстро растущей сложности. При этом рефакторинг МОЖЕТ внести новые ошибки, если нет наборов модульных регрессионных тестов, которые должны прогоняться каждый раз при внесении очередных изменений. С учетом результатов голосования и возник вопрос — сколько же человек из проголосовавших используют в процессе разработки программ рефакторинг при такой низкой доле использования регрессионных тестов
Интересно было бы провести сопутствующее голосование — кто использует рефакторинг в своих проектах?
Тут вопрос более глубокий. Если использовать полученные статистические данные для атаки на пользователей из приблизительно той же языковой и социальной группы, то никакая нормализация не нужна и использование результатов статистики даст выигрыш при переборе. Но вот если есть желание воспользоваться данной статистикой, как универсальной — то тут можно уже говорить о нормализации, но при этом полученные данные скорее всего приведут к мысли, что статистика бесполезна, что Вы и утверждаете. Следовательно, не стоит пользоваться конкретными результатами как неким плацебо, а нужно взять на вооружение сам механизм анализа и применять его к конкретным ситуациям. Но в любом случае практика — критерий истины, так что хорошо бы теперь посмотреть статистику получения выигрыша от использования буквенно-частотной статистики =)
Можно бы попробовать сыграть на теории бОльшего дурака во втором раунде. Правда из-за таких вещей пузыри и лопаются
конечно не означает, но все же числа должны быть поближе, мне кажется. В статье определенно не хватает формул
использование в качестве пароля md5 хэша равносильно усложнению задачи брутеру, увеличив его временные затраты на величину, равную времени вычисления одного md5 умноженному на количество перебираемых паролей. Перебор действительно будет снова по обычному читабельному словарю. С учетом того, что современные алгоритмы вычисления хэша по паролю усиливаются десятками сотен дополнительных хэширований, добавление одного лишнего md5 погоды не делает
Исходя из первого графика, если прикинуть на глаз сумму вероятностей встречи топовых 20 символов, на оставшиеся 58 остается около 20 % (т.е. 0,2 так как сумма всех вероятностей должна давать единицу). Следовательно совсем не ясно с чем связаны выводы по третьему графику по поводу 27 первых символов и 50 % паролей…
Видимо текст оказался слишком сложным для НЕфинансистов. На самом деле очень интересный и полезный обзор, спасибо!
IT-иллюзионисты вокруг нас! =)
12 ...
17

Информация

В рейтинге
Не участвует
Откуда
Amsterdam, Noord-Holland, Нидерланды
Зарегистрирован
Активность