Pull to refresh
35
-2
DmitryA @screwer

Пользователь

Send message

Если вы хорошо понимаете, как оно работает, напишите, какие есть сложности с обходом SafetyNet

Его принципиально не обойти. Данные для аттестации собираются в TrustZone, куда доступа нет. Подписываются криптографически. Вы получаете собственную подписаную копию, которую проверяете предварительно полученным ключом. Ограничения должны быть сделаны не на устройстве (где атакующий может пропатчить приложение) а на вашем сервере.

Пример того, что можно узнать об устройстве: https://developer.android.com/training/safetynet/attestation#potential-integrity-verdicts

Вообщем взлом SafetyNet равносилен взлому криптографии. Тогда уж лучше взломать банковский протокол и сразу себе денег перевести на счёт)))

Но если вдруг сетка отвалилась, что делать?

Очевидно аттестацию будет не пройти. Но и приложением пользоваться будет невозможно (см. выше про ваш сервер).

А если запросы идут слишком часто?

10,000 в день на приложение по дефолту. Если надо больше - запрашиваете квоту.

Возможно, на клиенте есть кеш статусов для таких случаев и его патчат?

Ответы пропатчить невозможно, см. первый абзац.

512gb стораджа сейчас не редкость. Есть модели с 1тб. Сколько это будет сливаться по усб2.0 ?

В 2010-х все как-то заряжали на 500 mA, и всем было нормально…

А вы думаете сейчас в зарядниках какие-то запредельные токи ? Жилы в проводах особо толще не стали. 500mA на 5v это 2,5вт, а те же 500mA на 40v уже 20вт

Вы просто не понимаете как работает SafetyNet. Там бесполезно что либо патчить чтобы ПРОЙТИ проверку. Разумеется, можно пытаться патчить каждое конкретное приложение (включая выдачу результатов) чтобы оно перестало эту проверку корректно получать. Но это тупиковый путь. По целому ряду причин.

Твиты от автора магиска:

https://twitter.com/topjohnwu/status/1237656703929180160

https://twitter.com/topjohnwu/status/1457932566846062594

Проверку SafetyNet обойти невозможно.

Правда, и для WSL1 Майкрософту все равно реализацию форков пришлось допиливать в ядре

Я знаю про пико-процессы. Но это неудивительно, NT форк был реализован в начале 90х, Линукс за это время прошел громадный путь. Например, до версии 2.6 ЕМНИП он был однозадачный: вытеснение (preempt) в ядре (т.е.внутри сисколла) не происходило. Вот уж про что так подходит анекдот "сынок, подожди, дискету доформатирую", популярный во времена 9х.

ибо NT-ядро форкать не умело никогда

NT ядро форкать умело всегда, и это доступно в usermode через NativeAPI.

Напомню, что на заре появления NT все три подсистемы (win32, posix, os/2) входили в состав windows NT и были архитектурно равнозначными - базировались на native api.

Данные из DBF можно было вставлять в базу как есть, с XML так не получается

У DBF тривиальный формат, создавали бы сразу его, сами.

Развернуть архив, файлы импорта займут 300 GB

А не надо этого делать. Надо сразу по мере распаковки и парсить файл, вообще не записывая распакованное на диск. Это изрядно сократит число дисковых операций.

чтение с диска PHP - 2 Mb/s, PostreSql - 1.5 Mb/s

(Голосом Швондера) это какой-то... позор!

ЗЫ: задачка из разряда сортировки за час. Видится мне здесь генерация всех дбф должна занять также не более часа.

тестовая машина не хилая - 64Gb ОЗУ, 3.6Гц камень (под бустом аж до 4.75Гц

Что тут "нехилого" ?

  • Мой домашний комп, самый обычный, куплен в начале 2017, имеет 4 ядра на 4,5ггц (7700к + настройка в биосе, обходящая ограничение турбобумста). 64гб.

  • Рабочий комп, собран в 2019. Имеет 6 ядер на 5ггц (8700к из 2017года + небольшой разгон)

  • Дома есть несколько двухпроцессорных серверов на БУ зионах. Сейчас стоимость процессоров + матплаты + памяти вряд-ли превышает 50тр.. Т.е.дешевле среднего нового ноутбука. А это 36 ядер на 3,3 и 256гб оперативки.

Все умеют префетчить. И без участия процессора диска работает с доисторических времён (все помнят PIO и UDMA настройки в биосе?).

Пропускная способность сата3 600мб/сек, что гарантировано выше любого современного ХДД.

Да, часть данных может застрять в дисковом кеше, под который отводится вся неиспользуемая память. Но на больших файлах этот кеш будет активно вымываться.

Современные диски на плоских файлах запросто выдают 200мб/с. Гигабайт за 5с, 100гб за 500с или 8,5 минут.

На раздаче осталась жопа куриная, да конча козлиная. Что сам сожрёшь, что корешу зашлёшь ?

Что-то зачастили новости про спасающее айфно. Эпл вложила доп.бабки в пиар, чтобы спасти падающие продажи?

ошибка носит теоретический характер и не может быть воспроизведена;

Наблюдал такие ошибки у американского телекоммуникационного вендора. Например, в одном случае внешняя функция отфильтровывая опасный вызов, делая проверку на некоторую длину, взятую "с потолка", которая отсекала данные-триггер. Таким ошибкам все же присваивался CVE как и прочим ошибкам. Потому что сегодня она "теоретическая", и не воспроизводится. Но ведь уязвимый код от этого безопасным не становится! Завтра изменятся внешние условия, и "пробиться" к багу станет возможным.

PAE автоматически привносит NX бит, позволяя сделать данные неисполняемыми. Это солидный вклад в безопасность. А 64гб - видимо делали "с запасом", раз уж пришлось менять формат дескриптора таблицы страниц. "На вырост".

Исторический экскурс: в те годы баги были простыми, и практически никто не обновлялся. Достаточно было получить управление над регистром PC. Далее память тупо забивалась NOP-ами, благо в интеле ноп ненулевой - можно было тупо в JS-е поскладывать строку из символов с кодом ноп'а саму с собой, много раз, и забить этим содержимым кучу. К нопам пристегивалась нагрузка. И можно было прыгать в память "вслепую", все равно доскользишь по нопам по нагрузки. Потому что исполнение данных

После введение NX бита все ожидали смерти эксплоитов. Но мерзкие хакеры придумали ROP/JOP. В противодействие добавили ASLR, он сильно подкосил ряды атакующих, но все ещё не стал панацеей, особенно на 32 битах. А потом... Вообщем эта история все ещё длится

На 16 КБ питон не запустится. Даже на 128кб bare metal. Даже микропитон. Обезжиренная луа на 128кб запускается, но мало что полезного можно сделать - быстро память заканчивается.

У них разные микрокоды.

...

Не получится даже контроллер поменять, он просто не заработает.

Вот за такое пора бы вендоров (а они все такие) сажать накол. Это намного важнее "права на ремонт". Придумали себе эдакую тивоизацию, скоты. Когда вендор-лок ставится в микрокоде/драйвере, и железка искусственно не работает. Чтобы продать подороже, заодно привязав к бренду.

Причем у разных вендоров может быть вообще одна и та же железка, сделанная третьей стороной. Но намертво прибитая к каждому вендору.

Какая-то хрень. Стойка потребляет больше, а тепла при этом выделяет меньше. Куда, по-мнению автора, девается потребленная энергия ?

45 террабайт. Не гигов.

И покупают же! Даже стали больше покупать. Потому что кратно дешевле ХДД и хранение надёжнее при этом

Даже на вторичке цены подскочили. Особенно на картриджи. Значит есть спрос

Information

Rating
Does not participate
Location
Санкт-Петербург, Санкт-Петербург и область, Россия
Registered
Activity