Как стать автором
Обновить

Комментарии 11

так а за счёт чего такое ускорение — можно пояснить было? а то сплошной oneFactor, SGX ускоряет, ускоряет SGX, Intel, ключевое, ускорение. 9 цифр в разных комбинациях повторяются 10 раз. график, таблица, потом для неграмотных своими словами описано.
Очередной «учёный изнасиловал журналиста»?
Первый конфиг 4 ядра 8 потоков и RAM 64 ГБ DDR4 2133 MHz против 18 ядер и 378 ГБ DDR4 2933 MHz, конешно всё дело в SGX 2.0?
Частота процессора и количество потоков в данном сценарии не играют существенной роли, так как все операции обучения и на SGX1 CPU и на SGX2 CPU происходили последовательно и использовался однопоточный анклав (TCSNum = 1) и основной прирост в скорости обучения достигается именно за счёт отсутствия EPC swapping (см. ниже).
Не «журналист изнасиловал учёного»?
И да, тест на двух совершенно разных конфигурациях(кол-во ядер, ОЗУ, ССД) вообще имеет хоть какой-то смысл? Получается что-то вроде «Смотрите, наш новый 10-ти ядерный 20-ти поточный i9 с 128ГБ быстрой памяти быстрее старого 2-х ядерного пентиум с 4 ГБ памяти».
Судя по спецификации, 2 x 18 ядер и 72 потока. А как вишенка — SATA SSD vs NVMe SSD.
Ускорение достигается за счёт увеличенного максимального размера анклава в SGX 2.0.
В SGX1 максимальный размер enclave page cache (EPC) составляет 128 Мегабайт и, если размер анклава его не превышает, то нет никакого пенальти по производительности. В SGX2.0 размер EPC составляет, как видно, уже 256 Гигабайт.
Для обучения качественных ML моделей используются датасеты большого размера и те данные, которые не помешаются в EPC анклава, хранятся в RAM в зашифрованном виде и для доступа к этим данным используется очень затратная операция EPC swapping.
Спасибо за пояснение. Этого и комментария выше не хватало в самой статье. Т.е. из статьи не понятно за счёт чего достигается прирост производительности и не указано, что тест в однопотоке. Поэтому могут возникать неверные выводы о статье, особенно у человека не разбирающегося в ML(меня).
Что только не придумают в условиях дефицита видеокарт.
Здравствуйте.
Имею два вопроса:
1. Почему обучение ведется на цпу а не на гпу? Если можно поподробнее пожалуйста.

2.
используются датасеты большого размера и те данные, которые не помешаются в EPC анклава, хранятся в RAM в зашифрованном виде и для доступа к этим данным используется очень затратная операция EPC swapping

Мне одному кажется что это какойто лютый мазохизм? Это требование регулятора? Зачем это? От кого скрываются датасеты?

Заранее признателен за развернутые ответы.
1. Обучение ведётся на CPU с поддержкой SGX, так как используются чувствительные данные и технология SGX позволяет безопасно загрузить данные в анклав и обучить модель без раскрытия этих данных
2. Датасеты скрывают по разным причинам — требование регулятора, нежелание раскрывать данные, которые являются частью бизнеса компании
Отличный результат!
Подскажите, какие модели и на каком фреймворке вы учите в анклаве?
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.