Программирую "микро-микроконтроллеры" на ассемблере, для "толстых" микроконтроллеров - вполне подходит C. Многое зависит от компилятора, у Rust тут, с точки зрения компиляции (не производительности), конечно, есть существенные преимущества, но, в общем случае - компилятор "не видит" алгоритма, и для микроконтроллеров (которые "микро") этот эффект максимален. Есть неплохой пример с "обратным разворачиванием" циклов: https://dxdt.ru/2024/07/29/13493/
Тут речь вот о чём: сломав RSA, конечно, можно извлечь ключи, можно подделать подписи сервера; однако на уже случившуюся двадцать лет назад успешную аутентификацию TLS-сервера клиентом это же не повлияет - завершившаяся аутентификация не перестанет быть успешной, если таковой была.
Любопытно взглянуть на сравнение производительности
По браузерам сказать сложно, нужно измерять. Но ML-KEM, благодаря NTT-умножению, быстрый. В примере из реализации OQS (выше) ML-KEM существенно быстрее X25519, соответственно, падение производительности будет небольшим, так или иначе (даже если учитывать прирост размера ключей).
Предполагается, что число 21 "вводят" путём создания сложной (даже для такого небольшого числа) "квантовой схемы", которая, теоретически, должна физически реализовать заданную функцию (некоторую экспоненту, в случае факторизации). Как именно реализовать, какие должны быть "физические элементы", сколько их нужно (потому что "помехи") - тут, так сказать, мнения расходятся. Поэтому чёткого, конкретного ответа, что называется, "на проводах", пока и нет. Как нет ответа и относительно физической реализации квантового преобразования Фурье, тем более, для большого количества разрядов (кубитов). Популярные статьи обычно строятся вокруг подсчёта "количества кубитов" и "суперпозиции", а не вокруг обсуждения методов задания состояний (например).
Что касается разрядности, предположим, порядка 2^300, то тут непонятно, в какой момент и по какой шкале должен наступать переход от "квантового" к "классическому". То есть, в книжках нередко пишут, что "с ростом количества частиц начинается статистика и классическая физика". Однако, когда именно это начинается в случае гипотетического квантового компьютера? Как измерять порог: по количеству ли кубитов, по количеству ли состояний, должен ли наступать означенный переход вообще - мнения, опять же, разнятся, и среди физиков, и среди философов. Конкретно к реализации алгоритма Шора это имееет, кроме прочего, и такое отношение, что ошибки в представлении результата преобразования Фурье, вообще-то, тоже могут "квантоваться", а это, предположим, не позволит факторизовать большие полупростые числа в принципе (почему аксиома непрерывности должна прямо транслироваться в физику измерительного оборудования?).
Программирую "микро-микроконтроллеры" на ассемблере, для "толстых" микроконтроллеров - вполне подходит C. Многое зависит от компилятора, у Rust тут, с точки зрения компиляции (не производительности), конечно, есть существенные преимущества, но, в общем случае - компилятор "не видит" алгоритма, и для микроконтроллеров (которые "микро") этот эффект максимален. Есть неплохой пример с "обратным разворачиванием" циклов: https://dxdt.ru/2024/07/29/13493/
Записанный трафик вполне можно будет прочитать, да.
Тут речь вот о чём: сломав RSA, конечно, можно извлечь ключи, можно подделать подписи сервера; однако на уже случившуюся двадцать лет назад успешную аутентификацию TLS-сервера клиентом это же не повлияет - завершившаяся аутентификация не перестанет быть успешной, если таковой была.
По браузерам сказать сложно, нужно измерять. Но ML-KEM, благодаря NTT-умножению, быстрый. В примере из реализации OQS (выше) ML-KEM существенно быстрее X25519, соответственно, падение производительности будет небольшим, так или иначе (даже если учитывать прирост размера ключей).
Предполагается, что число 21 "вводят" путём создания сложной (даже для такого небольшого числа) "квантовой схемы", которая, теоретически, должна физически реализовать заданную функцию (некоторую экспоненту, в случае факторизации). Как именно реализовать, какие должны быть "физические элементы", сколько их нужно (потому что "помехи") - тут, так сказать, мнения расходятся. Поэтому чёткого, конкретного ответа, что называется, "на проводах", пока и нет. Как нет ответа и относительно физической реализации квантового преобразования Фурье, тем более, для большого количества разрядов (кубитов). Популярные статьи обычно строятся вокруг подсчёта "количества кубитов" и "суперпозиции", а не вокруг обсуждения методов задания состояний (например).
Что касается разрядности, предположим, порядка 2^300, то тут непонятно, в какой момент и по какой шкале должен наступать переход от "квантового" к "классическому". То есть, в книжках нередко пишут, что "с ростом количества частиц начинается статистика и классическая физика". Однако, когда именно это начинается в случае гипотетического квантового компьютера? Как измерять порог: по количеству ли кубитов, по количеству ли состояний, должен ли наступать означенный переход вообще - мнения, опять же, разнятся, и среди физиков, и среди философов. Конкретно к реализации алгоритма Шора это имееет, кроме прочего, и такое отношение, что ошибки в представлении результата преобразования Фурье, вообще-то, тоже могут "квантоваться", а это, предположим, не позволит факторизовать большие полупростые числа в принципе (почему аксиома непрерывности должна прямо транслироваться в физику измерительного оборудования?).