Если очень огрубить, то вектор скорости любого тела всегда равен c. У покоящегося тела этот вектор параллелен оси времени, то есть, тело «летит» во времени, а в пространстве нет. Если тело начать разгонять в привычном смысле, то его вектор скорости, не меняя длины, поворачивается. Тело медленнее «движется» во времени и быстрее в пространстве.
Таким образом, скорость у тела постоянная и равна c, мы можем её только поворачивать в пространстве‑времени. Поэтому чтобы двигаться быстрее c, нужно найти какой‑то угол поворота вектора скорости, при котором, внезапно, его длина изменится. А это уже к комплексным числам.
Радует что всё больше внимания в том или ином виде уделяется оптическим аналоговым вычислениям. Традиционный полупроводниковый цифровой подход близок к исчерпанию своего потенциала, видеокарты уже с ручками для переноски пора делать. Единственное, может быть будет какой‑нибудь прорыв из области спинтроники или квантовой электроники, но, имхо, оно лишь отсрочит переход на оптику, а не отметит его.
Иногда (именно иногда, а не всегда) важна не только дороговизна, но и стабильность времени обработки для софт‑реалтаймов во всяких играх, обработках видео/аудио и подсветочках. Потому что, по факту, в зависимости от окружения и фаз луны, это повышает вероятность того, что GC проснётся и начнёт мешать этому самому реалтайму. Даже когда «вроде как тут только 0 поколение и в 1 ничего не уходит». Не тормозами, а тем, что, например, все кадры обрабатываются 10–15 мс, но иногда, редко‑редко, 18 мс — и звук уже щёлкает и прерывается. Потому что успевать надо за 15 мс.
Но это узкие случаи, в большинстве сценариев верно ровно то, что Вы описали: усложнение, удорожание поддержки и повышение вероятности багов.
Почему? На 1 линзе 1×1 см помещается 400 млн ячеек со стороной 500 нм. Если сделать стопку из 1000 линз получаем 400 млрд ячеек. Размера ячейки хватает чтобы избирательно управлять фазой и амплитудой когерентного УФ излучения, а количества ячеек хватает, чтобы реализовать достаточно серьезную сетку на десятки‑сотни миллиардов параметров.
А что касается изготовления таких линз — имхо, обычная литография, та самая, которая для процессоров. У нас сейчас техпроцесс 4 нм, этого по уши хватит.
По идее можно и в камеру, надо только сделать под определённые длины волн. А если матрица камеры смогла бы ловить не только амплитуду, но и фазу волн, ей вообще бы не нужна была оптика. Просто плоская матрица и всё. Причём, с оптическим зумом.
А ещё из стопки таких правильно сделанных линз можно делать аппаратные оптические нейросети огромной производительности с очень низким энергопотреблением.
Спасибо, очень вкусный материал. Сами протоколы пультов тема полезная, чтобы когда надо чем‑то рулить с контроллера не бездумно повторять запись, а системно понимать, что там закодировано.
Доводилось реверсинжинирить пульт от сервопривода монитора, чтобы можно было с компа с клавиатуры управлять мониторами через ардуино (комп → ардуино → ик диоды).
Поначалу пробовал записывать мерцание диода пульта на видео с телефона с 960 к/c и по количеству кадров определять сколько длится вкл/выкл, после чего руками кодить интервалы. ВНЕЗАПНО, это работало, но очень плохо — где то 1 из 5 раз кронштейн понимал чего от него хотят. Пришлось мерить ширину импульсов по-человечески - и вот тогда всё получилось.
Остаётся загадкой, почему на сигналы, сделанные по видео, привод то реагировал, то нет. По идее, если время неправильное, оно должно либо не работать, либо работать.
Есть Гильбертово пространство с бесконечным числом измерений.
Есть всякие трансфинитные кардиналы — объекты, которые идут после исчерпания бесконечного количества всех возможных чисел. Сами они не числа, но это не важно.
Можно вполне выдумывать пространства, количество измерений которых привязано к этим объектам. Это не совсем количество, так как на том уровне мы уже говорим о порядке, а не количестве, но это можно обойти.
И далее можно говорить о числах, лежащих в таких пространствах.
Фокус тут в том, что выдумать, и даже математически непротиворечиво описать можно (почти?) всё что угодно. Вопрос в том, насколько это нужно для решения реальных и/или математических задач, и насколько оно удобоваримо. Гильбертово пространство, например, юзают в квантовой механике, оно там со своими задачами справляется, но оно же является одной из причин, по которым порог вхождения в квантовую механику неприемлемо высок.
Вероятность 50/50 предсказана для неких абстрактных «идеально‑случайных» значений. А подкидывание монетки и то, что описано в статье — это псевдослучайные числа, лишь некоторая приближённая модель случайных чисел. Вы как раз об этом и пишете.
На то же «подкидывание монетки» влияет психоэмоциональная сфера, время и длительность серии подкидываний, когнитивные искажения человека, форма ногтей, состояние суставов, процент ошибок при фиксации значений, концентрация молочной кислоты в мышце и прочие взаимосвязанные факторы. Про фишки из C и манипуляциями с SIMD я вообще молчу.
Поэтому и отличие наблюдаемого результата от ожидаемых 50/50 складывается далеко не только от »недостаточно большого количества итераций». Это как отличие идеальной абстрактной окружности из геометрии и реального колеса автомобиля. Модель работает лишь в каком‑то приближении.
Самая главная штука, которую все любят забывать: глазные яблоки крутятся.
И если мы смотрим на двигающийся объект, то можно на него смотреть так, чтобы его проекция на сетчатку двигалась, а можно так, что его проекция на сетчатке будет неподвижна — если мы будем сопровождать двигающийся объект взглядом.
И вот здесь — когда мы сопровождаем взглядом двигающиеся объекты, например, пролистываемый текст, перетаскиваемое окно или бегущего чувака в игре — и проявляется существенная разница между 60, 120 и 500 Гц.
Потому что если мозг рассчитал примерно линейную скорость объекта и начинает вращать глазное яблоко, пытаясь сопроводить объект, он ожидает, что с сетчатки пойдёт неподвижная картинка. А если герц мало, то будет дерганая непонятная фигня, а не статичный объект. И чем выше скорость и больше экран, тем больше нужно герц.
Поэтому плавная прокрутка зависит от того, сколько промежуточных состояний объекта показывается в единицу времени → насколько легко «зацепиться за него взглядом», то есть, начать сопровождать его, поворачивая глазные яблоки. А это уже обеспечивается слаженной работой GPU, экрана, интерфейса передачи и прочих штук.
PS. Да, особенностей зрения очень много, сетчатка обладает многослойной обработкой и распознаёт оптический поток ещё до попадания в зрительную кору, а ещё можно делать фичи с мерцанием картинки, чтобы спровоцировать мозг достраивать кадры (привет кинескопы и плазмы) и т. д., но информации, от которой мозг может отталкиваться для всего этого, всё равно должно быть достаточно.
PPS. Сам работаю (в т.ч. CAD и кодинг) и играю за 120 Гц экранами. Вкусно.
Подкину идею: если я хочу что‑то напечатать в чат, то мне не надо переводить в него фокус мышкой/клавишей, я просто сразу печатаю прямо в игре и жму Enter. То, что пробел в тексте одновременно будет с выстрелом из танка — проблема тех кто перед танком :)
Оно?
Если очень огрубить, то вектор скорости любого тела всегда равен c. У покоящегося тела этот вектор параллелен оси времени, то есть, тело «летит» во времени, а в пространстве нет. Если тело начать разгонять в привычном смысле, то его вектор скорости, не меняя длины, поворачивается. Тело медленнее «движется» во времени и быстрее в пространстве.
Таким образом, скорость у тела постоянная и равна c, мы можем её только поворачивать в пространстве‑времени. Поэтому чтобы двигаться быстрее c, нужно найти какой‑то угол поворота вектора скорости, при котором, внезапно, его длина изменится. А это уже к комплексным числам.
Так он интерпретируемый язык с динамической типизацией. Он очень гибкий и медленный. Как ему и положено. Для скорости есть другие языки.
Так это не подводный камень, имхо, а хитрый трюк для ускорения. Такое есть во всех языках.
Радует что всё больше внимания в том или ином виде уделяется оптическим аналоговым вычислениям. Традиционный полупроводниковый цифровой подход близок к исчерпанию своего потенциала, видеокарты уже с ручками для переноски пора делать. Единственное, может быть будет какой‑нибудь прорыв из области спинтроники или квантовой электроники, но, имхо, оно лишь отсрочит переход на оптику, а не отметит его.
По идее можно руками прикрутить через extensions
Иногда (именно иногда, а не всегда) важна не только дороговизна, но и стабильность времени обработки для софт‑реалтаймов во всяких играх, обработках видео/аудио и подсветочках. Потому что, по факту, в зависимости от окружения и фаз луны, это повышает вероятность того, что GC проснётся и начнёт мешать этому самому реалтайму. Даже когда «вроде как тут только 0 поколение и в 1 ничего не уходит». Не тормозами, а тем, что, например, все кадры обрабатываются 10–15 мс, но иногда, редко‑редко, 18 мс — и звук уже щёлкает и прерывается. Потому что успевать надо за 15 мс.
Но это узкие случаи, в большинстве сценариев верно ровно то, что Вы описали: усложнение, удорожание поддержки и повышение вероятности багов.
Пока читал и пытался понять о чём речь возникло ощущение дежа вю, но не сразу понял, почему.
Почему? На 1 линзе 1×1 см помещается 400 млн ячеек со стороной 500 нм. Если сделать стопку из 1000 линз получаем 400 млрд ячеек. Размера ячейки хватает чтобы избирательно управлять фазой и амплитудой когерентного УФ излучения, а количества ячеек хватает, чтобы реализовать достаточно серьезную сетку на десятки‑сотни миллиардов параметров.
А что касается изготовления таких линз — имхо, обычная литография, та самая, которая для процессоров. У нас сейчас техпроцесс 4 нм, этого по уши хватит.
По идее можно и в камеру, надо только сделать под определённые длины волн. А если матрица камеры смогла бы ловить не только амплитуду, но и фазу волн, ей вообще бы не нужна была оптика. Просто плоская матрица и всё. Причём, с оптическим зумом.
А ещё из стопки таких правильно сделанных линз можно делать аппаратные оптические нейросети огромной производительности с очень низким энергопотреблением.
Спасибо, очень вкусный материал. Сами протоколы пультов тема полезная, чтобы когда надо чем‑то рулить с контроллера не бездумно повторять запись, а системно понимать, что там закодировано.
Доводилось реверсинжинирить пульт от сервопривода монитора, чтобы можно было с компа с клавиатуры управлять мониторами через ардуино (комп → ардуино → ик диоды).
Поначалу пробовал записывать мерцание диода пульта на видео с телефона с 960 к/c и по количеству кадров определять сколько длится вкл/выкл, после чего руками кодить интервалы. ВНЕЗАПНО, это работало, но очень плохо — где то 1 из 5 раз кронштейн понимал чего от него хотят. Пришлось мерить ширину импульсов по-человечески - и вот тогда всё получилось.
Остаётся загадкой, почему на сигналы, сделанные по видео, привод то реагировал, то нет. По идее, если время неправильное, оно должно либо не работать, либо работать.
Не хватает H265, без него ни HDR, ни 8K записать.
UPD: И хотелось бы, чтобы кодеки сразу были в комплекте, и их не нужно было качать отдельно.
Есть Гильбертово пространство с бесконечным числом измерений.
Есть всякие трансфинитные кардиналы — объекты, которые идут после исчерпания бесконечного количества всех возможных чисел. Сами они не числа, но это не важно.
Можно вполне выдумывать пространства, количество измерений которых привязано к этим объектам. Это не совсем количество, так как на том уровне мы уже говорим о порядке, а не количестве, но это можно обойти.
И далее можно говорить о числах, лежащих в таких пространствах.
Фокус тут в том, что выдумать, и даже математически непротиворечиво описать можно (почти?) всё что угодно. Вопрос в том, насколько это нужно для решения реальных и/или математических задач, и насколько оно удобоваримо. Гильбертово пространство, например, юзают в квантовой механике, оно там со своими задачами справляется, но оно же является одной из причин, по которым порог вхождения в квантовую механику неприемлемо высок.
Вероятность 50/50 предсказана для неких абстрактных «идеально‑случайных» значений. А подкидывание монетки и то, что описано в статье — это псевдослучайные числа, лишь некоторая приближённая модель случайных чисел. Вы как раз об этом и пишете.
На то же «подкидывание монетки» влияет психоэмоциональная сфера, время и длительность серии подкидываний, когнитивные искажения человека, форма ногтей, состояние суставов, процент ошибок при фиксации значений, концентрация молочной кислоты в мышце и прочие взаимосвязанные факторы. Про фишки из C и манипуляциями с SIMD я вообще молчу.
Поэтому и отличие наблюдаемого результата от ожидаемых 50/50 складывается далеко не только от »недостаточно большого количества итераций». Это как отличие идеальной абстрактной окружности из геометрии и реального колеса автомобиля. Модель работает лишь в каком‑то приближении.
У фотонов есть импульс
Сейчас уже делают такие дисплеи, правда многоракурсность только по горизонтали + нужна серьёзная видеокарта, которую сложно сделать тихой.
Самая главная штука, которую все любят забывать: глазные яблоки крутятся.
И если мы смотрим на двигающийся объект, то можно на него смотреть так, чтобы его проекция на сетчатку двигалась, а можно так, что его проекция на сетчатке будет неподвижна — если мы будем сопровождать двигающийся объект взглядом.
И вот здесь — когда мы сопровождаем взглядом двигающиеся объекты, например, пролистываемый текст, перетаскиваемое окно или бегущего чувака в игре — и проявляется существенная разница между 60, 120 и 500 Гц.
Потому что если мозг рассчитал примерно линейную скорость объекта и начинает вращать глазное яблоко, пытаясь сопроводить объект, он ожидает, что с сетчатки пойдёт неподвижная картинка. А если герц мало, то будет дерганая непонятная фигня, а не статичный объект. И чем выше скорость и больше экран, тем больше нужно герц.
Поэтому плавная прокрутка зависит от того, сколько промежуточных состояний объекта показывается в единицу времени → насколько легко «зацепиться за него взглядом», то есть, начать сопровождать его, поворачивая глазные яблоки. А это уже обеспечивается слаженной работой GPU, экрана, интерфейса передачи и прочих штук.
PS. Да, особенностей зрения очень много, сетчатка обладает многослойной обработкой и распознаёт оптический поток ещё до попадания в зрительную кору, а ещё можно делать фичи с мерцанием картинки, чтобы спровоцировать мозг достраивать кадры (привет кинескопы и плазмы) и т. д., но информации, от которой мозг может отталкиваться для всего этого, всё равно должно быть достаточно.
PPS. Сам работаю (в т.ч. CAD и кодинг) и играю за 120 Гц экранами. Вкусно.
Спасибо, рад что Вам понравилось!)
Спасибо)
Подкину идею: если я хочу что‑то напечатать в чат, то мне не надо переводить в него фокус мышкой/клавишей, я просто сразу печатаю прямо в игре и жму Enter. То, что пробел в тексте одновременно будет с выстрелом из танка — проблема тех кто перед танком :)