Я к своему удивлению не так давно узнал, что x86_64 процессор может из коробки делить 128-битное (целое) число на 64-битное, и умножать 64-битные с сохранением 128-битного произведения. В С/С++ такого без вспомогательных библиотек, как я понимаю, нет. И ещё. Процессор может выполнять циклический сдвиг, а в С/С++ (до С++20) такого нет.
Неопределённое поведение битового сдвига на величину длиннее размера числа, вероятно, будет по той причине, что в общем случае при сдвиге влево для процессора появится знаковый бит, который мы можем и не полагать, работая в безнаковых целых.
Ознакомился с "соседями" по проблеме (на Academia. Некто М. Ильичев, например)... Есть вероятность, что действительно проклятие и похоже на раздвоение реальности. То есть люди, подпадающие под эту проблему, живут как бы в двух реальностях одновременно, и не могут в итоге определиться, доказали ли они или нет.
Это лучше компонентами связности называть. Есть интересная публикация В. Арнольда о сложности конечных последовательностей нулей и единиц. Там очень понятно объясняются подобные вещи, однако, разрядность чисел ограничена.
Я ознакомился. Там надо потратить время, потому что нетривиальное доказательство. Я бы сказал нестандартное, но логика в нем есть. Тут больше проблема перевести это на стандартный язык математики, если это вообще возможно. Но на это требуется время.
Да, более 64-х бит частное не дозволяется.
В пору вводить стандарт арифметики для процессоров)
Нашёл от Microsoft интринсики. Фактически, тот же ассемблер.
Которые simd или что-то от gcc?
Он должен сохранять результат в два регистра, что в сумме и даст 128 бит. Но я не игрался, поэтому 100% гарантии не дам)
Я к своему удивлению не так давно узнал, что x86_64 процессор может из коробки делить 128-битное (целое) число на 64-битное, и умножать 64-битные с сохранением 128-битного произведения. В С/С++ такого без вспомогательных библиотек, как я понимаю, нет. И ещё. Процессор может выполнять циклический сдвиг, а в С/С++ (до С++20) такого нет.
Неопределённое поведение битового сдвига на величину длиннее размера числа, вероятно, будет по той причине, что в общем случае при сдвиге влево для процессора появится знаковый бит, который мы можем и не полагать, работая в безнаковых целых.
Неопределённые команды видимо недоступны просто так.
Получается, на ассемблере программировать всегда определённо (чётко)?
Let make total commander free!
Понятно. Экзотика)
А что такое система программирования?
Плюсовый код требует постоянных сборок - это очень затратно во всех смыслах, когда кодовая база большая.
Numpy ускоряют.
Тупология какая то)
Ознакомился с "соседями" по проблеме (на Academia. Некто М. Ильичев, например)... Есть вероятность, что действительно проклятие и похоже на раздвоение реальности. То есть люди, подпадающие под эту проблему, живут как бы в двух реальностях одновременно, и не могут в итоге определиться, доказали ли они или нет.
Интересно, откуда тогда увлеченность такой сложной гипотезой)
Это лучше компонентами связности называть. Есть интересная публикация В. Арнольда о сложности конечных последовательностей нулей и единиц. Там очень понятно объясняются подобные вещи, однако, разрядность чисел ограничена.
Да. Компоненту связности я понимаю. Интересно, зачем ее называть сетью?
Непонятно что такое сеть.
Это человек доказывал, не ИИ. Часть с ИИ меня вообще не интересовала.
Я ознакомился. Там надо потратить время, потому что нетривиальное доказательство. Я бы сказал нестандартное, но логика в нем есть. Тут больше проблема перевести это на стандартный язык математики, если это вообще возможно. Но на это требуется время.