После постов «Почему нельзя делить на ноль, даже если очень хочется?» и «Папа, а почему на ноль делить нельзя?», я очень заинтересовался этой темой. Вот куда меня все это привело.
Если рассматривать деление как последовательность вычитаний делителя из делимого
7/3=2 и остаток 1
10/2=5 и остаток 0
и теперь также с нулем: 10/0=???
Сколько раз вычесть 0 из 10, чтобы узнать, сколько нулей в себе содержит 10? Сколько угодно. И после каждого вычитания будет оставаться остаток — 10.
10/0=(некое целое число которое, может быть любым, назовем его @) и остаток 10.
Чему равна @? Да чему угодно: вы произвели столько операций, сколько захотели 3 или 100500 или 0.
Теперь проверим, не противоречит ли это постулатам математики: @*0+10(остаток)=10.
Вот мы и узнали делимое. При таком подходе все правила математики работают — делаю вывод, что решение правильное.
На этом, собственно, все. Лично меня такой ответ полностью устраивает, но если все так просто — то почему до сих пор деление на ноль невозможно?
Пожалуйста, объясните в чем я не прав?