Не думаю, что это можно отнести к проблеме сингулярности.
Здесь не стоит вопрос в проверке результата работы программы – достаточно проверить саму программу.
Вас же никто не требует проверять математическую теорему на всем натуральном ряде, достаточно согласиться с тем, что индуктивное доказательство истинно. Тоже самое и тут: достаточно согласиться с тем, что программа работает правильно.
Нужно еще доказать, что программа выполнилась без искажений данных (ECC памяти, ошибки микропрограмм в железе, и т.п.).
По хорошему нужно дублирование на другом железе.
Ну если мне не изменяет память. С точки зрения физики, эксперимент нужно проводить минимум 3 раза. И в итоге появляется погрешность вычислений и другие милые физику вещи)))
А в чем заключается принцип дублирования систем? Если при сбое первого сразу включается второй, то все таки надежнее будет провести эксперимент на разных компьютерах, так как аппаратный или системный баг не всегда является критичным и его можно не заметить.
Все системы сразу работают над одной и той же задачей. Потом их результаты сравниваются. Выбирается тот результат, который получился в большинстве случаев. Хотя, в данном случае, можно отправить всех еще раз все заново считать :)
Также стоит учесть, что критичные системы следуют не только мажоритарному принципу, но и часто функционируют на разном программном и аппаратном обеспечении. Например, могут использоваться разные микропроцессоры, ПО пишется разными компаниями и т. п.
Баг к приеру в АЛУ от этого не спасет, кроме прочего системы должны быть на принципиально разном железе. Например, в конкретной реализации чипа в АЛУ младший разряд принимает случайное значение, с виду сразу не заметишь а результат попортить может. Еще может быть взаимное влияние ячеек памяти на аппаратно уровне — такие баги даже тестами обнаружить крайне сложно. Полный тест даже 16 байт ОЗУ будет проходить до скончания вселенной.
Ну компьтерра же, е мое.
Есл верить этому же изданию, то они получили всего то навсего: «При С=2 не существует последовательности длиной 1 161, удовлетворяющей условиям задачи.»
Это не доказывает и не опровергает исходную гипотезу.
Но даже если бы они ее полностью доказали или опровергли, под сомнение был бы поставлен человеческий разум, написавший алгоритм, а не честность кремниевого процессора блин.
Это частичное решение задачи Эрдеша, которое тоже важно. Вопрос ведь не в том, последовательность какой длины доказали, а в проблеме верификации. И чем вам Компьютерра то не угодила?
Странными выводами. Чем это частичное решение отличается от вычисления числа Пи или поиска чисел-близнецов? В обоих случаях задача решена частично, а решение непроверяемо человеком. Такое случалось и ранее. Где здесь рубикон-то?
Может, рубикон заключается в попытке распечатать 13 Гб логов?
Ну а вообще странные какие-то это СМИ. Они увидели «знамение» в той деятельности компьютера, для которой он изначально был создан – производить те вещи, которые невозможно сделать человеку своим мозгом (сложные вычисления).
Вопрос к сожалению не только в этом, а еще и в следующем:
1) если вдруг проверка НЕ подтвердила результат, найти на каком шаге вы (возможно) допустили ошибку;
2) в случае если проверка подтвердила результат, однозначно ответить на вопрос, а не совершили ли вы ту же ошибку, что и комп.
Ну формально, что корень 37-й степени из числа под спойлером равен «547126878765867587658765876932» я тоже могу проверить, но затрудняюсь это сделать на бумаге…
Кроме того (в случае если я вдруг снова и снова ошибусь), я затрудняюсь сказать, с какой попытки желание эту проверку продолжить у меня отпадет окончательно.
Не совсем в тему, но всё же: до сих пор нет нормального, быстро работающего алгоритма проверки тождеств. Все существующие или слишком медленные, и основывается на «тупом раскрытии скобок», или могут давать неправильные результат, если основывается на подставлен или случайного числа, а это не правильно, так как многим тождества работают в большом количестве случаев, но не во всех. А проверить правильность работы большого и долгоработающего алгоритма может только ещё более долгоработающий алгоритм.
Вообще-то проблема с доказательством теорем, когда используется
компьютер, появилась очень давно. Смотрите теорему про окрашивание
планарного графа с помощью четырёх цветов.
Не вижу ничего нового. Формальную корректность линуксовского HTML/HTTP/TCP/IP стека, например, уже очень давно никто не может проверить. Работает, тем не менее.
0_0 Эта што такое? Парсингом HTML и отправкой\приёмом\обработкой HTTP-запросов занимаются сущности, которые не входят в состав реализации TCP/IP протокола в Линуксе, насколько мне известно. Протокол — в ядре, программы, работающие с HTTP/XML/HTML — в юзерспейсе. Или я не прав, тогда поправьте меня, кто-нибудь ;-)
Почему бы не прогнать эту программу на маленьких тестах (перебирать последовательности длиной не 1161, а 30-), которые реально проверить человеку? После этого поверить в то, что она работает корректно, и больше не задаваться такими вопросами.
Можем ли мы доверять решению компьютера, если не можем его проверить?