Комментарии 6
А разве люди не делают точно также? Сложна, сложна, непонятна! (С)
Этот свободный пересказ упустил один из важнейших контраргументов от А. Лоусена
Вот этот:
- 2.1 Consequences of Rigid Evaluation
Кто программит с помощью Cloude Sonnet отлично знает, как он может уходить в длиннющие сессии итераций с запусками и исправлениями.
А там ребята решили, что если сделал ошибку с первого раза, то сразу незачет.
В жизни так никому не интересно. Особенно у разработчиков.
Вместо того чтобы требовать от модели выдать тысячи ходов для Ханойской башни, они попросили ее написать программу (функцию на Lua), которая генерирует решение. И — бинго! — модели, которые якобы «коллапсировали», с легкостью написали идеальный рекурсивный алгоритм.
Ребят, никого не хочу огорчать, но это ни о чём. В интернете куча исходников для Ханойской башни, хоть на lua, хоть на любом другом языке. И разумеется модели они известны.
Про рецепт вместо решения - чушь собачья. Я прихожу за колбасой, а мне подсовывают технологию ее приготовления со списком ингредиентов, половины которых нет в продаже в России. Любой ИИ, "думающий" он и нет, обязан давать ответ на заданный вопрос. Мне, как клиенту, совершенно неинтересна программа на Lua, я даже такого языка не знаю, честно признаюсь. И даже неинтересен словесно изложенный алгоритм решения: я спрашивал про РЕШЕНИЕ с конкретными параметрами, а не про алгоритм. А вот высший пилотаж ИИ мог бы показать, если бы на нерешаемую задачу он не зависал, а так и отвечал, что она нерешаемая, в идеале - с доказательством. И упершись в ограничение, так и писал бы - "уперся, увеличьте количество вычислительных ядер", а не увиливал бы от ответа, типа "он слишком длинный" .
Создание не может быть сложнее создателя.
Иллюзия мышления: Почему «думающие» модели на самом деле не думают (и что об этом говорит новое исследование Apple)