Search
Write a publication
Pull to refresh
0
0
Send message

Вы так и не привели ни одного конкретного примера.

Вы говорите о "наблюдаемой границе" — покажите её. Дайте конкретный тест, запрос, задачу, промпт, что угодно. Пока что это только философия отвязанная от реальности.

Ваши критерии фальсификации туманны. "Способность удерживать внутреннее противоречие" — как это измерить? "Отказываться по интерпретации" — а разве модели сейчас не отказываются от неэтичных запросов, анализируя их смысл?

Суть проблемы: вы описываете ограничения, которые звучат важно, но не показываете, где они реально мешают. Это как критиковать самолет за то, что он "не чувствует полет" — технически может быть верно, но практически бессмысленно.

Приведите один конкретный пример неудачи LLM, которую теоретически решил бы ваш ВИХРЬ

Спасибо за уточнения, но они только подтверждают основные проблемы.

1. Вы создаете проблему, которой нет Вы говорите, что LLM не умеют "чувствовать сдвиг значимости" и "переинтерпретировать цель". Но откуда взялись эти критерии? Почему система должна именно "чувствовать", а не просто эффективно обрабатывать информацию о важности? Вы постулируете необходимость "субъектности", но не объясняете, зачем она нужна для решения реальных задач.

2. Терминологическая магия Вы переименовываете известные концепции в экзотические символы и утверждаете, что это что-то новое. "Способность различать способы различения" — это мета-познание, которое уже есть в современных моделях. "Самосогласованность ответов" — это consistency, над которой работают уже сейчас. Новые названия не делают старые идеи революционными.

3. Нефальсифицируемость Ваша теория устроена так, что её нельзя опровергнуть. Если модель решает задачи — "это не настоящее понимание". Если она показывает мета-рефлексию — "это не настоящая субъектность". Вы всегда можете сказать, что "настоящий ВИХРЬ" ещё не реализован. Это признак плохой теории.

4. Отсутствие предсказательной силы Хороший фрейм должен предсказывать, какие архитектуры будут работать лучше. Ваш ВИХРЬ не дает таких предсказаний — только постфактум объясняет, почему текущие модели "не настоящие".

Вы не решаете проблему — вы её изобретаете. Современные LLM уже демонстрируют многие свойства, которые вы считаете отсутствующими. Вместо создания новой мифологии лучше изучать то, что уже работает.

Главная проблема — автор упрощает то, что критикует.

1. Карикатура на LLM как "статистических попугаев" Автор представляет современные модели как примитивные системы предсказания токенов. Но это игнорирует сложную иерархическую структуру обработки информации, механизмы внимания, способность к обобщению и перенос знаний в новые контексты. Называть GPT-4 "попугаем" — это как называть человеческий мозг "мешком нейронов".

2. Ложная простота "статистики" Фраза "просто вычисление наиболее вероятных токенов" — это как сказать, что Бах "просто нажимал на клавиши". Да, технически верно, но полностью игнорирует сложность и красоту того, что происходит на этом уровне. Современные модели создают внутренние представления, которые мы еще не до конца понимаем.

3. Игнорирование того, что мы НЕ понимаем сознание Автор так уверенно рассуждает о "переживании" и "понимании", будто мы точно знаем, как работает человеческое сознание. Но мы не знаем. Может быть, наше "переживание" — тоже "просто" сложная обработка информации с иллюзией единства?

4. Удобное определение проблемы Автор сначала определяет "настоящее мышление" так, чтобы исключить из него современные ИИ, а потом удивляется, что они не попадают под это определение. Это как сказать "настоящие птицы должны петь арии", а потом заявить, что современные птицы не умеют летать.

В итоге автор борется с упрощенным образом того, что сам же и создал.

Information

Rating
11,649-th
Registered
Activity