вы получаете экспоненциальное распространение этих вероятностей в пространстве и времени - и как вы собираетесь запихивать эти вероятности обратно в концепцию вычислимости - мне непонятно
многомировая интерпретация Эверетта распихивает эти вероятности по разным Вселенным. Но даже тут число этих Вселенных конечно (число вроде 10^10^122). Т.к. они порождаются конечной доменной областью нашей Вселенной за конечное время
Т.е. даже принимая вероятности - количество информации становится астрономически большим, но не бесконечным
вы затрагиваете один из фундаментальных аспектов квантовой механики, по сути сама квантовая механика постулирует как аксиому вероятностную природу реальности, это в КМ фундаментальный закон. Случайность просто есть и точка, квантовая механика не говорит откуда она берется, она говорит - это закон природы не раскрывая чем обоснован этот закон. По сути неопределённость при коллапсе вообще нельзя считать частью вычислений - она просто происходит как явление природы, как факт, а не вычисляется. Вычислить можно все, что уже произошло после коллапса. Думаю объяснение откуда берется неопределенность это уровень десятка Нобелевских премий разом. И вот как раз если брать теорию вычислимости, то можно осторожно предположить, что неопределенность берется как раз из локальной ограниченной невычислимости при взаимодействии нескольких частиц. В свою очередь эта невычислимость может быть связана с топологией ячеистости пространства
Когда то и Вселенная в представлении людей вращалась вокруг Земли. Погрущу конечно немного, но думаю переживу.
На данный момент на дискретности/конечной информационной емкости пространства основано много физических теорий, особенно про физику черных дыр. Так, что пострадаю не я один.
Ну или найдем дискретность как то по другому, например за счет дискретности самих частиц, но это сложнее вписать в теорию мне кажется
При невычислимом явлении ошибка может быть не только в младших разрядах. Мы по сути получаем не какое-то приблизительное значение, а кэш вычислений, в котором может храниться что угодно.
Отбрасывание младших разрядов — это, по сути, как раз и есть то, как сейчас «вычисляется» Вселенная в силу её дискретности. Только это не отбрасывание разрядов, а ограничение точности, как, например, числовых типов в программировании.
Для ограничения распространения информации и её количества строить стену как-то не красиво. Есть более элегантное, на мой взгляд, решение — сделать топологию пространства замкнутой. Но пока даже на больших масштабах наша Вселенная, согласно исследованиям, выглядит плоской. Ну и, как я отмечал в статье, ограниченная скорость распространения информации делает Вселенную стабильной ещё по целой куче разных параметров: течение времени как мера энтропии, замедляет тепловую смерть, накладывает ограничение на резонансы с бесконечной частотой.
спасибо, вы верно отметили одно из самых слабых мест моей гипотезы. Неравенство Белла или наличие квантовой неопределенности я не отрицаю, поэтому наличие скрытых параметров и не постулировал.
различается унитарное преобразование
Унитарная эволюция остается вычислимой. Уравнение Шрёдингера U(t) = exp(-iHt/h) линейно и детерминировано. Мы имеем дело с системой, чья сложность (количество эффективных кубитов или степеней свободы) конечна в любой ограниченной области пространства-времени. Вычисление U(t) для конечной системы всегда принципиально возможно за конечное число шагов.
элемент случайности вносит лишь конечное количество информации в систему
квантовая неопределенность вносит строго конечное количество информации, и это полностью согласуется с тезисом статьи: информационная "цена" этой случайности конечна. При измерении наблюдаемой система "коллапсирует" в одно из состояний. Число различимых собственных состояний физически ограничено. Например, измерение спина электрона вдоль оси Z дает всего 2 возможных исхода (+ħ/2 или -ħ/2). Информация о результате - 1 бит.
возможно: Случайность при измерении – не теоретическая невычислимость (как проблема остановки), а фундаментальное вероятностное поведение. Алгоритм (унитарная эволюция + правило Борна для вероятностей исходов) всегда позволяет вычислить вероятности всех возможных исходов. Закон (вероятностный) известен и вычислим. Случайность - это не ошибка вычисления, а фундаментальное свойство реальности.
Если представить, что в квантовой случайности закон вообще был бы не вычислим, не получилось ли тогда, что это была бы истинная случайность не подчиняющаяся никаким подчиняющаяся законам? Например сталкиваются две частицы и как результат истинного случайного явления получаем квантового розового единорога.
А может быть декогеренция это и есть то "локальное ограниченное невычислимое явление" которое все же подчиняется законам. Невычислимость существует, но она локальна и ограничена вероятностями. Сами вычисления и их коллапс происходят в момент взаимодействия частицы с чем то. Но в силу ограниченной невычислимости результат коллапсирует не в абсолютно случайное значение, а в одно из вероятных. Но это только идея и у меня её не получается стройно вписать в остальную квантовую механику
Даже сама квантовая механика, учитывая множество разных её интерпретаций - от QBisma до мультивселенной Эверетта, не дает однозначного ответа откуда берется неопределенносмть. И ни одна из известных интерпретаций мне не нравится, например QBism из за его нарциссической зацикленности на наблюдателе, а интерпретация Эверетта из за того, что мы плодим вселенные на каждое взаимодействие нарушая бритву Окама
ну и вообще ходит легенда о том, что порноиндустрия сыграла заметную роль в развитии коммерческого интернета и популяризации определенных технологий на раннем этапе (1990-е - начало 2000-х) Например эта индустрия была пионером в потоковом видео: До YouTube и Netflix
Так что думаю со скоростью разработки и внедрения человекоподобных роботов все будет хорошо x)
меня больше у этого китайского робота в рекламе напрягает, то что он какой то агрессивный, боксирует, ногами машет. Куплю я его, а он потом возьмет и начнет доминировать показывая кто в квартире главный как этот робозаяц из мультика показал волку )))
то что люди этого не осознают, не означает что они не пользуются этим каждый день, как например бабушки, оплачивающие покупку в магазине прикладыванием карты к терминалу с которой в этот момент считываются данные, отправляется запрос на сервер, проводится транзакция в банковской системе и наверно ещё куча всякой "магии" которой я тоже не знаю
То что прогресс не виден для 70% это факт, и это только подчеркивает как быстро и практически бесшовно он внедряется в нашу жизнь, так что мы практически этого не замечаем. Может отсюда у многих и появляется технопессимизм
не совсем, в традиционном понимании фронтендер не обязан знать как работает CMS и хотя бы примерно понимать php и как залить CMS на хостинг и настроить что бы там все работало. Во всяком случае на позицию фронтендера обычно такого не требуется нигде и на собеседовании именно фронтендеров о таком не спрашивают
поэтому я решил попробовать написать искреннюю технооптимистическую статью
мне кажется у вас все же не получилось
Роботы остаются узкоспециализированными, капризными и дорогими системами, полезными лишь в строго определенных сценариях. Нет оснований полагать, что за 20 лет ситуация переменится к лучшему
ну не знаю, китайцы говорят, что готовы продавать робота за 6000$ и если он такой как на видео, то я готов его купить за такую цену только ради того, что бы нарядить его в костюм кошкодевочи и он ходил у меня по квартире радуя глаз. Ну может и по хозяйству немного помогал чем может, с задачей "принести воды" в старости думаю он справится
web-разработчик - по большей части настройка и натягивание шаблона на всякие CMS - битрикс, wordpress, заливка этого всего на сервер frontend - в основном только разработка интерфейса, чаще всего на каких нибудь фреймворках - React, Vue ...
То, что при работе с LLM, делегировании ему задач по написанию эссе понятно, что мозг отключается и активность мозга через ЭЭГ будет меньше, как и нейронная связанность.
И то, что слепое доверие LLM будет приводить к тому, что LLM будут давать менее оригинальные результаты, так как по определению LLM генерирует что-то статистически усредненное, исходя из своего алгоритма работы.
Все эти факты мне кажутся очевидными.
Это как: одному человеку мы дали мопед и сказали проехать 10 километров, а второй человек проехал 10 километров на велосипеде.
Ученые пришли к сенсационному выводу: тот, кто ехал на велосипеде, сильнее накачал мышцы своих ног, чем тот, кто ехал на мопеде.
Но это же абсурд проводить такой эксперимент.
И вывод можно сделать такой: человеку, который использует LLM, нужно было давать не одно эссе, а, например, задачу написать 10 эссе, или столько много создать эссе, сколько успеет, пока другой человек будет генерировать свое эссе чисто мозгом.
Т.е. в исследовании нужно, чтобы мозг в обоих случаях использовался полностью на 100%, а человек с LLM не тратил 5 минут на генерацию эссе, а потом оставшееся время смотрел в потолок.
Из этого можно сделать вывод, как в мире, где присутствует LLM, нужно строить обучение и закрепление знаний на практике. А LLM — это уже данность, которая есть, нет смысла при обучении запрещать её использовать, нужно адаптировать учебный подход к новым реалиям. Теперь:
нужно написать не 1 эссе -> а сгенерировать с помощью LLM структурированную книгу на 500 страниц с четкой последовательностью изложения;
написать не приложение-тутушку -> а сгенерировать с помощью LLM ERP-систему корпоративного уровня;
написать не диплом на 100 страниц -> а создать монографию из 10 томов, досконально разбирающую какую-то проблему и пути её решения.
Т.е. хотите использовать LLM — используйте, но вот только не получится считерить и не думать головой, смотря в потолок, усилий вам придется потратить столько же, если не больше, чтобы даже с помощью LLM проделать в 10 раз большую работу. При обучении теперь, для сохранения той же его эффективности формирования нейронных связей, сложность заданий и их объем должны кратно расти, потому что то что раньше писалось несколько дней самостоятельно, теперь за 5 минут генерируется LLM и это не повод все остальное время не думать головой
В этой парадигме обучение на первое место выступает системный анализ, логическая стройность построения, новизна рассматриваемых идей и их аргументация и ключевое - критический подход, а не зазубривание информации, на чем было сосредоточена большая часть учебного процесса ранее. Зазубривание теперь бессмысленно
Можно сказать, что если заставить человека ехать на мопеде не 10км, а 1000км, то ноги он всё-равно не накачает. Да, согласен, но тогда тогда хотя бы у него будет железная задница (системное, логическое, критическое мышление и навык анализа информации)
Мой опыт перекликается с вашим тезисом об ИИ как соучастнике. Я тоже активно применяю LLM в философских размышлениях, но исключительно как инструмент критики собственных гипотез и поиска идей как их логически развернуть. Моя практика проста: сформулировав идею, я прошу модель найти в ней логические противоречия, слабые предпосылки или неочевидные контраргументы. Это часто высвечивает слепые пятна и узкие места в логических построениях и фактологические ошибки, которые я упускал. Ключевое, как вы верно предупреждаете, — никогда не принимать выводы ИИ за истину, а использовать их как стимул для углубления собственной рефлексии и перепроверки.
статья как раз во многом про это, рад что мы на одной волне
вычислимость реальности действительно необходима, потому что не вычислимость это и есть один из основных типов непознаваемости, которая может создать событие разрушающее вселенную
В следующей статье планирую развернуть эту идеи и показать как ограничение скорости распространения информации (скорость света) и вероятная дискретность пространства времени (постоянная Планка и петлевая теория гравитации) ограничивает объем информации в нашей видимой части вселенной, делая её вычислимой и какие из этого можно сделать дальнейшие выводы
Материальная сущность субъекта познания определяет конечность ПЗ. ПЗ стремится к пределу, который в принципе недостижим
Вы видимо пропустили примечание в самом начале статьи с пометкой "⚠️ Важно " в котором сказано, что
В статье речь идёт об объективной познаваемости, как способности Вселенной быть понятой, а не об ограничениях человеческого разума.
статья не затрагивает вообще субъект познания, ни человека, ни ИИ, ни социум, ни кого либо ещё
Она вообще о другом, она о том, что если во Вселенной существуют события/объекты которые не подчиняются ни одному закону, то вселенная будет рано или поздно разрушена в результате их воздействия
согласен, по поводу свободы воли очень тонкий момент и среди философов на этот счет единого мнения, есть множество подходов - Инкомпатибилизм , Компатибилизм и множество других. Каждый выбирает для себя то, что ему ближе Я стараюсь оперировать логикой и уже открытыми научными фактами, вписывая свою концепцию в этих рамках. Введение трансцендентного Кто, действительно решает проблему свободы воли Но мне самому сложно признать эту концепцию, т.к. я не помогу никак логически объяснить, что трансцендентный Кто это именно "я" или часть меня , а не что то вне меня, которое мной тогда управляет. Если эта трансцендентная сущность вне вселенной, и вне материального меня, то как доказать себе что она это все ещё я, а не кто то другой. У меня это не получается. А если эта сущность не я, то ни о какой свободе воли не может быть и речи, это внешнее воздействие Поэтому я стараюсь в своих теориях основываться только на логике и известных законов природы, не применяя трансцендентного. Для меня подобные философские упражнения это скорее как упражнение на логику и системный анализ, а введение трансцендентного при это становится чит кодом, и задача для меня становится неинтересной, т.к. трансцендентным можно объяснить многие логические несостыковки
я тоже размышлял об свободе, и в своих размышлениях пришел к тому, что свобода воли это и есть детерминизм, вне детерминизма она невозможна. Поведение человека должно основываться только на его опыте, который он пережил во время жизни, а не на случайных квантовых эффектах или чём то внешнем относительно человека. При этом человек получает опыт из вполне детерминированной среды. Мой подход чем то напоминает Компатибилизм, но кажется жестче. Может быть когда нибудь напишу статью здесь об этих рассуждениях.
Но с другой стороны, спрогнозировать выбор человека в каждой конкретной ситуации со 100% вероятностью практически невозможно, т. к. факторов, влияющих на воспоминания человека и биологию человека, слишком много. Хотя получается это выбор детерминирован, он практически не предсказуем, т.к. миллиарды факторов переплетаются с экспоненциальным ростом сложности прогнозирования.
Согласен, что возможность развития необходима, но важно и направление этого развития. Важно, что бы вселенная развивалась/эволюционировала по каким то структурированным законам, а не хаотично/анархично. Не думаю, что Ленин одобрил бы анархию
многомировая интерпретация Эверетта распихивает эти вероятности по разным Вселенным. Но даже тут число этих Вселенных конечно (число вроде 10^10^122). Т.к. они порождаются конечной доменной областью нашей Вселенной за конечное время
Т.е. даже принимая вероятности - количество информации становится астрономически большим, но не бесконечным
вы затрагиваете один из фундаментальных аспектов квантовой механики, по сути сама квантовая механика постулирует как аксиому вероятностную природу реальности, это в КМ фундаментальный закон. Случайность просто есть и точка, квантовая механика не говорит откуда она берется, она говорит - это закон природы не раскрывая чем обоснован этот закон. По сути неопределённость при коллапсе вообще нельзя считать частью вычислений - она просто происходит как явление природы, как факт, а не вычисляется. Вычислить можно все, что уже произошло после коллапса.
Думаю объяснение откуда берется неопределенность это уровень десятка Нобелевских премий разом. И вот как раз если брать теорию вычислимости, то можно осторожно предположить, что неопределенность берется как раз из локальной ограниченной невычислимости при взаимодействии нескольких частиц. В свою очередь эта невычислимость может быть связана с топологией ячеистости пространства
уверен вас заинтересует следующая моя статья, там как раз будет про теологию
ну значит теория не верна, что ж поделать )
Когда то и Вселенная в представлении людей вращалась вокруг Земли. Погрущу конечно немного, но думаю переживу.
На данный момент на дискретности/конечной информационной емкости пространства основано много физических теорий, особенно про физику черных дыр. Так, что пострадаю не я один.
Ну или найдем дискретность как то по другому, например за счет дискретности самих частиц, но это сложнее вписать в теорию мне кажется
При невычислимом явлении ошибка может быть не только в младших разрядах. Мы по сути получаем не какое-то приблизительное значение, а кэш вычислений, в котором может храниться что угодно.
Отбрасывание младших разрядов — это, по сути, как раз и есть то, как сейчас «вычисляется» Вселенная в силу её дискретности. Только это не отбрасывание разрядов, а ограничение точности, как, например, числовых типов в программировании.
Для ограничения распространения информации и её количества строить стену как-то не красиво. Есть более элегантное, на мой взгляд, решение — сделать топологию пространства замкнутой. Но пока даже на больших масштабах наша Вселенная, согласно исследованиям, выглядит плоской. Ну и, как я отмечал в статье, ограниченная скорость распространения информации делает Вселенную стабильной ещё по целой куче разных параметров: течение времени как мера энтропии, замедляет тепловую смерть, накладывает ограничение на резонансы с бесконечной частотой.
спасибо, вы верно отметили одно из самых слабых мест моей гипотезы. Неравенство Белла или наличие квантовой неопределенности я не отрицаю, поэтому наличие скрытых параметров и не постулировал.
Унитарная эволюция остается вычислимой. Уравнение Шрёдингера U(t) = exp(-iHt/h) линейно и детерминировано. Мы имеем дело с системой, чья сложность (количество эффективных кубитов или степеней свободы) конечна в любой ограниченной области пространства-времени. Вычисление U(t) для конечной системы всегда принципиально возможно за конечное число шагов.
квантовая неопределенность вносит строго конечное количество информации, и это полностью согласуется с тезисом статьи:
информационная "цена" этой случайности конечна. При измерении наблюдаемой система "коллапсирует" в одно из состояний. Число различимых собственных состояний физически ограничено. Например, измерение спина электрона вдоль оси Z дает всего 2 возможных исхода (+ħ/2 или -ħ/2). Информация о результате - 1 бит.
возможно:
Случайность при измерении – не теоретическая невычислимость (как проблема остановки), а фундаментальное вероятностное поведение. Алгоритм (унитарная эволюция + правило Борна для вероятностей исходов) всегда позволяет вычислить вероятности всех возможных исходов. Закон (вероятностный) известен и вычислим. Случайность - это не ошибка вычисления, а фундаментальное свойство реальности.
Если представить, что в квантовой случайности закон вообще был бы не вычислим, не получилось ли тогда, что это была бы истинная случайность не подчиняющаяся никаким подчиняющаяся законам? Например сталкиваются две частицы и как результат истинного случайного явления получаем квантового розового единорога.
А может быть декогеренция это и есть то "локальное ограниченное невычислимое явление" которое все же подчиняется законам. Невычислимость существует, но она локальна и ограничена вероятностями. Сами вычисления и их коллапс происходят в момент взаимодействия частицы с чем то. Но в силу ограниченной невычислимости результат коллапсирует не в абсолютно случайное значение, а в одно из вероятных. Но это только идея и у меня её не получается стройно вписать в остальную квантовую механику
Даже сама квантовая механика, учитывая множество разных её интерпретаций - от QBisma до мультивселенной Эверетта, не дает однозначного ответа откуда берется неопределенносмть. И ни одна из известных интерпретаций мне не нравится, например QBism из за его нарциссической зацикленности на наблюдателе, а интерпретация Эверетта из за того, что мы плодим вселенные на каждое взаимодействие нарушая бритву Окама
ну и вообще ходит легенда о том, что порноиндустрия сыграла заметную роль в развитии коммерческого интернета и популяризации определенных технологий на раннем этапе (1990-е - начало 2000-х) Например эта индустрия была пионером в потоковом видео: До YouTube и Netflix
Так что думаю со скоростью разработки и внедрения человекоподобных роботов все будет хорошо
x)
меня больше у этого китайского робота в рекламе напрягает, то что он какой то агрессивный, боксирует, ногами машет. Куплю я его, а он потом возьмет и начнет доминировать показывая кто в квартире главный как этот робозаяц из мультика показал волку )))
то что люди этого не осознают, не означает что они не пользуются этим каждый день, как например бабушки, оплачивающие покупку в магазине прикладыванием карты к терминалу с которой в этот момент считываются данные, отправляется запрос на сервер, проводится транзакция в банковской системе и наверно ещё куча всякой "магии" которой я тоже не знаю
То что прогресс не виден для 70% это факт, и это только подчеркивает как быстро и практически бесшовно он внедряется в нашу жизнь, так что мы практически этого не замечаем. Может отсюда у многих и появляется технопессимизм
не совсем, в традиционном понимании фронтендер не обязан знать как работает CMS и хотя бы примерно понимать php и как залить CMS на хостинг и настроить что бы там все работало. Во всяком случае на позицию фронтендера обычно такого не требуется нигде и на собеседовании именно фронтендеров о таком не спрашивают
мне кажется у вас все же не получилось
ну не знаю, китайцы говорят, что готовы продавать робота за 6000$ и если он такой как на видео, то я готов его купить за такую цену только ради того, что бы нарядить его в костюм кошкодевочи и он ходил у меня по квартире радуя глаз. Ну может и по хозяйству немного помогал чем может, с задачей "принести воды" в старости думаю он справится
web-разработчик - по большей части настройка и натягивание шаблона на всякие CMS - битрикс, wordpress, заливка этого всего на сервер
frontend - в основном только разработка интерфейса, чаще всего на каких нибудь фреймворках - React, Vue ...
То, что при работе с LLM, делегировании ему задач по написанию эссе понятно, что мозг отключается и активность мозга через ЭЭГ будет меньше, как и нейронная связанность.
И то, что слепое доверие LLM будет приводить к тому, что LLM будут давать менее оригинальные результаты, так как по определению LLM генерирует что-то статистически усредненное, исходя из своего алгоритма работы.
Все эти факты мне кажутся очевидными.
Это как: одному человеку мы дали мопед и сказали проехать 10 километров, а второй человек проехал 10 километров на велосипеде.
Ученые пришли к сенсационному выводу: тот, кто ехал на велосипеде, сильнее накачал мышцы своих ног, чем тот, кто ехал на мопеде.
Но это же абсурд проводить такой эксперимент.
И вывод можно сделать такой: человеку, который использует LLM, нужно было давать не одно эссе, а, например, задачу написать 10 эссе, или столько много создать эссе, сколько успеет, пока другой человек будет генерировать свое эссе чисто мозгом.
Т.е. в исследовании нужно, чтобы мозг в обоих случаях использовался полностью на 100%, а человек с LLM не тратил 5 минут на генерацию эссе, а потом оставшееся время смотрел в потолок.
Из этого можно сделать вывод, как в мире, где присутствует LLM, нужно строить обучение и закрепление знаний на практике. А LLM — это уже данность, которая есть, нет смысла при обучении запрещать её использовать, нужно адаптировать учебный подход к новым реалиям. Теперь:
нужно написать не 1 эссе -> а сгенерировать с помощью LLM структурированную книгу на 500 страниц с четкой последовательностью изложения;
написать не приложение-тутушку -> а сгенерировать с помощью LLM ERP-систему корпоративного уровня;
написать не диплом на 100 страниц -> а создать монографию из 10 томов, досконально разбирающую какую-то проблему и пути её решения.
Т.е. хотите использовать LLM — используйте, но вот только не получится считерить и не думать головой, смотря в потолок, усилий вам придется потратить столько же, если не больше, чтобы даже с помощью LLM проделать в 10 раз большую работу.
При обучении теперь, для сохранения той же его эффективности формирования нейронных связей, сложность заданий и их объем должны кратно расти, потому что то что раньше писалось несколько дней самостоятельно, теперь за 5 минут генерируется LLM и это не повод все остальное время не думать головой
В этой парадигме обучение на первое место выступает системный анализ, логическая стройность построения, новизна рассматриваемых идей и их аргументация и ключевое - критический подход, а не зазубривание информации, на чем было сосредоточена большая часть учебного процесса ранее. Зазубривание теперь бессмысленно
Можно сказать, что если заставить человека ехать на мопеде не 10км, а 1000км, то ноги он всё-равно не накачает. Да, согласен, но тогда тогда хотя бы у него будет железная задница (системное, логическое, критическое мышление и навык анализа информации)
Ответить
Мой опыт перекликается с вашим тезисом об ИИ как соучастнике. Я тоже активно применяю LLM в философских размышлениях, но исключительно как инструмент критики собственных гипотез и поиска идей как их логически развернуть. Моя практика проста: сформулировав идею, я прошу модель найти в ней логические противоречия, слабые предпосылки или неочевидные контраргументы. Это часто высвечивает слепые пятна и узкие места в логических построениях и фактологические ошибки, которые я упускал. Ключевое, как вы верно предупреждаете, — никогда не принимать выводы ИИ за истину, а использовать их как стимул для углубления собственной рефлексии и перепроверки.
статья как раз во многом про это, рад что мы на одной волне
вычислимость реальности действительно необходима, потому что не вычислимость это и есть один из основных типов непознаваемости, которая может создать событие разрушающее вселенную
В следующей статье планирую развернуть эту идеи и показать как ограничение скорости распространения информации (скорость света) и вероятная дискретность пространства времени (постоянная Планка и петлевая теория гравитации) ограничивает объем информации в нашей видимой части вселенной, делая её вычислимой и какие из этого можно сделать дальнейшие выводы
Вы видимо пропустили примечание в самом начале статьи с пометкой "⚠️ Важно "
в котором сказано, что
статья не затрагивает вообще субъект познания, ни человека, ни ИИ, ни социум, ни кого либо ещё
Она вообще о другом, она о том, что если во Вселенной существуют события/объекты которые не подчиняются ни одному закону, то вселенная будет рано или поздно разрушена в результате их воздействия
согласен, по поводу свободы воли очень тонкий момент и среди философов на этот счет единого мнения, есть множество подходов - Инкомпатибилизм , Компатибилизм и множество других. Каждый выбирает для себя то, что ему ближе
Я стараюсь оперировать логикой и уже открытыми научными фактами, вписывая свою концепцию в этих рамках. Введение трансцендентного Кто, действительно решает проблему свободы воли
Но мне самому сложно признать эту концепцию, т.к. я не помогу никак логически объяснить, что трансцендентный Кто это именно "я" или часть меня , а не что то вне меня, которое мной тогда управляет. Если эта трансцендентная сущность вне вселенной, и вне материального меня, то как доказать себе что она это все ещё я, а не кто то другой. У меня это не получается. А если эта сущность не я, то ни о какой свободе воли не может быть и речи, это внешнее воздействие
Поэтому я стараюсь в своих теориях основываться только на логике и известных законов природы, не применяя трансцендентного.
Для меня подобные философские упражнения это скорее как упражнение на логику и системный анализ, а введение трансцендентного при это становится чит кодом, и задача для меня становится неинтересной, т.к. трансцендентным можно объяснить многие логические несостыковки
я тоже размышлял об свободе, и в своих размышлениях пришел к тому, что свобода воли это и есть детерминизм, вне детерминизма она невозможна. Поведение человека должно основываться только на его опыте, который он пережил во время жизни, а не на случайных квантовых эффектах или чём то внешнем относительно человека. При этом человек получает опыт из вполне детерминированной среды. Мой подход чем то напоминает Компатибилизм, но кажется жестче. Может быть когда нибудь напишу статью здесь об этих рассуждениях.
Но с другой стороны, спрогнозировать выбор человека в каждой конкретной ситуации со 100% вероятностью практически невозможно, т. к. факторов, влияющих на воспоминания человека и биологию человека, слишком много. Хотя получается это выбор детерминирован, он практически не предсказуем, т.к. миллиарды факторов переплетаются с экспоненциальным ростом сложности прогнозирования.
Ну мы всё-таки на научно техническом портале ведём обсуждение, а не на православном форуме, давайте воздержимся от теологии и апелляции к создателю
Согласен, что возможность развития необходима, но важно и направление этого развития. Важно, что бы вселенная развивалась/эволюционировала по каким то структурированным законам, а не хаотично/анархично. Не думаю, что Ленин одобрил бы анархию