Pull to refresh

Comments 14

Вы принципиально не можете «запихать» на физический носитель исчерпывающую информацию о нём плюс один символ.

ИМХО это кажется возможным. Надо только чтобы структура носителя была закономерной, а информационная ёмкость получающейся структуры была выше, чем количество информации в описывающей её закономерности.
Замечание резонно, исходя из текста статьи (плюсанул). Кажется, такое сжатие или архивирование невозможно. Если конечно, я не допустил какую то ошибку в следующих рассуждениях:

1. Представьте себе, что у Вас есть «теория Всего носителя» — универсальный закон который описывает как любой узел строит связи с любым другим в зависимости от их состояний. Она может быть крайне компактна (хотя не обязана быть таковой). Если Вы просто запишите её на носитель, опишет ли она состояние всех его узлов? Я полагаю нет. Ведь нам нужно будет ещё кое-что. Нам нужны будут начальные условия — изначальное состояние всех узлов (которое нельзя сжать) и точное время прошедшее от этого самого начала.

Но почему состояние узлов сжать нельзя? Представьте, что Вы составляете карту железной дороги. И вот Вы идёте по ней и рисуете шпалу через каждые 1,5 метра. В какой то момент, Вам становится ясно, что шпалы будут идти по тому же принципу. Но Вы не можете быть в этом уверены. Вы можете это только предположить. Чтобы быть абсолютно уверенным в этом, необходимо получить количество свидетельств равное количеству шпал. Иначе никак. И то, это верно, только если Вы уверены, что знаете законы, по которым шпалы появляются или исчезают пока Вы их считаете. Но почему нельзя просто понять фундаментальный закон шпаловости (расположение их относительно друг друга строго через 1,5 метра)? Тут мы переходим к пункту 2.

2. Для получения такой 100% точной «теории Всего носителя» (или фундаментального закона шпаловости) нам необходимо будет проанализировать состояние всех узлов (которые мы пока не можем сжать вследствие отсутствия абсолютной уверенности в Законах которым они подчиняются) во все возможные времена. В любом ином случае мы чего-то не учтём и строго не сможем быть уверены в её точности на 100%. И вот мы подошли к ограничению: пока мы будем анализировать, нам нужно где-то будет хранить ВСЮ эту информацию.

Если я здесь не ошибся, по-видимому стоило бы внести это в текст.

Ну, тут видимо надо уже конкретные нюансы обговаривать. Предположим, у нас массив из элементов, способных принимать двоичные состояния, и некое устройство, способное по некоторым поданным на вход данным а) находить элемент либо выдавать сообщение об ошибке, б) считывать и передавать состояние найденного элемента, и в) изменять это состояние. Такая обрезанная вариация машины Тьюринга с внешним управлением. Структура носителя будет определяться валидными координатами ячеек. Если мы хотим на этом носителе иметь модель самого носителя, (назовем её бэкап), которая актуальна, адекватно описывает структуру носителя и включает всю информацию на носителе, то в самом общем случае задача может и не решаться. А в частности, видимо придется ввести некоторые характерные времена — актуализации (информации в бэкапе), изменения (данных на носителе) и деградации (структуры носителя). Видимо, ответ о возможности построения бэкапа и степени его актуальности будет заключаться в соотношении этих времён.
По поводу второго пункта-нам на самом деле необязательно хранить всегда и всю информацию. Достаточно начать с некой компактной гипотезы, записать её и уточнять по мере актуализации. Тут всплывают проблемы уже соотношения объемов — свободного места на носителе, информации и бэкапа, и возможности архивации — приведения этих объемов к меньшим. Ну, и сопутствующие вопросы-насколько велики сторонние объемы памяти и сложность алгоритмов, которые мы можем задействовать в процессе построения бэкапа.
Я предполагаю, что существуют соотношения этих параметров, при которых задача самоописания таки будет решаться. Но, конечно, 100% точность в любой момент времени будет требовать нулевого времени актуализации (включая не только время проверки структуры и данных всего накопителя, но и время перестроения описывающих закономерностей). Проблему рекурсивности (бэкап, если описывает информацию на носителе, должен включать ещё и описание себя) я тоже считаю во многих случаях решаемой (но разумеется не во всех)

то в самом общем случае задача может и не решаться
Не могли бы Вы немного развить эту тему, это очень интересно. Почему именно она в общем случае не будет решаться?

с некой компактной гипотезы
А как будет происходить проверка соответствия уточнённой гипотезы данным которые соответствовали прошлой гипотезе? Я имею ввиду, не нужно ли нам будет в случае изменения гипотезы (уточнения) провести верификацию всех уже актуализированных данных? Ведь они до момента уточнения соответствовали лишь прошлой гипотезе? Но тогда нам всё же придётся хранить данные?

Проблему рекурсивности (бэкап, если описывает информацию на носителе, должен включать ещё и описание себя) я тоже считаю во многих случаях решаемой (но разумеется не во всех)
А от чего здесь будет зависеть возможность решения?

Прошу прощения, если где-то неверно использованы термины. Для меня терминология нова, не стесняйтесь пожалуйста поправлять.
Почему именно она в общем случае не будет решаться?

Потому что можно построить примеры, для которых она точно не будет решаться. Например, предположим, что для описания ячейки нам нужно 28 ячеек, а в нашем накопителе их только 32 штуки. Или, например, структура накопителя/данных настолько сложна, что любая закономерность, построенная для А ячеек, оказывается неверна для данных о А+1 ячейке.
не нужно ли нам будет в случае изменения гипотезы (уточнения) провести верификацию всех уже актуализированных данных? Ведь они до момента уточнения соответствовали лишь прошлой гипотезе? Но тогда нам всё же придётся хранить данные?

У нас они уже хранятся — непосредственно на накопителе, мы можем проверять гипотезы прямо на выборке с него, храня только саму гипотезу (в предельном случае-на том же накопителе). Видимо, если характерное время изменения данных и деградации структуры меньше времени актуализации (построения полного описания), то задача не решается — по сути, устройство, которое мы пытаемся описать, для нас станет не накопителем, а генератором случайных чисел.
А от чего здесь будет зависеть возможность решения?

Тут я вижу два варианта решения задачи — либо нам повезет, последовательность самоописаний будет самоограничивающейся и на некоторой итерации перестанет расти по объёму, либо нам придётся пожертвовать точностью описания и принудительно обрезать рекурсию на некотором шаге. В предельном случае-совсем обрезать, превратив описание информации в «служебной области», на котором само это описание находится, просто в ссылку на адрес этой области.
Для меня терминология нова, не стесняйтесь пожалуйста поправлять.

Ничего страшного, я всё равно её придумываю на ходу, хотя подозреваю что этот велосипед где-нибудь в теории информации уже давно сделан :)
Лучшее — это то что нравится большинству.
А нам нравится сложность.

Потому и законы природы у нас сложные и мы надеемся, что на самом деле они еще сложнее.

Если мир окажется простым, он нам просто не понравится.
Вопрос интересный.

Мне наоборот почему то кажется, что людям нравится простота и определённость. Разве мы не пытаемся избежать неопределённости и сомнений любыми путями? Разве не этот эффект оказывает большинство когнитивных искажений?

А как это видите Вы? Я имею ввиду в чём проявляется «тяга к сложности»?
Нам сложность доставляет физическое удовольствие. Именно тяга к сложности, возможно и вытащила нас в люди. Именно любовь к сложности дает нам возможность развиваться и развивать культуру.

Вы думаете Эйнштейна просто так взяли и приняли? Нет, люди гордятся тем, что могут «понять» сложность. Для нас это круто — так же как для самок жирафов, например, круто — когда у самца длинная шея. И по этой причине жирафы имеют длинную шею.

А для нас круто — когда все сложно и потому мы сложные.

Да что там, в нас это с детства.

Проводились опыты с обезьяной и человеческим ребенком. Им показывали сложный способ открывания некого ящика. Через время оба запоминали последовательность действий и могли повторить за обучающим. Секрет был в том, что сложная последовательность действий была не обязательной. Ящик можно было просто открыть.

Обезьяне не нужна сложность, потому она довольно быстро методом проб и ошибок узнавала про простой путь и начинала открывать ящик просто.

А ребенок продолжал открывать сложным способом, даже отказывался верить, что есть более простой.

Получается, что обезьяна выигрывает у человека на короткой дистанции, но проигрывает на длинной. Ведь у нее нет цели, а значит и возможности создавать сложный мир.

А что до когнитивных искажений — как еще развиваться, создавать то, чего не было, кроме как отказываться от того что было? Когнитивные искажения — это продолжение той самой эволюции Дарвина. И именно на этом основано развитие.
Больше вам с кажу, никак иначе, кроме как когнитивными искажениями и развиваться невозможно.

«Эврика», «озарение», «интуиция» — примеры такого искажения. И единственное их отличие от ошибки в том, что они принесли пользу.

Если вам захочется кушать или удовлетворить физ. потребность, вы точно воспользуетесь простым, а не сложным способом. А изучать мир, да, удобно через составление "сложных карт". Пока что, мышление это самый эффективный инструмент человеческого тела. Поэтому и популярно разделение на гуманитариев и технарей.а

культура, стартапы все — тоже наша потребность. И там нам нравится сложность.
да и потом. Даже еда нам не нужна простая. Повкусней да поизысканней.
Простой пример: Дарвин показал, что вы и я развились из примитивных одноклеточных организмов.
Если проследовать этой логике, то мир должен бы начаться с чего-то ну очень примитивного — на столько примитивного, как прямая линия.

А что нам говорит наука? Что «все сложно» и «еще сложнее».

И тут большой вопрос, у кого когнитивное искажение.

Но ответ я вам уже сказал. Нам нравится сложность, а потому «все сложно» — и есть «истина».

Пора ждать на Хабре статью про язык-прайм?

Ну если от меня, то маловероятно. С темой я знаком крайне и крайне поверхностно (если честно полез вникать только после Вашего комментария). Откуда возник вопрос я кажется понял (пересечение с автором идеи «карты и территории», верно?).

Буду рад, если поделитесь информацией на этот счёт. Я так понимаю гипотеза Сепира-Уорфа на данный момент не имеет положительного научного консенсуса? Интересно какие есть исследования данной гипотезы профильными специалистами: нейрофизиологами и когнитивными психологами (поставлю себе метку прошерстить данный вопрос, если есть чем поделиться, буду благодарен).

Узнал, при подготовке этого ответа, что данная гипотеза была использована при разработке некоторых языков программирования. Можете рассказать что-то об этом?
Sign up to leave a comment.

Articles