Pull to refresh
79
0

Биофизика

Send message

Достаточно «сравнить развитие науки с 1830 года (нет теории эволюции, нет теории электромагнетизма) по 1930 год (относительность и квантовая механика уже есть) и с 1930 по 2024 год (всё ещё нет объединяющей теории), чтобы понять, что темпы прогресса, мягко говоря, замедляются», — говорит Желис-Фильо. «Низко висящие плоды уже собраны. Оставшиеся, похоже, свисают с недостижимо высоких ветвей».

Есть такая дисциплина - наукометрия (наука о науке), в которой занимаются измерением различных показателей динамики развития науки - числа публикаций, роста персонала и финансирования, карьерного роста, числа институтов и дисциплин, и тп., а так же итогового продукта ее деятельности - подтвержденных открытий и теорий, как прикладного, так и фундаментального характера. По первым показателям последние столетия наблюдается практически устойчивый экспоненциальный рост, а по последним нет, рост замедляется, особенно открытиям фундаментального характера. Интересные результаты исследований на эти темы приведены в докладе (автор С. Милоевич) на конфе посвященной проблемам науки. Автор исследует динамику появления новых идей в науке - уникальных словосочетаний из научного тезауруса в названиях научных статей. Их конструирование подчиняется определенным закономерностям. Фактически это аналоги ключевых слов в современных статьях, но раньше ключевые слова не всегда использовались, и сейчас не обязательно. Результирующие диаграммы роста числа публикаций и новых идей в науке по материалам WoS.

Если рост числа публикаций экспоненциальный с удвоением показателя роста Td в последнее время 15 лет, то показатель роста числа новых идей близок к линейному, выходящему в последние десятилетия на горизонтальный участок. Автор считает, что это указывает на тенденцию стагнации в науке. Есть независимое исследование с использования в качестве показателя самих ключевых слов в статьях, и оно также показывает тенденцию к замедлению, см. ссылки в разделе Growth in Topics в этом блоге. Хотя не все новые идеи, например, в физике получали подтверждение, тот же эфир, сейчас пока не подтверждены струны, суперсимметрия, ТМ, ТЭ, и др. За все чего не дали нобелевки по физике в этом году) но зато дали по основам нейросетей, которые еще могут сыграть важную роль в продвижении физических исследований. Авторы указанных исследований констатируя факты поведения этих показателей не пытаются особенно понять глубинные когнитивные причины этого явления. Они сложны, и методологически корнями уходят к современному пониманию роли априорных форм познания и его конструктивного характера в теории познания И. Канта. И также дают принципиальное объяснение упомянутых в статье ограничений познания биологического (эволюционного) характера:

Также могут существовать естественные барьеры для человеческого знания — факты о Вселенной, которые навсегда остаются недоступными для нас в силу особенностей нашей биологии. Конечно, мы создали технологии, которые облегчают наши чувства и познание: Микроскопы позволяют нам заглянуть в мир малого, телескопы дают возможность заглянуть в мир большого, а компьютеры обрабатывают цифры и данные, которые наш индивидуальный разум не в состоянии обработать.

Возможно эти все нарастающие ограничения в перспективе будут преодолеваться использованием информационных технологий расширяющих когнитивные возможности человека и сознания в целом. Так обучение ИИ на объемных эмпирических данных с экспериментальных установок типа БАКа и космических телескопов могут выявить закономерности, которые ускользают от обычного стат. анализа данных. А технология нейроинтерфейсов позволит расширить восприятие на новые типы данных, без их преобразования к восприятию традиционными органами чувств, преодолевая тем самым "бутылочное горлышко" когнитивных возможностей человека доставшихся от природы.

Автор статьи правильно указал на трудности технологического развития цивилизации, по крайней мере нашей, но они не носят принципиального ограничительного характера. Важнее преодолеть социальные проблемы связанные с конкуренцией за контроль над ограниченными ресурсами планеты.

Так в чем же дело? На скрине ниже видно, что модель (в данном случае Llama-3.1), когда пытается сравнить числа 9.8 и 9.11, активирует несколько неожиданных кластеров: например, всплывает информация про атаку 11 сентября (9.11) и гравитационную константу (9.8). Вероятно из-за того, что эти темы появлялись в обучающих данных Llama очень часто, числа 9.8 и 9.11 перестают восприниматься ею как обычные числа: она воспринимает их, как другой вид объектов (даты, константы), путается и несет чепуху.

Это же ассоциативные связи, т.к. ЯМ моделируют пока в основном ассоциативную память человека, и ошибки поэтому в основном ассоциативного типа.

Павлов гений своего времени, но его подразделение мышления на два вида несколько подустарело. Сейчас типов (здесь подробнее) мышления выделяется намного больше, и с каждым его уровнем могут быть связаны свои отделы мозга, типы памяти, динамика протекания, степень осознаваемости, и тд. В тексте путаница с терминологией. Мышление не происходит с помощью квалиа, это качественная характеристика ощущений (в психофизиологии модальности ощущений). То что выдается за него больше похоже на образное мышление - мышление образами, в частности, визуальными, мышление которое преобладает в детстве. С возрастом, со становлением абстрактно-логического уровня мышления и управления поведением, образное отходит на второй план, проявляясь в основном в виде интуиции и воображения. Последние очень важны в творческом мышлении, об этом много писал, например, Эйнштейн.

Что касается ЯМ, то из всего спектра форм мышления человека они пока моделируют в основном ассоциативный уровень мышления и ассоциативную память. Это объясняет их ограниченность и многочисленные недостатки. Возможно со временем, с совершенствованием их архитектуры, они приблизятся к творческим возможностям человека.

А на этом скрине (выше) описана элементарная математическая задача: "паренек собрал столько то яблок в один день, столько то в другой и столько то в третий, сколько всего яблок?". GPT решает задачу правильно, если только не добавить в задачу условие "а 5 яблок немного меньше среднего" (имеется в виду размер, что никак не влияете на результат). И тут-то GPT, и не одна, ошибается. Это и есть демонстрация, что в математику GPT не умеет. По школьному GPT - это зубрила, а думать и рассуждать в новых условиях у нее получается слабовато. Ну и ученые говорят, что надо работать дальше и больше (то есть над другими моделями).

Если бы только в логике запутывались, есть математическая проблема серьезнее связанная с ограничениями архитектуры трансформерных ЯМ.

На первый взгляд физика и ML могут показаться двумя совершенно разными областями: одна занимается пониманием фундаментальных законов природы, а другая — обучением машин на основе данных. Однако физика дала несколько ключевых концепций, которые заложили основу для современного машинного обучения, например, для проектирования и разработки искусственных нейронных сетей. Ниже примеры, как фундаментальные концепции в физике, которые использовались в работах Хопфилда и Хинтона, повлияли на развитие ML.

Это называется прикладной областью исследования. За прикладную физику было немало премий - пузырьковую камеру, детекторы частиц, эл. микроскопию, микросхемы, и тд. Но это инструменты, которые позволяли продвигать исследования в фундаментальной физике. Вероятно, комитет действовал на опережение учитывая, что нейросетевой ИИ, который растет из этих и других работ на эту тему, Ле Кун, кстати, сделал первую нейросеть, которая имела практическое приложение, наделали много шума в последнее время, и имеют потенциально важное приложение, как инструмент исследования и моделирования в физике. Вот тут написал про это со ссылками на источники. Хотя в той теме в голосовании преобладает мнение, что зря им дали премию, не имеет это отношения к физике.

Ничего удивительного, в будущем оценят это неожиданное решение. Нейросетевой ИИ становится инструментом физических исследований. Например, в астрофизике наблюдается взрывной рост его использования, это связано с наблюдательной спецификой области (1, 2, 3). Рост сложности физических моделей может привести к его использованию для разработки путем обучения на эмпирическом материале генерируемому такими мегаинструментами, как ускорители, детекторы частиц, и различные телескопы. БАК генерит уже эксабайты данных. Методика обучения примерно такая, как в этом случае, для предсказания размерности сложный нелинейных динамических систем. И это не все. Сами нейросети могут стать более перспективными базовыми концептами для разработки фундаментальных физ. моделей, нежели струны, петли, и другие, которые пока не привели к желаемому успеху. Пожелаем успехов Ванчурину и Ко (1, 2, 3)!

Del, случайный повтор

Чему может научить горилла Коко

Хорошие статьи специалистов на тему языка на Антропогенезе - 1, 2, 3, 4, и другие поиском.

Когда что-то не могут нормально объяснить, называют это серендипностью.

Это скорее когнитивная черта личности, она либо есть, либо ее нет, так же как и любые другие черты. Как обычно связано с игрой генетики и воспитания. Она полезна криминалистам, например, и конечно физикам экспериментаторам. Речь о способности обращать внимание, на первый взгляд, случайное явление, факт, и увидеть в них объяснительный потенциал, сделать предвидение. Человеку не обладающему такой способностью можно показать сто таких случайных фактов, и он наконец сделает вывод, когда станет и так очевидно, а может и не сделает) а обладающий такой способностью достаточно одного, двух, и при этом он не ошибется в предвидении. Вот в чем фишка. Важна ли такая черта для теоретиков? Нет, скорее даже вредна, т.к. концептуальные и мат. модели теорий строятся уже на твердо установленных (статистически достоверных) фактах, а не на выборе из случайных результатов.

Но это не значит, что если бы не серендипность Фраунхофера, мы бы до сих пор ничего не знали о квантовой механике. Просто линейчатые спектры обнаружил бы кто-то другой на несколько лет позже или раньше. Если исторически сформировались предпосылки для какого-то открытия или изобретения, оно будет сделано в определённый период, и никакой случайности здесь нет. Вся суть серендипности в том, чтобы делать как можно больше попыток или поместить себя в среду, где случайности происходят часто.

Согласен, но нужны уточнения. Действительно, случайность случайностью, но когда условия для открытия созрели, то его идея буквально носится в воздухе, и поэтому часто такие открытия делаются независимо, см. этот список. Но это в большой степени относится к теориям, предсказанным эмпирическим открытиям или новым законам в рамках теорий, технологиям и изобретениям, но не к фундаментальным эмпирическим открытиям, типа открытия линейчатых спектров, которые как раз лежат в основаниях этих теорий. С чем это связано? С тем, что открытия первого типа делаются уже в некотором теоретическом контексте в который они встроены, и в котором они как-то предсказываются, как вы и утверждаете, а фундаментальные нет. В теоретическом плане они находятся вне этого контекста, и никак не предсказываются им. В первом случае это облегчает их открытие, и поэтому могут быть повторены не зависимо. Вторые проявляются неожиданно, случайно, как правило в ситуациях искали одно, проявилось другое, и в этом случае, как раз решающую роль играет серендипность. Посмотрим это на примере другого открытия - радиоактивности. Для того чтобы оно проявилось нужно было, первое, случайно положить вместе запакованную фотопластину и соль урана, и второе, проявить серендипность. Беккерель мог и не придать значения засветкам на пластине, но он придал, повторил опыты, описал их, и сделал достоянием науки. В отличии, как в случае Воллостона со спектрами, от С. Томсона, который тоже, что-то делал в этом направлении, но не придал этому значение. В том списке, кстати, указано, что они оба открыли это явление, это не так, приоритет за Бекерелем. Больше в том списке таких фундаментальных открытий не приводится, т.к. их не повторяли, те же опыты Майкельсона-Морли (не считая значительно более поздних аналогов, уже после разработки СТО).

Таким образом, между первыми и вторыми типами открытий имеется существенная разница. Первые делаются в известном теоретическом контексте, который подсказывает путь к ним, и предъявляет меньше требований к серендипности их авторов. Вторые выявляются случайно, вне существующего теоретического контекста, только благодаря тому, что все условия к такому открытию созрели, требуют серендипности у их авторов, и становятся основаниями для новых теорий, если в прямую противоречат основаниям существующих.

В науке то же самое. Из всей массы экспериментальных данных какие-то будут подтверждать теорию, какие-то окажутся нейтральными, а какие-то теория объяснить не сможет. Последние ухудшают позиции теории, но по мере накопления могут привести к созданию новой теории. Только создаётся она не обобщением этих фактов, а вариацией и отбором объяснений, совместимых с фактами. Факты сами по себе не есть открытия, как и мутации не есть адаптации. Открытиями становятся только объяснённые факты, адаптациями - полезные, отобранные средой мутации. Если теория провозглашается окончательной истиной, противоречащие ей факты будут бесполезны.

Существует масса эмпирических фактов, которые пока не объясняются существующими теориями, те же ТМ и ТЭ. Важно другое деление. Противоречат эти факты основаниям существующих теорий или нет? ТМ и ТЭ не противоречат, как и другие. Если такой факт будет обнаружен, например, в экспериментах на БАКе, который будет устойчиво воспроизводится с достоверностью не менее 5 сигм, то появятся основания для пересмотра существующих теорий (СМ), и разработки новой, на новой концептуальной основе. При этом старая теория будет ее предельным случаем по критерию, который привел к этому открытию. Важно только в массе данных, которые генерят эти мегаинструменты, включая телескопы всех типов и базирования, не пропустить события связанные с этим фактом, т.е. исследователям проявить серендипность;) Может ИИ поможет в этом.

Неизвестным аспектам реальности проявляться стало труднее не из-за того, что все эксперименты планируются на базе актуальных теорий. Просто все доступные для изучения аспекты уже проявились, а для проявления остальных требуются очень специфические условия, невоспроизводимые в земных лабораториях.

Почему же? Часть экспериментов ставится и в рамках гипотетических теорий, таких как ТС и петлевая гравитации, посмотрите стратегию исследований на БАКе. Есть еще астрофизические наблюдения. Сейчас проблема в этих эксабайтахт данных найти редкие отклонения. Может, они есть, но современным исследователям не хватает серендипности. Они ищут подтверждение гипотез и упускают из виду небольшие отклонения в данных связанные совершенно с другими причинами, новыми проявлениями реальности. Это не так просто, как мы видели на исторических примерах, их немало зевают, дают неправильные объяснения в контексте существующих представлений. Что касается невоспроизводимости в лабораториях, то должны существовать поправки и в обычных условиях по аналогии с квантовыми и релятивистскими поправками, но еще более слабые. Однако они могут накаливаться на просторах космоса и увеличении продолжительности экспериментов на Земле. Вот пример струнной поправки к гр. волнам, которую можно попытаться обнаружить экспериментально.

Если резюмировать, то на мой взгляд, проблема упирается в то чтобы увидеть в уже существующих данных новые проявления реальности, это не просто психологически, из-за их возможной необычности. И повторю, возможно в этом поможет ИИ обученный на этом эмпирическом материале, что-то вроде этого.

Чтобы получить новые экспериментальные результаты, не имея предсказывающей их теории, всё равно нужно перебрать в голове много догадок и гипотез, по крайней мере о дизайне эксперимента. Если же данные случайны - они не станут открытием, пока не получат хоть какое-то объяснение. Сколько бы раз их не воспроизводили, всегда есть вероятность, что в следующий раз они окажутся ошибкой.

Разберем подробнее этот случай. Линейчатые спектры в то время нельзя было предсказать. Это квантово-механическое явление. Их можно было обнаружить только экспериментально повышая разрешение спектрометра, что и сделал Волластон. Появление этих линий было неожиданным, т.к. существующая теория Ньютона никак не объясняла и не предсказывала такого. Такие новые явления в принципе нельзя предсказать, только обнаружить экспериментально повышая чувствительность приборов, вводя новое оборудование, методики, и тп, или наблюдать в специфических условиях. Можно привести множество таких примеров. Другой вопрос, как на такую ситуацию реагируют исследователи? Они может посчитать это артефактом, и не заниматься им, если у них другая задача. Либо попытаться устранить. Если пропадет, то артефакт, если нет, то потребует объяснения. Вот тут вступают в силу личные качества исследователей, их кругозор, общая подготовка. Им доступно объяснения только в рамках существующих теорий. Выхода два. Первый, не сомневаться в этих теориях, в данном случае теории спектров Ньютона, и найти хоть какое-то объяснение, не противоречащее им. Волластон поступил именно так, он предложил, что линии разделяют цветовые диапазоны спектров. В этом имеется минимальная логика, если не вдаваться в дальнейшие проверки. Он был занят другим, и в придачу ему было уже под 40-к, возраст играет роль. Фраунхофер был намного моложе, занимался именно спектральными исследованиями, и когда наткнулся на это явление, то оно вызвало у него интерес. Он обнаружил постоянство в появлении этих линий, совпадение их положения в солнечном спектре и спектре пламени, и отметил, что их появление противоречит теории Ньютона, которая никак такое свойство спектров не описывает и не предсказывает. Это второй тип поведения, которое в психологии научного творчества получило название серендипности (подробнее). Обратите внимание, он описал это явление, но не предложил его объяснение. После этого оно стало достоянием научного сообщества, исследоваться всесторонне, и окончательное объяснение нашло только после создания КМ. Которая отчасти и была разработана, чтобы объяснить происхождение и свойства спектров. Только после этого стало возможным теоретическое предсказание спектральных линий различных материалов, до этого только опытное. Хотя и сейчас для некоторых сложных соединений расчет бывает затруднен, и спектры по прежнему устанавливаются эмпирически.

Если на это посмотреть с точки зрения эволюции, то такие случайные эмпирические открытия являются своеобразными "мутациями" по аналогии с мутациями в биологии. Их влияние также может быть положительным - открытие спектральных линий положило начало разработке КМ, радиоактивности - атомной и ядерной физики, или негативными - открытие кислорода положило конец теории флогистона, открытие постоянства скорости света в опытах М-М положило конец теории эфира, и начало СТО. Большинство биологических мутаций нейтральны, множество случайных открытий также не привело к созданию новых или закрытию старых теоретических представлений.

По тому же принципу работает наше восприятие, согласно теории предсказательного мозга. Мозг не обобщает эмпирические данные от органов чувств, а сначала создаёт виртуальную модель окружающего мира (контролируемую галлюцинацию), варьирует её, и только потом сверяет с сенсорной информацией, чтобы исправить ошибки в предсказаниях.

Это не верно. Когда мозг создает внутреннюю модель, тогда он и обобщает данные от органов чувств во время обучения используя априорные механизмы (эволюционное наследие). Это происходит в основном в детстве. Потом, да, модель модифицируется с учетом поступающих данных только, если ввод расходится с предсказаниями модели, которое невозможно устранить (в соответствии с принципом свободной энергии). При этом также может происходить обобщение.

Откуда растут методологические корни представлений, которые вы излагаете? Из того, что, на самом деле, подавляющее количество открытий делается с помощью предсказаний уже проверенных теорий. То же самое с технологиями и изобретениями, они в основном разрабатываются на базе прикладных теорий. Хотя раньше они также возникали из случайных наблюдений за природой и открытий. Со временем таких становится все меньше, а предсказанных все больше. В науке уже приводил пример с намеком на неизвестное на БАКе и бурной деятельностью теоретиков. Постепенно эта нарастающая тенденция в сознании, в том числе и некоторых философов, которые не занимались реальными научными исследованиями, тем более эмпирическими, начала вытеснять все более редкий опыт проЯвления неизвестных аспектов реальности, которые еще не нашли отражение в существующих теориях. И которые могут приводить к созданию новых, более общих теорий, учитывающих эти новые аспекты реальности.

Но, опять же, этот предельный переход может нарушаться в какой-то более точной теории, просто для опровержения этого постулата ОТО пока не хватает точности.

Более общая теория, как полагают кв. гравитации, должна в предельном случае переходить в ОТО и воспроизводить непрерывный пр-временной континуум. А ОТО воспроизводит результаты теории гравитации Ньютона при слабом потенциале поля и небольших скоростях. Такая цепочка связанная с принципом соответствия. Как с этим справляются существующие теории кандидаты в кв. гравитацию - ТС, петлевой гравитации и причинной триангуляции нигде ясно не изложено. Утверждается, что формализм ОТО в них воспроизводится, когда размеры намного больше струн, петель и симплексов соответственно. В петлевой гравитации не воспроизводится гладкость пр-времени. Вероятно, проблемы из-за искусственности введения этих базовых концептов квантов пр-времени. Они не связаны с их опытным обнаружением.

О чём же я и говорю - если нет предварительно сформулированной теории или хотя бы догадки, эмпирические данные ничего не значат.

И почему тогда Фраунгофер через десяток лет придал им значение, и исследовал?) Потому что тайно знал квантовую теорию?;) Нет, была спектральная теория Ньютона. Дело в другом. Нужно было проявить любопытство, и проверить странное поведение спектров для разных случаев, и сделать выводы!! Получить новое знание из эксперимента!!! Эти линейчатые спектры и послужили одной из эмпирических основ для разработки КМ. Волластон просто не смог подвергнуть сомнениям спектральную теорию Ньютона.

Индукция не работает даже в контексте онтогенеза, гипотеза табула расы давно опровергнута. Младенцы и те рождаются с предустановленными генетическими программами и воспринимают мир не как "шумную разноцветную смесь", а через призму определённых ожиданий, во многом совпадающих с предсказаниями ньютоновской механики.

Согласен, человек рождается с массой эволюционных предустановок - геометрических, числовых, вероятностных, пространственных, временных, объектных, агентных, и многих других (см. представления о когнитивном ядре познания - подробнее). После концептуализации этих предустановок в соединении с опытом появился набор базовых классических концептов - пространства, времени, движения, волн, частиц, полей, и т.д. Из них в дальнейшем были сконструированы более продвинутые концептуальные модели КМ в виде дуализма волны и частицы и единого континуума пространства и времени в ТО. С другой стороны, в этом состоят эволюционные ограничения познания, его "бутылочное горлышко", которое с трудом преодолевается все более мощным эмпирическим поиском.

Ой, не напоминайте только о Томасе Куне, я уже разоблачал его теорию научных революций в одном из своих роликов и повторяться не хочу.

По моему здесь достаточно убедительно изложено обратное.

Интуиция не является чем-то иррациональным и сверхъестественным , никто не получает знания свыше. Это такой же алгоритм, как сознательные логические умозаключения или эмоциональные реакции, просто более сложный и не всегда поддающийся расшифровке.

Эти неявные знания берутся из глубинных эволюционно сформированных структур мозга, например, пространственных, как предполагается здесь. Подробнее расписал здесь (см. под спойлером - Грандиозный абзац). Но во многом еще предстоит разобраться, исследовать, и понять как это влияет на процесс познания, включая физическое. Главное какими путями обойти эти эволюционные ограничения. Возможно в перспективе помогут технологии нейроинтерфейсов, и другие информационные технологии искусственного расширения восприятия и сознания.

Ньютон не выводил их из наблюдений, он просто творчески развивал идеи Галилея, Декарта и других гигантов

Ньютон нет, он обобщил наблюдения и эксперименты Галилея, Гюйгейнса, и др. физиков. Его формулировки отличаются от современных, но это не меняет сути, они имеют эмпирическое происхождение. Ньютон известен оптическими опытами, опытами с маятником, химическими. Он первым провел опытное измерение равенства гр. и инертной массы с доступной для его времени точностью, хотя не сформулировал это как принцип. Это сделал Эйнштейн в принципе эквивалениности.

Не яблоко стало источником закона всемирного тяготения, а естественный отбор идей в голове у Ньютона:)

Яблока не было. Были эмпирически установленные с помощью астрономических наблюдений законы Кеплера.

Просто мозг Ньютона оказался подходящим субстратом для того, чтобы физические мемы его предшественников мутировали и соединились в аксиоматику классической механики.

Да, все эмпирические предпосылки созрели. Вместо Ньютона мог быть другой, тот же Лейбниц.

Ну не могут данные сами по себе называться открытием или знанием. Никто не опубликует статью из одних данных или мат. расчётов, всё равно автор вынужден их как-то интерпретировать.

Так и написал, и привел примеры из истории, в контексте текущей (старой) теории. Что результаты противоречат ей, или не противоречат. Насчет интерпретации, если у авторов есть такая, то приводят, нет, так нет. Это отчеты о проведенных исследованиях, которые фактически являются и отчетом о затраченных средствах перед работодателем, фондами, и тп. Надеюсь вы в курсе что в науке тоже имеется бухгалтерия?;) Экспериментирование в отличии от теоретических работ весьма затратные. И это заявка на приоритет заявленных результатов, которые потенциально могут быть и крупным открытием.

Это именно специфика отчетов (scientific reports) об исследовании (не теоретических работ и обзоров, не книг, не эссе, и тп), там есть обязательные, строго оформленные разделы о постановке задачи (контексте исследования, в том числе теоретическом) и о результатах, и есть обсуждение в конце. Часто эти обсуждения чисто для проформы, в основном вода. Но иногда выдвигаются дельные предположения, реже объяснения, если в авторах фигурируют толковые теоретики.

Не стоит преждевременно объявлять экспериментальные данные открытием, чтобы не было казусов как в вашем ps.

Так их и не объявляли, официального отчета не было. В том то и дело, что у теоретиков не выдержали нервы) Они работали на опережение, а вдруг выгорит, будет приоритет. Это о ценности экспериментальных исследований, все определяется ими в конечном итоге. Обратное не верно, никто не кидается проверять первую попавшуюся теоретическую работу с предположениями, гипотезами, и тп. Хотя, как писал, по результатам такой проверки может быть сделано фундаментальное открытие из серии искали одно, нашли другое. Вопиющий исторический пример - Волластон разработал усовершенствованный спектроскоп, посмотрел спектр Солнца, и увидел в нем странные темные линии. Он решил что это разделительные линии цветов спектра) и зевнул фундаментальное открытие линейчатых спектров поглощения, которые затем переоткрыл Фраунгофер. К случайному великому открытию тоже нужно быть готовым)

Новое знание создаётся путём репликации, вариации и отбора. Это принципы универсальной эволюции.

Угу... мне представляется еще радикальнее, путем культурных мутаций - случайных открытий, изобретений, идей, некоторого аналога генетических. Пути познания в не малой степени не предсказуемы, что преподнесет реальность на следующем шаге невозможно предсказать точно, скорее угадать. Реальность до конца не познаваема, как утверждал Кант. До сих пор история науки подтверждала эту динамику. Пока не видно причин, что что-то изменится в будущем.

Что касается Поппера, то не особо придаю значение его идеям, их так же критикуют. Больше доверия методологам науки, которые сами занимались ей, и внесли вклад, те же Декарт, Лейбниц, Кант. К сожалению, с тех времен уже нет таких универсалов. Узкая специализация привела к тому, что философы с трудом понимают науку, и городят что-то свое, а специалисты философию, каждый о своем специфическом. Один из последних таких методологических трудов в обосновании ТС поверг в изумление, в нем предлагается вообще отказаться от эмпирической оценки и подтверждения таких теорий, достаточно уже имеющейся для существующих теорий. Типа, конец познания)

Из процесса познания выпадает одна из его сторон - сам человек, как субъект познания. Многие признают, например, что большую роль в познании играет интуиция, воображение (тот же Эйнштейн много писал об этом), но не пытаются понять как именно, какие механизмы стоят за этим, и соответственно, возможности и ограничения. И главное, тут же изгоняют из своих методологических наработок какое-либо намек на субъективность, как бы не обвинили в нарушении священной коровы физического познания - принципа объективности) Конечно такие исследования имеют междисциплинарный характер. Такие в истории физики были, напр, сотрудничество К. Юнга и В. Паули в некотором отношении имевшие весьма интересные результаты, как архитипические представления влияют на формирование физических идей. Это как раз попытка понять глубже, как работает физическая интуиция. Правда другие отнеслись к этому занятию Паули скептически, повертев рукой у виска) Но рано, или поздно, эти проблемы придется решать, иначе можно упереться в пределы человеческих возможностей к познанию, и как не печально, даже не узнать об этом.

Вы правы, что эмпирический материал играет ключевую роль, но только в контексте проверки предсказаний. Из одних фактов теория не выводится, это сродни самозарождению. Новая теория всегда приходит на смену старой, наследуя её предсказания, но с некоторыми мутациями.

Какое сомозарождение? Писал, что имеются три источника. Посмотрим на примере классической механики. Первый, самый важный новый эмпирический материал - законы которые Ньютон установил, это эмпирическая модель теории. Второй, знания из предыдущих представлений в этой области, которые подкреплены практикой применения - принцип относительности Галилея (в общем случае может быть, как прямой перенос, так и модифицированный с учетом принципа соответствия, как а СТО). Третий, метафизические предположения, которые невозможно проверить опытным путем - абс. пространство и время, это интуитивные представления Ньютона. Он считал что они от бога, такие были времена. На основании всего этого вырабатывается концептуальная модель теории. Этот раздел есть и в других статьях вики для других теорий, хотя разделения между моделями не строгое. И наконец последнее, подбираются подходящие формализмы - мат. модели теории. Их может быть много, они перечислены в преамбуле статьи, там их 4, здесь 12-ть, на самом, деле их еще больше. Любой математический аппарат, методы, которые интерпретируются в концептуальной модели теории являются эквивалентными формализмами этой теории. Все эти связи исследуется в теории моделей, хотя реальные теории, как лингвистические сущности, богаче этих представлений. Тем не менее, там хорошо демонстрируются структурные связи внутри научных теорий.

Без объяснения любой факт можно описать фразой "произошло что-то непонятное", он даже до публикации не дойдёт.

Это как раз самое интересное, что обнаружили что-то новое, что не объясняется существующими теориями. Еще интереснее, когда результат впрямую противоречит их основаниям. Для этого на языке старой теории выписывается условие противоречия ее посылкам. Результат опытов М-М выписывается в терминах классической механики в которой скорость могла быть любой, как v <= с, где c - ск. света. Это новая подтвержденная информация о реальности, которой нет в старых теориях, и строгая посылка для разработки новой теории, а не бесконечного перебора гипотез, как это было до факта установления этого противоречия. То же самое можно сказать о других теориях. Для КМ это установление факта противоречия классической термодинамике излучения (спектра) абс. черного тела. Для ОТО факта установления отклонения прецессии Меркурия в сравнении с расчетной по ньютоновской теории гравитации. Раньше установления указанных противоречий эти теории не по явились бы. Просто не было бы оснований, новой информации о свойствах реальности.

До публикации как раз доходит все и часто с избытком, печатают всякие фуфловые не проверенные результаты, потому как хотят застолбить приоритет. Вспоминается недавний случай с комнатной сверхпроводимостью. Если конечно не работают на военку или коммерцию. Как только результат становится достоянием научного сообщества через публикации или доклада на конфе, и признается им, оно и считается моментом открытия. Это общепринятая практика и терминология.

Но я в неё не верю, как и в эмпирический метод познания. Теории не выводятся из опыта, они эволюционируют из догадок, предположений и гипотез. Роль наблюдения и эксперимента сводится к тому, чтобы помочь выбрать одну из нескольких уже предложенных теорий, а не совершить открытие.

Тут явное противоречие. Откуда берутся эти догадки, гипотезы, предположения? Вообще, новое знание? Из нового эмпирического материала, предыдущих теорий из этой области и метафизический предположений. На этой основе строятся новые концептуальные модели области исследования. Ключевое в этом именно новый эмпирический материал, именно он привносит новое содержание в теорию, которого не было в старых. И уже затем исходя из концептуальной модели подбирается формальная. Их может быть несколько эквивалентных удовлетворяющих концептуальной, и требованиям формальных моделей старых теорий в предельных случаях (по принципу соответствия). Затем предсказания, экспериментальная проверка, подтверждение, и новые предсказания. Таков жизненный цикл фундаментальных физических теорий.

Вот и у нас примерно так же, по крайней мере с точки зрения эволюционной эпистемологии Поппера.

Поппер это хорошо, нужно только помнить, что строгая фальсификация по нему текущей теории делается из более общей теории, остальное все не столь серьезно, типа, позволяет оценить теория научная, или нет. Тоже хорошо. Например, классическая механика строго фальсифицируется только через СТО, СТО через ОТО. А ОТО строго пока ничем не фальсифицируется, видимо только после появления общепринятой и подтвержденной теории кв. гравитации. А она появится только тогда, когда очередной эксперимент или наблюдение из серии искали одно, нашли другое неожиданно не выявит противоречие основам ОТО или КТП (СМ), а лучшей той и другой. И это может не быть ТС, ТПГ, или другие кандидаты, а новая теория на совершенно другой концептуальной основе. В этом интрига. Ждем новостей из лаб)

ps. Для иллюстрации взаимоотношения теории и эксперимента анекдотическая история имевшая место в 2016 г. на БАКе, вызвавшая массу юморных комментариев в сети. Экспериментаторы никакого повода к "открытию" не давали, тем не менее, небольшое отклонение в данных вызвало бурный всплеск активности теоретиков издавших более 500 статей с теориями его возможного происхождения)

Например, Майкельсон и Морли опровергли экспериментом теорию эфира, но они ничего не открыли. Открыл Эйнштейн своей теорией относительности.

Это неожиданный результат эксперимента, искали подтверждение одного - "эфирного ветра", нашли подтверждение другого - постоянства скорости света. Напомню, что теоретически это предсказывалось в теории Максвелла, но в это мало кто верил. Так что это именно фундаментальное экспериментальное открытие, сделанное случайно, и послужившее одной из экспериментальных основ разработки СТО. Все фундаментальные экспериментальные открытия несут элемент случайности, непредсказуемости, и становятся возможными, когда созревают условия, экспериментальные технологии. Классический пример - открытие радиоактивности. Это такие "культурные мутации" наряду со случайными изобретениями, которые дают начало новым теориям и наукам. Не путать с экспериментальными подтверждениями предсказаний теорий, типа, открытия ЧД, ГВ, гр. линзирования предсказанных ОТО, и тому подобное. Вот тут целый трактат на эту тему написал)

Я бы не называл открытием экспериментальный результат, необъяснимый в рамках существующих теорий.

Если он поставлен корректно, воспроизводится, и противоречит основаниям существующих теорий, как приводил примеры выше, то это заявка на новую теорию, если не противоречит, но и не объясняется ими, то это все равно открытие имеющее статус не объясненного феномена, таких полно. Относительно недавний пример - открытие ускоренного расширения Вселенной. Хотя это не эксперимент, а астрофизическое наблюдение, это не принципиально

И никакая «новая парадигма» или «теория всего» здесь не поможет. Сколько бы ещё не произошло научных революций, ни одна новая теория, согласно принципу дополнительности Бора, не может делать предсказаний, противоречащих предсказаниям старой теории.

Тут путаница с принципами. Может. Например, в классической механике нет аналога принципа суперпозиции квантовой механики, с помощью которого можно делать такие новые предсказания. Эйнштейн и Ко с его помощью в виде мысленного эксперимента описали явление впоследствии названное запутанностью, который должен был продемонстрировать неполноту КМ. Математическая модель классической механики является предельным случаем мат. модели квантовой при определенных условиях, и такие отношения между поколениями работающих теорий описываются методологическим принципом соответствия. Он играет важную эвристическую роль при поиске мат. аппарата новых физических теорий. А принцип дополнительности это дополнительность волнового и корпускулярного описаний в КМ, пространственного и временного в ТО, является следствием конструктивного характера процесса познания с отсылкой к теории познания И. Канта.

О конструктивизме

С помощью принципа дополнительности конструируются концепты новых физических теорий, для КМ это корпускулярно-волновой дуализм, для ТО пространственно-временной континуум, для КТП корпускулярно-полевой дуализм, хотя многим физикам это мало что говорит. А находится это в рамках теории познания И. Канта, который первым обосновал конструктивистский характер познания (обзорно 1, 2), под сильным влиянием которой находился Н. Бор в период разработки методологического обоснования КМ (1, 2).

Если с этой точки зрения рассмотреть современные теории кандидаты в теорию кв. гравитации, то для ТС выбран концепт струны, точнее многомерной струны, как объекта не нулевого размера. Но это разновидность концепта волны, пусть и многомерной, поэтому принципиально нового содержания в теорию он не привнес, только способствовал выработке нового формализма, который воспроизводит известные результаты ОТО и КТП, но физических предсказаний за их пределами не дает. Напомню, что КМ и ОТО кроме предсказаний новых явлений, делают квантовые и релятивистские поправки к известным классическим результатам, которые нашли подтверждение. Попадалась информация с одной такой струнной поправкой к ГВ, также имеются предсказания по косвенным наблюдениям.

К сожалению, угадать работающие комбинации концептов практически не возможно, только с помощью новых эмпирических данных, которые в прямую противоречат предыдущим концептуальным представлениям, и наводят на решение. Для ТС это методологическое требование не выполняется. Весьма вероятно, проблемы с созданием новых работающей фундаментальной теорией кроются в ограниченном наборе работающих концептов, которые соответствуют классическим понятиям пространства, времени, движения, частиц, волн, полей, массы, сред, газа, жидкости, и других. Из набора которых конструируются приближенные концептуальные модели новых областей исследования. Так в теории петлевой гравитации таким концептом является концепт сети, пространственно-временной сети, т.е. вместо комбинации двух концептов используется уже три. В теории причинной триангуляции для такого расширения пытаются использовать концепт причинно-следственной связи. Но это по прежнему попытки фактически угадать работающую комбинацию концептов, т.к. их разработка не идет от новых опытных данных. Также формализмам этих теорий еще предстоит пройти согласование с формализмами ОТО и КТП по некоторым критериям для выполнения принципа соответствия. Мне импонирует подход принятый в ТПГ, и идеи которые генерирует К. Ровелли, весьма интересные.

Сорру, случайно запостил комент не в ту тему.

И никакая «новая парадигма» или «теория всего» здесь не поможет. Сколько бы ещё не произошло научных революций, ни одна новая теория, согласно принципу дополнительности Бора, не может делать предсказаний, противоречащих предсказаниям старой теории.

Неточности методологического характера, видимо спешили с публикацией) Конечно же может. Например, в классической механике нет аналога принципа суперпозиции в квантовой механике, с помощью которая можно делать такие новые предсказания. Математическая модель классической механики является предельным случаем мат. модели квантовой при определенных условиях, и это называется принципом соответствия. Он играет важную регулятивную роль при поиске мат. аппарата для новых физических теорий. А принцип дополнительности это дополнительность волнового и корпускулярного описаний в КМ, пространственного и временного в ТО.

С помощью этого принципа конструируются концепты новых физических теорий, для КМ это корпускулярно-волновой дуализм, для ТО пространственно-временной континуум, для КТП это корпускулярно-полевой, хотя на это не обращают особого внимания. Для ТС выбран концепт струны, точнее многомерной струны, как объекта не нулевого размера. Но это разновидность концепта волны, пусть и многомерной, поэтому новых идей в теорию он не привнес, а только новый формализм, который воспроизводит результаты ОТО и КТП, но новых физических предсказаний за их пределами не дает. К сожалению, угадать такие работающие комбинации концептов практически не возможно, только с помощью новых эмпирических данных, которые в прямую противоречат предыдущим концептуальным представлениям. Для ТС это методологическое требование не выполняется. Похоже проблемы с созданием новых работающей фундаментальной теорией кроются в ограниченном наборе работающих концептов, которые соответствуют классическим понятиям пространства, времени, движения, частиц, волн, полей, сред, массы, и некоторых других. Так в теории петлевой гравитации таким новым концептом является концепт сети, пространственно-временной сети, т.е. дуализм расширяется уже до тринитаризма. В теории причинной триангуляции для такого расширения пытаются использовать концепт причинно-следственной связи. Но это по прежнему попытки фактически угадать работающую комбинацию концептов, т.к. разработка не идет от новых опытных данных. И формализмам этих теорий еще предстоит пройти согласование с формализмами ОТО и КТП по некоторым критериям для выполнения принципа соответствия. Мне импонирует подход принятый в ТПГ, и вообще идеи которые генерирует К. Ровелли, весьма толковые.

Проблема в том, что у нас имеются только ограниченное множество классических физических концептов, и из них конструируются новые теории, но нет истинно квантовых концептов, и истинно релятивистских концептов. Они за пределами наших возможностей познания и сознания, т.к. эволюция выработала эти механизмы для жизни на макроскопическом уровне реальности. Возможно такие концепты имеются у разумных существ из микромира, или обитающих на масштабах мегамира) Если такие фантастические твари имеются конечно. А нам, как обитателям макромира, возможно придется добавить к имеющимся физическим концептам концепты из биологии и психологии, коль скоро пока не видно способов их сведения к физическим, кроме того, что только стенать, что они эмерджентные феномены) Физикам придется несколько поступиться принципом объективности. Есть некоторые указания на движение процесса познания в этом направлении, и это вполне в духе теории познания И. Канта, под сильным влиянием которого находился Н. Бор в период разработки методологического обоснования КМ.

Не смотря на некоторые неточности, плюс за пафосный дух статьи)

Один из пользователей провел регулярное тестирование моделей на умножение - результат.

Несколько преувеличиваете возможности трансформеров в этой области) ChatGPT уже не та ЯМ, что была 2 года назад. Это обросший коммерческий сервис с миллионами запросов в день. Было бы странно, если он часто выдавал ошибки в арифметических операциях. Точно не известно как там обрабатываются запросы, это закрытая информация, даже по числу параметров самой модели, не говоря о таких деталях. Но в новостях неоднократно писалось о его улучшениях, устранении ошибок, доработках, и тп. Возможно с арифметическими подсчетами также ведется отдельная обработка, если необходимые плагины не используются. Почему это возможно? Трансформеры, как прямые сети, в текущей архитектуре, в принципе не могут выработать эти процедуры (генерализации) для любых чисел. Для этого она должна поддерживать циклы внутри сети и память для промежуточных результатов, т.е. быть рекуррентной. Сейчас имеется только внешний авторегрессивный цикл и контекстное окно. Можно обучит чат контекстно, например, сложению по шагам, т.е. избавиться от цикла, но из-за конечности объема контекстного окна, для очень больших чисел все равно будут возникать ошибки. В одной из статей этот случай рассматривался. Возможно нечто подобное используется в ChatGPT.

Что происходит на самом деле? Сеть использует все имеющиеся в обучающей выборке примеры для выработки приближенной (аппроксимационной) модели сложения. Часто видел примеры в которых чат выдает близкие, но не точные результаты, если даже включен жадный режим сэмплирования. Проблема в том, что целых чисел бесконечное множество, а вещественных несчетное, поэтому в обучающей выборке даже большую их часть в принципе указать нельзя, и соответственно выработать точную модель для этих операций.

Приведенный пример со сложением по модулю демонстрирует это. Во первых, его алгоритм даже не циклический, как в сложении, во вторых, p при обучении задавалось равным 113, т.е. число всех пар 113*113, не такое уж большое, для обучения использовалось 30%. Для этого числа точная аппроксимация выстраивается, и ее можно выписать даже в виде формул. Но если бы число было на порядок больше, то сомнительно, что выстроилась, модель была только приближенной.

Забавный факт, нативно человек также подсчитает число предметов приближенно благодаря чувству численности, и точность подсчета определяется законом Вебера (отношение разброса ошибки к числу предметов константа). На основании этой эволюционно выработанной интуиции (в каком-то виде она имеется и у животных) у человека возникли абстрактные числа и счет для любых чисел. Дети на конечном числе примеров вырабатывают процедуры счета для любых чисел, и они, в отличии от запоминания конкретных примеров в ассоциативной памяти (таблиц сложения, умножения), запоминаются в процедурной. Такой памяти у трансформеров пока нет. У них фактически только аналог ассоциативной с разной силой связи (1, 2), что позволяет строить аппроксимационные модели разной степени точности.

1
23 ...

Information

Rating
4,541-st
Registered
Activity