Ядерная физика которая изменила многое, работает с вещами имеющимися на Земле в изобилии (относительном). Её же наследница — физика частиц изучает (в основном) объекты которые в природе встречаются только в космических лучах. Так что в плане революции тут перспективы не сильно радостные.
GPS работает благодаря ОТО, но сама идея совершенно к ней не привязана. Можно сказать что GPS это способ «открыть» теорию относительности (если бы она была не известна).
Кстати, найти технологию которая появилась благодаря СТО/ОТО еще сильно подумать надо.
Зато уже в 1859 присмотревшись к орбите Меркурия стали сомневаться. С тех пор точность возросла на порядки, а пока ничего не видно.
Да и в принципе СТО/ОТО вовсе не перевернули ничего в нормальной жизни. Поэтому думать что новая «почти ОТО» теория с почти незаметными поправками что-то сильно изменит весьма оптимистично.
Нарушение законов Ньютона мы можем просто наблюдать, ничего не делая. Пока просто наблюдая заметить нарушения СТО/ОТО как-то не получается. И даже активно ставя эксперименты для их проверки.
Так что если такие условия и существуют они нам а) не известны, б) технологически не доступны.
Законы сохранения это непроверенные допущения? Это даже не смешно. Нет ни одного эксперимента или наблюдения которое бы не вписывалось в известную картину мира.
Так forgotten и написал «представление о существующих частицах и масштабах энергий», весь этот миллион (и больше) теорий должен иметь совершенно одинаковое представление об известных нам частицах и энергиях.
Да, может быть новая физика за пределами доступными эксперименту, только шансов что она изменит что-то в быту мало, тк мало кто захочет носить с собой мобильник размером с LHC.
Ну тахионы понятно они хотя бы быстрее скорости света (только их нет). А нейтрино-то чем лучше радиоволн? Скорость та же, ну летают через стены, вроде хорошо, но из-за этого их поймать практически не возможно — плохо.
Мнение скорее всего неправильное, тк кроме «айфонов и потреблядства» есть биотехнологии, в которых простор фантазии не ограничен, а сложность изучаемых систем за гранью понимания (пока).
Сейчас человечество делает только первые шаги в понимании как на самом деле работают живые клетки и организмы в целом. В этой области еще очень долго (возможно никогда) нельзя будет сказать «мы поняли всё».
Можно считать что мышь бегает на топливных элементах, плотность энергии не сильно выше аккумуляторов, а вот эффективность расходования значительно лучше.
Если тонкая оптимизация выявила потребность в изменении семантики, значит кто-то сильно накосячил раньше на этапе алгоритмических оптимизаций и профилирования))
Я не предлагал писать оптимизирующий компилятор, а скорее «дооптимизатор» который можно постепенно научить известным ручным трюкам, тупо говоря «этот и этот код эквивалентны». А с комбинаторным «взрывом» как раз должны помочь генетические алгоритмы.
Но это дело вкуса, по мне так выигрыш не стоит затраченных усилий. Даже программы которые пускают на Tier 1 кластеры (а это слоты на миллионы CPU часов) никто так не вылизывает.
Процессорное время всяко дешевле времени людей, как минимум нужно комбинировать оба подхода.
Такие вещи есть смысл делать только, когда все алгоритмические оптимизации исчерпаны. Значит у нас есть более-менее конечный вариант кода сгенерированный оптимизирующим компилятором. Простая перестановка инструкций это конечно слегка примитивно, имеет смысл добавить «эквивалентные преобразования кода» (например haddp <-> shufp + addp и т.д.).
Понятно что сразу сесть и написать их все будет трудновато. Но если список расширять каждый раз когда «человек оказался умнее машины», то очень скоро можно будет в 99% случаев просто закинуть программу на кластер и идти пить чай)))
Весит всего 50гр + WiFi + 512МБ памяти и 1ГГц проц. На основе такой можно более автономного робота сбацать, тк мощи хватит на любые алгоритмы (можно даже распознавание образов прикрутить минимальное).
По мне, если уж очень хочется оптимизировать на таком низком уровне, проще использовать генетические алгоритмы для определения оптимального порядка инструкций, чем вручную возиться.
Здесь это обсуждать наверное но не место, но торгуют далеко не только акциями. В стремлении выделить «процесс» и изобрели сложные и производные финансовые инструменты, в которых оригинальный смысл доли чего-то в чём-то практически полностью скрыт.
Я написал «ничего реального не продали и не купили», имеется в виду реального=материального. К тому же я не говорил, что я в принципе против бирж. У них есть полезная роль. Проблема в том что они стремятся от неё избавиться и сконцентрироваться на постоянно усложняющемся «процессе», который сам по себе бесполезен и даже вреден.
Кризис получается когда после множества таких «невинных» переходов деньги всего рынка «вдруг» оказываются в руках нескольких контор. Контор которые ничего реального не произвели, не продали и не купили, а единственным их занятием была игра на финансовых биржах.
GPS работает благодаря ОТО, но сама идея совершенно к ней не привязана. Можно сказать что GPS это способ «открыть» теорию относительности (если бы она была не известна).
Кстати, найти технологию которая появилась благодаря СТО/ОТО еще сильно подумать надо.
Да и в принципе СТО/ОТО вовсе не перевернули ничего в нормальной жизни. Поэтому думать что новая «почти ОТО» теория с почти незаметными поправками что-то сильно изменит весьма оптимистично.
Так что если такие условия и существуют они нам а) не известны, б) технологически не доступны.
Да, может быть новая физика за пределами доступными эксперименту, только шансов что она изменит что-то в быту мало, тк мало кто захочет носить с собой мобильник размером с LHC.
Сейчас человечество делает только первые шаги в понимании как на самом деле работают живые клетки и организмы в целом. В этой области еще очень долго (возможно никогда) нельзя будет сказать «мы поняли всё».
Я не предлагал писать оптимизирующий компилятор, а скорее «дооптимизатор» который можно постепенно научить известным ручным трюкам, тупо говоря «этот и этот код эквивалентны». А с комбинаторным «взрывом» как раз должны помочь генетические алгоритмы.
Но это дело вкуса, по мне так выигрыш не стоит затраченных усилий. Даже программы которые пускают на Tier 1 кластеры (а это слоты на миллионы CPU часов) никто так не вылизывает.
Такие вещи есть смысл делать только, когда все алгоритмические оптимизации исчерпаны. Значит у нас есть более-менее конечный вариант кода сгенерированный оптимизирующим компилятором. Простая перестановка инструкций это конечно слегка примитивно, имеет смысл добавить «эквивалентные преобразования кода» (например haddp <-> shufp + addp и т.д.).
Понятно что сразу сесть и написать их все будет трудновато. Но если список расширять каждый раз когда «человек оказался умнее машины», то очень скоро можно будет в 99% случаев просто закинуть программу на кластер и идти пить чай)))
Весит всего 50гр + WiFi + 512МБ памяти и 1ГГц проц. На основе такой можно более автономного робота сбацать, тк мощи хватит на любые алгоритмы (можно даже распознавание образов прикрутить минимальное).
По мне, если уж очень хочется оптимизировать на таком низком уровне, проще использовать генетические алгоритмы для определения оптимального порядка инструкций, чем вручную возиться.