Можно выявить количественную меру сложности кода. Она зависит от количество условий, количество связей, количество мутабельных переменных.
Мера критичности зависит от вероятности регрессии багов и времени исправления.
Еще посмотреть статистику на релизе, там даже самые редкие баги выплывут с 100% вероятностью. Если разброс большой, то это проблема.
Если баг который долго чинили, через время опять переокрывается - симптом проблемы. Если исправление бага приводит к цепочки других багов - симптом катастрофы.
Так было бы удобно, можно в реальном времени смотреть проблемы кода и сколько времени эти проблемы тратят времени.
Если перенести все физические величины на натуральные значения - это бы упростила создание мат. моделей.
Но суть системы СИ и констант в другом. Например мера силы - это Ньютон. Сила зависит от массы, перемещения и времени. Масса - это кг. перемещение - это метры, время - секунды.
F = k*M^*S^*T^. Где ^ - это неизвестная степень. k - коэффициент, который находится с помощью опытов. Достаточно запомнить что ньютон = кг*м*с^-2; Это и будет неизвестной степенью. Либо можно и не запоминать, разнообразие степеней мало, как и физических величин. Можно додуматься по зависимостям, прямой или обратной. Все равно все нелинейные и степенные функции одинаковы в комплексном пространстве.
Все физические процессы и законы - это подобные степенные функции, точнее нелинейные дифференциальные уравнения высокого порядка.
Скорость и ускорение - это не физические величины, а составная мера, производные от перемещения.
Собственно так и можно придумать свою меру и единицу измерения. Физические формулы и законы не имеет смысла зубрить.
Этим методом еще проверять физичность результата. Если там корявые степени - значит было перемножены не те величины, массу нельзя умножить на метры, например. Или сравнивать теплое с мягким.
Да, в оригинальном пейпере про это и написано. Были похожие генетические методы исследования в палеонтологии, для определения общих предков и мутаций. Значит имеет практическую ценность.
В синергетике, эмерджентное свойство не появляется из ниоткуда, а уже содержится в изначальных элементах и в среде. Значит сложность(комплексность) атомов - выше белков. А если учитывать отсутствие принципа локальности по квантовой механики, то придется учитывать всю материю. А мы даже не может решить задачу о трех телах и продолжают открывать все новые агрегатные состояния.
Под циклическиими реакциями имел в виду автоколебательную реакцию Белоусова-Жаботинского.
Белоусову вообще не поверили, что такая реакция возможна. И таких реакция что-то не нашли и особо не ищут химики. С химической стороны это похоже сложные реакции, с математической все проще.
Под рекурсией имел в виду нелинейную рекурсию, что является основным условием для возникновения хаоса. Существует асинхронные процессоры, где нет тактовых частот и синхронизации. В ней используются безусловные бесконечные рекурсии, самосинхронизация, асинхронная логика. Для ИИ идеально подойдет.
Тьюринг еще об этом говорил, что для ИИ нужна возможность ошибаться и придумал отдельные машины Тьюринга для этого.
Синергетика никуда не уходила, это все же самая молодая математика. Там как понял, затык был только в одном месте, - в том что математики не умеют решать нелинейные дифференциальные уравнения высокого порядка, а из таких уравнений и состоит модель и все процессы. И химики не умееют в циклические реакции, а программисты в рекурсию.
PS Перечитал оригнал пейпера, там опять журналисты изналисовали. Пейпер лишь о количественной и вероятностной мере сложности и что ее удобно мерить спектрографией. И они все же ссылаются на синергетику, и на колмогоровскую сложность, и о ее неразрешимости и на машину Тьюринга. И ни слова о гипотезах эволюции.
То что они ищут и измеряют - это колмогоровская сложность. Длинна гена, кодирующего белок - и будет оптимальной сложностью. Проблема что в ДНК хранится лишь малая часть информации, белки имеют не просто химическую валентность, но и пространственную организацию, и это динамическая система. Сравнение сложности белков и молекул - ничего не даст, это пока неразрешимая задача. Это никак не связано с гипотезой происхождения жизни.
Эмерджетность - это математическое понятие. Для нее уже создан раздел математики. Уже исследованы генетические и эволюционные алгоритмы.
Если они не ссылаются на эти исследования - значит теория не имеет новизны.
Да, поэтому ввели теорию множеств и функан.Там нет цифр, это низкоуровневая математика.
Более важная проблема в математике - это проблема нелинейности. Нелинейность порождает бесконечность и хаос. В материальном мире линейных процессов вообще не существует. А математики еще не научились решать нелинейные деферициальные уравнения даже второго порядка, только числено.
В СССР было несколько систем образования, так как старая устарела. В некоторых школах и лицеях вводили экспериментальные системы, там даже учебники не успели сделать. Одна из них - колмогоровская система образования. Она показала отличные результаты для физмат-школ. Не знаю ни одного математика который бы не учился там, а в обычной школе.
Еще была дополнительная система дошкольного образования. С 5-летного возраста обучали английскому, программированию и множество кружков. ДЮСША были вроде по всей стране.
После реформы в 90-х информатику полностью убрали, оставили только для 11класса основы пк. Программирования не было в обычных школах, не было и учителей. Колмогоровскую систему запретили, оставили только некоторые физмат-школы. Но возможно у них система тоже поменялась.
В 80-90 компьютеров было много в учебных заведениях. ДЮСШ обучала дошкольников бейсику. И это в отдаленном сибирском селе. Лично приходилось складировать сотни устаревших компьютров уже в 2000.
Либералы, когда пришли к власти, первом делом отменила информатику, астрономию, труды и музыку.
А как работают архитекторы в крупных компаниях?
Они так же смотрят каждый мердж реквест и чинят сами тех.долг?
Можно выявить количественную меру сложности кода. Она зависит от количество условий, количество связей, количество мутабельных переменных.
Мера критичности зависит от вероятности регрессии багов и времени исправления.
Еще посмотреть статистику на релизе, там даже самые редкие баги выплывут с 100% вероятностью. Если разброс большой, то это проблема.
Если баг который долго чинили, через время опять переокрывается - симптом проблемы. Если исправление бага приводит к цепочки других багов - симптом катастрофы.
Так было бы удобно, можно в реальном времени смотреть проблемы кода и сколько времени эти проблемы тратят времени.
А какой-нибудь пример можно?
На практике проблем не возникает, достаточно сравнительной меры. Физических величин всего 7. И есть способы как найти главные параметры.
Те же инженеры с 3d-принтером, которые измеряют различные типы прочности. Они используют тот же метод.
Другой пример, если математику нужно измерить площадь льдины на полюсе, но он забыл линейку.
То он вводить свою меру - метр с хуем, либо локоть = k*м.
Тогда он может вычислить площадь в системе СИ. А коэффициент точно узнать, сравнив с эталоном.
Проблема только в ошибках измерения, чем меньше мера - тем больше ошибка будет накапливаться. Поэтому береговую линию не измерить.
Если перенести все физические величины на натуральные значения - это бы упростила создание мат. моделей.
Но суть системы СИ и констант в другом. Например мера силы - это Ньютон. Сила зависит от массы, перемещения и времени. Масса - это кг. перемещение - это метры, время - секунды.
F = k*M^*S^*T^. Где ^ - это неизвестная степень. k - коэффициент, который находится с помощью опытов. Достаточно запомнить что ньютон = кг*м*с^-2; Это и будет неизвестной степенью. Либо можно и не запоминать, разнообразие степеней мало, как и физических величин. Можно додуматься по зависимостям, прямой или обратной. Все равно все нелинейные и степенные функции одинаковы в комплексном пространстве.
Все физические процессы и законы - это подобные степенные функции, точнее нелинейные дифференциальные уравнения высокого порядка.
Скорость и ускорение - это не физические величины, а составная мера, производные от перемещения.
Собственно так и можно придумать свою меру и единицу измерения. Физические формулы и законы не имеет смысла зубрить.
Этим методом еще проверять физичность результата. Если там корявые степени - значит было перемножены не те величины, массу нельзя умножить на метры, например. Или сравнивать теплое с мягким.
Да, в оригинальном пейпере про это и написано. Были похожие генетические методы исследования в палеонтологии, для определения общих предков и мутаций. Значит имеет практическую ценность.
В синергетике, эмерджентное свойство не появляется из ниоткуда, а уже содержится в изначальных элементах и в среде. Значит сложность(комплексность) атомов - выше белков. А если учитывать отсутствие принципа локальности по квантовой механики, то придется учитывать всю материю. А мы даже не может решить задачу о трех телах и продолжают открывать все новые агрегатные состояния.
Под циклическиими реакциями имел в виду автоколебательную реакцию Белоусова-Жаботинского.
Белоусову вообще не поверили, что такая реакция возможна. И таких реакция что-то не нашли и особо не ищут химики. С химической стороны это похоже сложные реакции, с математической все проще.
Под рекурсией имел в виду нелинейную рекурсию, что является основным условием для возникновения хаоса. Существует асинхронные процессоры, где нет тактовых частот и синхронизации. В ней используются безусловные бесконечные рекурсии, самосинхронизация, асинхронная логика. Для ИИ идеально подойдет.
Тьюринг еще об этом говорил, что для ИИ нужна возможность ошибаться и придумал отдельные машины Тьюринга для этого.
Синергетика никуда не уходила, это все же самая молодая математика. Там как понял, затык был только в одном месте, - в том что математики не умеют решать нелинейные дифференциальные уравнения высокого порядка, а из таких уравнений и состоит модель и все процессы. И химики не умееют в циклические реакции, а программисты в рекурсию.
PS Перечитал оригнал пейпера, там опять журналисты изналисовали. Пейпер лишь о количественной и вероятностной мере сложности и что ее удобно мерить спектрографией. И они все же ссылаются на синергетику, и на колмогоровскую сложность, и о ее неразрешимости и на машину Тьюринга. И ни слова о гипотезах эволюции.
То что они ищут и измеряют - это колмогоровская сложность. Длинна гена, кодирующего белок - и будет оптимальной сложностью. Проблема что в ДНК хранится лишь малая часть информации, белки имеют не просто химическую валентность, но и пространственную организацию, и это динамическая система. Сравнение сложности белков и молекул - ничего не даст, это пока неразрешимая задача. Это никак не связано с гипотезой происхождения жизни.
Эмерджетность - это математическое понятие. Для нее уже создан раздел математики. Уже исследованы генетические и эволюционные алгоритмы.
Если они не ссылаются на эти исследования - значит теория не имеет новизны.
Теперь понятно, спасибо.
https://sergeyteplyakov.blogspot.com/2013/03/di-service-locator.html
Имел в виду ServiceLocator. Примитивная реализация DI, никаких расходов.
Просто ни разу в практике не приходилось встречаться с задачами, где бы понадобилась сложная реализация DI со сложными зависимостями.
Зачем использовать фреймворк DI, который жрет перф и требует правки байт-кода?
Он выполняет примитивную функцию, которую может заменить ServiceLess на несколько строк кода или фабрики.
Какой же лютый бред. Каким образом эти британские ученные зарабатывают на таких статьях? Гранты на такое дерьмо не дадут.
Да, поэтому ввели теорию множеств и функан.Там нет цифр, это низкоуровневая математика.
Более важная проблема в математике - это проблема нелинейности. Нелинейность порождает бесконечность и хаос. В материальном мире линейных процессов вообще не существует. А математики еще не научились решать нелинейные деферициальные уравнения даже второго порядка, только числено.
Удобно же устроились в MIT. Пишешь с помощью нейросетей бредовые научные статьи, бухаешь и поглащаешь гранты.
Еще MVVM хорошо подойдет для unity и согласуется со сервисами. А DI слишком много багов тащит, обычный service-локатор и фабрика проще.
Как вы решаете проблему перекрестных ссылок?
Вырвать одну рекомендацию из контекста, взять тупой пример из говнокода, и делать вывод о какой-то вредности чистого кода.
Нет ни одной причины делать лапшу-код, это всегда долго, дорого.
В чистом коде наследование запрещено
В СССР было несколько систем образования, так как старая устарела. В некоторых школах и лицеях вводили экспериментальные системы, там даже учебники не успели сделать. Одна из них - колмогоровская система образования. Она показала отличные результаты для физмат-школ. Не знаю ни одного математика который бы не учился там, а в обычной школе.
https://mat.univie.ac.at/~neretin/misc/reform/reforma1965.html
Еще была дополнительная система дошкольного образования. С 5-летного возраста обучали английскому, программированию и множество кружков. ДЮСША были вроде по всей стране.
После реформы в 90-х информатику полностью убрали, оставили только для 11класса основы пк. Программирования не было в обычных школах, не было и учителей. Колмогоровскую систему запретили, оставили только некоторые физмат-школы. Но возможно у них система тоже поменялась.
В 80-90 компьютеров было много в учебных заведениях. ДЮСШ обучала дошкольников бейсику. И это в отдаленном сибирском селе. Лично приходилось складировать сотни устаревших компьютров уже в 2000.
Либералы, когда пришли к власти, первом делом отменила информатику, астрономию, труды и музыку.