Естественно там нативный, максимально оптимизированный код на C. Это как раз позволяет, писать на NumPy быстрый код даже на таком медленном языке как Python. Особенно если вы будете оперировать предоставленными абстракциями, а не спускаться до ручного итерирования элементов.
PS: в частности есть книжка от автора Concorde "The Traveling Salesman Problem: A Computational Study" там есть много подробностей, она лежит на libgen
Дискретная оптимизация подразумевает различные методы. В данном случаи используется формулировка, как задачи целочисленного программирования. Прелесть в том, что матрицу подогнать конечно теоретически можно, но на практике это довольно сложно. Уже давал в предыдущей статье автора ссылку на SOTA решатель, основанный на тех же принципах https://en.wikipedia.org/wiki/Concorde_TSP_Solver, он может решать инстансы до десятков тысяч вершин. В то время как другие наивные подходы уже взрываются на паре десятков.
Макроэкономика так не работает. Экономически агенты не создают и не уничтожают деньги, они лишь переходят от одних к другим. Для сворачивания денежных потоков необходимым условием является то, что деньги становится бессмысленно инвестировать. Для этого необходима существенная дефляция, в случаи инфляции, не инвестированные деньги, обесцениваются. Так как монетарные власти, всегда могут произвести инжекцию денежной массы в экономику это не является проблемой. Тем более, что со времен великой депрессии, и широко известной дефляционной спирали смерти, уровень безработицы является одной из основных переменных таргетируемых экономической политикой.
С другой стороны снижение зарплаты разработчиков при развитии AI-assisted технологий, может являться возможным сценарием. Так как IT это значительная часть среднего класса, то сужение потребления повлияет и на остальные отрасли, в том числе и на тех кто больше всего "зубоскалит на зарплаты айтишников". В результате это может привести к увеличению уровня неравенства, богатые станут еще богаче, а бедные еще беднее.
обнаруживает, что его сипулька подешевела на 3% и он срочно шлёт гонцов, чтобы в магазинах новые партии продавались на 3% дешевле.
Знаете, что такое статистика, среднее, дисперсия?
По поводу примеров товаров. Основным фактором снижения себестоимости является технологическая инновация. Чтобы себестоимость существенно и быстро снижалась товар должен быть частью текущей "технологической волны". Собственно поэтому хайтек товары, как раз и являются тем самым примером.
Примерно так это и работает только темплейты обычно пишут в хидерах, чтобы можно было инстанцировать произвольными типами, в том числе не известными во время создания библиотеки.
По мне так, если будет более менее равнозначный выбор между кодом на темплейтах и кодогенератор для которого надо еще и дополнительные модули поддерживать, я всегда выберу темплейты.
Самая большая проблема, это получить оценки достаточно приближенные к реальности, предсказания в виде "будет так же как было", в виде константы или линейного тренда, не всегда срабатывают. )
Квартира которая сдается и перекрывает расходы на содержание это уже не пассив получается?
По мне так все эти подходы это просто некоторая аппроксимация. По хорошему надо считать ожидаемую, через какой-то промежуток времени стоимость активов и их "дивидендный" (то есть полученный от их владения) доход или убыток. Исходя из этого можно принимать решения. Следующий шаг это еще и посчитать/оценить дисперсию/доверительный интервал используемых оценок.
Как тут правильно возник вопрос, что в качестве фичей используются данные полученные для того же матча для которого и делается предсказание, таким образом имеется заглядывание в будущее.
От себя добавлю, что эксперимент с разными скейлерами подтвердил лишь давно известный математический факт, что деревья инвариантны относительно монотонных преобразований. Скейлеры в основном имеет смысл применять лишь для линейных моделей или иных случаях когда в построениях используется какая-то "пространственная метрика".
Вообще-то даже в википедии в описании метода расписано почему он не будет работать на сформированных вами выборках. В частности "if the responses are assumed to be continuous and the alternative is restricted to a shift in location, i.e., F1(x) = F2(x + δ), we can interpret a significant Mann–Whitney U test as showing a difference in medians. Under this location shift assumption, we can also interpret the Mann–Whitney U test as assessing whether the Hodges–Lehmann estimate of the difference in central tendency between the two populations differs from zero."
Сделайте честный тест в котором происходит только смещение центра распределения, тогда можно будет о чем-то говорить.
Проблема в том, может ли согласится производить хоть кто-то, на хотя бы 24 нм тех-процессе. Поэтому скорее интересен вопрос, это складские запасы? И что будет когда они закончатся?
Нет, это бумажная прибыль, их никто не нашел, а значит и не потерял. (вернее потерял тот же, кто и нашел, видя циферки с биржи, но не зафиксировав прибыль продав акции)
Вопрос для нейросеток "почему", достаточно сложный. Так как это во многом черный/серый ящик, иногда недостаточно каких-то входных данных, иногда просто "клинит" на чём-то.
На самом деле формулировка через integer programming позволяет решать многие задачи дискретной оптимизации в том числе и NP так, что это довольно стандартный и старый подход. Но дьявол как обычно в деталях реализации.
Естественно там нативный, максимально оптимизированный код на C. Это как раз позволяет, писать на NumPy быстрый код даже на таком медленном языке как Python. Особенно если вы будете оперировать предоставленными абстракциями, а не спускаться до ручного итерирования элементов.
Не вейвлетных. Если уж заходить так далеко, то мозг это тоже база данных состояний нейронов.
У них там точное решение https://www.reddit.com/r/compsci/comments/8auwm9/how_does_concorde_claim_to_be_a_tsp_solver/ В частности "Concorde is an exact algorithm based on Dantzig's cutting plane method which has obtained an optimal tour for an instance with 85900 cities." Впечатление возможно сложилось потому, что они неявно реализуют решение целочисленной формулировки через https://en.wikipedia.org/wiki/Branch_and_cut используя релаксацию. Весь дьявол в деталях реализации branc-and-cut, но я сильно глубоко не разбирался.
PS: в частности есть книжка от автора Concorde "The Traveling Salesman Problem: A Computational Study" там есть много подробностей, она лежит на libgen
Дискретная оптимизация подразумевает различные методы. В данном случаи используется формулировка, как задачи целочисленного программирования. Прелесть в том, что матрицу подогнать конечно теоретически можно, но на практике это довольно сложно. Уже давал в предыдущей статье автора ссылку на SOTA решатель, основанный на тех же принципах https://en.wikipedia.org/wiki/Concorde_TSP_Solver, он может решать инстансы до десятков тысяч вершин. В то время как другие наивные подходы уже взрываются на паре десятков.
Макроэкономика так не работает. Экономически агенты не создают и не уничтожают деньги, они лишь переходят от одних к другим. Для сворачивания денежных потоков необходимым условием является то, что деньги становится бессмысленно инвестировать. Для этого необходима существенная дефляция, в случаи инфляции, не инвестированные деньги, обесцениваются. Так как монетарные власти, всегда могут произвести инжекцию денежной массы в экономику это не является проблемой. Тем более, что со времен великой депрессии, и широко известной дефляционной спирали смерти, уровень безработицы является одной из основных переменных таргетируемых экономической политикой.
С другой стороны снижение зарплаты разработчиков при развитии AI-assisted технологий, может являться возможным сценарием. Так как IT это значительная часть среднего класса, то сужение потребления повлияет и на остальные отрасли, в том числе и на тех кто больше всего "зубоскалит на зарплаты айтишников". В результате это может привести к увеличению уровня неравенства, богатые станут еще богаче, а бедные еще беднее.
Знаете, что такое статистика, среднее, дисперсия?
По поводу примеров товаров. Основным фактором снижения себестоимости является технологическая инновация. Чтобы себестоимость существенно и быстро снижалась товар должен быть частью текущей "технологической волны". Собственно поэтому хайтек товары, как раз и являются тем самым примером.
Примерно так это и работает только темплейты обычно пишут в хидерах, чтобы можно было инстанцировать произвольными типами, в том числе не известными во время создания библиотеки.
По мне так, если будет более менее равнозначный выбор между кодом на темплейтах и кодогенератор для которого надо еще и дополнительные модули поддерживать, я всегда выберу темплейты.
Снижение себестоимости ведет к росту маржи. Но если рынок конкурентный то долгосрочно это ведет и к снижению средней маржи, а значит и снижению цены.
Самая большая проблема, это получить оценки достаточно приближенные к реальности, предсказания в виде "будет так же как было", в виде константы или линейного тренда, не всегда срабатывают. )
Квартира которая сдается и перекрывает расходы на содержание это уже не пассив получается?
По мне так все эти подходы это просто некоторая аппроксимация. По хорошему надо считать ожидаемую, через какой-то промежуток времени стоимость активов и их "дивидендный" (то есть полученный от их владения) доход или убыток. Исходя из этого можно принимать решения. Следующий шаг это еще и посчитать/оценить дисперсию/доверительный интервал используемых оценок.
Как тут правильно возник вопрос, что в качестве фичей используются данные полученные для того же матча для которого и делается предсказание, таким образом имеется заглядывание в будущее.
От себя добавлю, что эксперимент с разными скейлерами подтвердил лишь давно известный математический факт, что деревья инвариантны относительно монотонных преобразований. Скейлеры в основном имеет смысл применять лишь для линейных моделей или иных случаях когда в построениях используется какая-то "пространственная метрика".
Вообще-то даже в википедии в описании метода расписано почему он не будет работать на сформированных вами выборках. В частности "if the responses are assumed to be continuous and the alternative is restricted to a shift in location, i.e., F1(x) = F2(x + δ), we can interpret a significant Mann–Whitney U test as showing a difference in medians. Under this location shift assumption, we can also interpret the Mann–Whitney U test as assessing whether the Hodges–Lehmann estimate of the difference in central tendency between the two populations differs from zero."
Сделайте честный тест в котором происходит только смещение центра распределения, тогда можно будет о чем-то говорить.
PS: И по поводу интерпретации p-value https://en.wikipedia.org/wiki/Misuse_of_p-values а то, что вы описали в своих "экспериментах" это вообще кошмар
По мне так Кормен гораздо проще и полезнее, там нет особо ядреной математики и тем более теоремы Ферма.
Проблема в том, может ли согласится производить хоть кто-то, на хотя бы 24 нм тех-процессе. Поэтому скорее интересен вопрос, это складские запасы? И что будет когда они закончатся?
У Маска было около 20% акций и это как раз бумажная прибыль, которую он "потерял".
На американском рынке раскрываются сделки инсайдеров, продал он больше всего ближе к текущему дну:
https://finance.yahoo.com/screener/insider/MUSK ELON R/
Нет, это бумажная прибыль, их никто не нашел, а значит и не потерял. (вернее потерял тот же, кто и нашел, видя циферки с биржи, но не зафиксировав прибыль продав акции)
Плюсую за цепи маркова, даже для "длинных" игр они будут сильно разряженные и должны в лёт считаться.
Вопрос для нейросеток "почему", достаточно сложный. Так как это во многом черный/серый ящик, иногда недостаточно каких-то входных данных, иногда просто "клинит" на чём-то.
На самом деле формулировка через integer programming позволяет решать многие задачи дискретной оптимизации в том числе и NP так, что это довольно стандартный и старый подход. Но дьявол как обычно в деталях реализации.