All streams
Search
Write a publication
Pull to refresh
4
0
Send message

Linux с каждым годом становится чуточку лучше, а Windows хуже. И это не остановить, потому что технически ОС достигла своего оптимума, где-то в районе Windows 7. Дальше началось чисто маркетинговое "перетаскивание иконок", телеметрия и переход на полностью "подписочную модель".

Все основные плюсы Windows лежат в плоскости, что это монополизированная система производимая одной корпорацией. Большинство минусов Linux в этой же плоскости это достаточно гетерогенная система, разрабатываемая огромным сообществом относительно независимых разработчиков.

Это не трансляция, это реализация окружения Windows в Linux. То есть там где происходит вызов какой-то функции, в Windows одна реализация в Linux другая.

Почему может быть быстрее или по крайней мере не медленнее? Возможно какие-то функции реализовать в Linux проще и они быстрее. Как в низу заметили, если идет трансляция в Vulkan, то там еще и дополнительный overhead меньше по сравнению со старыми версиями Direct3D.

Если пароль/ключ случаен(равномерно распределен), то в среднем надо перебрать N/2 значений. Вероятность просто угадать за один раз - 1/N, для 2048 бит, это 1/(2^2048), при 2^280 количество атомов в наблюдаемой вселенной.

И давно последний раз приходилось бинарное дерево переворачивать? Реализовывать приоритетную очередь или сортировку кучей? Кратчайший путь в графе находить?

Людей бомбит не от алгоритмов, а от тех алгоритмических задачек, что обычно спрашивают на собеседованиях, позаимствованных из около олимпиадного программирования. И часто имеющих довольно мало отношения к тому, чем приходится заниматься. (перекладывать джейсоны)

Тем более, что их еще и приходится решать на время, что очень далеко от реальности, даже сложной алгоритмической или математической разработки.

Случайность это про отсутствие детерминированности и не достаток информации, по крайней мере в модели. А не про то что, что-то случайное и это нельзя предсказать. Как раз наоборот, статистические модели нужны, чтобы предсказывать основываясь на неполной информации.

В случае с файлами на компьютере, вы можете к примеру просто поставить камеру которая будет фиксировать все действия(условно), и имея всю полноту информации, посчитать их количество, объем и точное распределение. Статистические модели и теорвер применяются, когда очевидно информация потеряна, либо ее не достаточно из-за сложности реальных явлений или принципиальных ограничений (квантово механические эффекты, да или даже банальный тепловой шум).

Очевидно, что никак, если данных совсем мало, и нет каких-то априорных моделей их возникновения. Если не совсем мало, очевидно, можно посчитать на коленке, эти хвосты в виде вылета за 4-6 сигм. Или привлечь старшие моменты распределения https://en.wikipedia.org/wiki/Kurtosis

Чем "тяжелее хвосты" в исходном распределении, тем хуже сходимость к нормальному по ЦПТ. При этом центр распределения, сходится значительно быстрее, а хвосты медленнее. (это очевидно даже по картинкам из статьи). Довольно известный эффект.

В реальности это все разбивается об нестационарность монетки. И как по мне параметр "вероятность разорения", гораздо ближе к тому, что хочется знать.

И еще, большую часть ваших картинок можно получить просто применив ЦПТ(центральная предельная теорема) к случайному блужданию.

Вы уж извините, но с картинками(12х12) это натягивание совы на глобус.

Есть классическое статистическое машинное обучение, где это еще как-то можно считать релевантным.

Есть более современное машинное обучение на основе глубоких нейросеток, в том числе сверточных. Где на входе будет картинка 256х256, а на выходе можно получить низкоразмерный эмбединг(предположим 10-20 размерности), который будет содержать информацию о "семантической близости" входных изображений.

Есть языковые модели, которые выросли из тех же глубоких нейросеток машинного зрения и средств межязыкового перевода. И т.д.

Так существует вполне отдельное направление "философия науки", Поппер и прочее. А философы не имеющие связи с реальностью, да все так, как и большинство других "направлений" эту связь потерявшие.

Осталось дело за малым, описать собственно каким образом заявленная семантика, различного рода ссылок будет осуществляться? Доступ, по не владеющей ссылки(ассоциации в вашей терминологии) не будет протухать? Когда объект доступный по "разделяемым" ссылкам все таки будет уничтожаться? И прочие не удобные вопросы. А то что управлять деревом из владеющих ссылок просто, это давно известно, вы лишь изобрели unique_ptr (да и Qt есть похожая древовидная модель владения ресурсами/виджетами)

Просто вы в своих построениях практически в точности воспроизвели, набор "умных" указателей из плюсов (unique_ptr/shared_ptr/weak_ptr), и поэтому хотелось бы понять, зачем все это нужно, тем более чтобы претендовать на статус "нового языка".

Усреднение имеет смысл, если центр распределения оценок близок к реальному результату. Если большинство ошибается, или на самом деле право некоторое меньшинство, усреднение нечем не поможет.

Можно брать "доверительный интервал" куда вы будете попадать с 90% процентной вероятностью. Но тут есть проблемы, что либо интервал может быть довольно широкий, либо оставшиеся 10% будут улетать в "тяжелые хвосты" (условно говоря нестандартные задачи с ошибкой трудоемкости на порядок), и хоронить все остальные оценки.

В других инженерных профессиях это решается, тем что делается примерно одно и то же, постепенно, итеративно с "минимум научной новизны" на каждой итерации изделия. Или по крайней мере балансировкой, и пониманием что лишняя "научная новизна", может утопить проект.

Тот кто отвечает за результат, тот и должен решать. Пару таких "специалистов" на моем опыте были посланы на юг, именно по этой причине.

Но самая большая проблема отечественного процессоростроения, далеко не в этом, а что их негде производить. Не божественные Эльбрусы, не относительно нормальные Байкалы (без иронии, ребята разработчики молодцы), не RISC-V. Единственный реалистичный вариант, по не допотопному тех. процессу это китайцы. Но нужны ли им эти проблемы, когда своих хватает?

Вот и фанатики божественных Эльбрусов проснулись и слили карму. Правильным путем идете товарищи, прямо к отвесной пропасти. Ничто так негативно не влияет на хабре, как признание объективной реальности, а не распространенной "мифологии", особенно в наши времена. Самое смешное, причина - придерживаюсь другой позиции, но аргументировать ее в комментарии не могу. )

Это фишка любого VLIW by design, и одна из множества объективных, технических причин, почему эта архитектурная концепция фактически мертва. "Гладко было на бумаге но забыли про овраги". Эльбрус начал примерно развиваться в одно время с Итаником.

Самая большая проблема с UB, это то что компиляторы становятся умнее, и даже на той же платформе, код скомпилированный значительно более новым компилятором перестает работать из-за UB. Это я сам наблюдал и не раз.

Самая большая проблема с UB, что с ними как в математике, из ложного утверждения можно вывести, что угодно. Так же и компилятор может исходя из утверждений отсутствия UB, вывести что угодно. К примеру, просто удалить ненужный по его мнению код, как к примеру здесь:

https://eyalitkin.wordpress.com/2016/10/12/integer-overflow-undefined-bahavior/

Первой операции проверки просто нет, она оптимизирована.

Information

Rating
Does not participate
Registered
Activity

Specialization

Software Developer, Application Developer
Senior
C++
C++ STL
Linux
Python
Machine learning
Applied math
Algorithms and data structures
Code Optimization