Вообще интересно, а есть неофициальные проекты "хакерских" клиентов для Телеграма, т.е. таких которые предоставляют пользователю гораздо больше функций - в частности сохранение всего контента независимо от наличия разрешений на сохранение и того что контент впоследствии может быть "удален" , глубокое исследование социальных графов, скачивание содержимого чатов и т.п.?
Мне интересно когда выпустят браузер, который из коробки будет поддерживать цепочки прокси. В частности, чтобы настройки прокси браузера не пересекались с прокси-расширениями. Т.е. если я в настройки прописал внешний прокси, и еще поставил расширение, то они бы работали одновременно в цепочке. А при установке нескольких прокси-расширений они должны уметь работать одновременно также в цепочке.
зачем-то выпилен старый добрый классический интерфейс, в результате пользователи вынуждены пользоваться новым вырвиглазным
добавлена система обновлений, которая постоянно что-то качает из инета и сливает в инет (или это система телеметрии?), в общем компьютер живет своей жизнью
Не самомодифицирующегося, а модифицируемого внешними средствами (которые как правило являются частью ОС или близкими к этому понятию системными программами - такими как CLR/JVM).
Из именно самомодифицирующегося (т.е. когда код модификации программы является частью программы и пишется разработчиком программы вместе с остальным кодом) приходит в голову разве что какие-нибудь полиморфные вирусы. Ах да, еще вроде бы в ATL/WTL для таблиц обработчиков событий применяется какой-то хитрый способ генерации кода под названием "thunks".
Термин "Статическая рефлексия " дан максимально непонятно.
Как я понял, статическая значит работает на этапе компиляции, а точнее на этапах когда во время компиляции выполняется пользовательский код (а это и constexpr/consteval, и шаблонное метапрограммирование). Здесь и генератором, и потребителем метаданных в конечном итоге оказывается компилятор. А в рантайм эти метаданные могут попасть только если их туда специально затолкать, т.е. например использовать для инициализации рантайм-объектов.
RTTI и C# Reflection работают во время выполнения - там компилятор просто подготавливает константные метаданные и сохраняет их в exe-шнике, эти данные используются в рантайме для инициализации всяких reflection-объектов, обращение к которым происходит также в рантайме.
Ну так генерация машинного кода с использованием AVX или без него и есть модификация поведения программы.
Но не самомодификация. Этими действиями занимается операционная система или другие программы (java и т.д.). В некотором смысле JIT-компиляция это следующий уровень загрузки exe-файлов (когда загрузчик перед передачей управления настраивает адреса по таблицам, хранящимся в заголовке exe-файла). Еще можно вспомнить программы-упаковщики, протекторы и т.п.
В прошлом компания избегала магнитных чехлов из-за возможных помех при работе с S Pen. В серии Galaxy S25, похоже, решили эту проблему, что позволило Samsung конкурировать с такими брендами, как OnePlus и Oppo.
Неужели конкурировать больше нечем кроме как всякими беспроводными зарядками?
Использовать ИИ для математики крайне интересно, но нужно делать это с умом. К примеру обучать не на всём мусоре из интернета, а ТОЛЬКО на математическом контенте. А желательно еще и записанном в единой стандартной нотации, исключающей неоднозначности в интерпретации. Вот тогда вполне можно ждать от ИИ интересных результатов, в том числе и научных открытий.
Лично для меня идеальным выходом бы было возрождение проекта CoLinux для x64. Тогда можно было бы спокойно сидеть под семеркой, обрубить ей инет полностью, а все сетевые программы (браузеры, торренты, обходчики блокировок...) были бы линуксовые с GUI через какой нибудь xming.
Хотя я и так спокойно под семеркой сижу, никаких вирусов не ловлю (недавно проверял ради интереса систему несколькими антивирусами). Главная проблема - новый софт отказывается работать, а вовсе не вирусы и уязвимости.
Насколько хорошо Линукс работает с NTFS в сравнении с самой виндой? Если имеются NTFS диски с ценной информацией, не хотелось бы рисковать. И менять файловую систему тоже не хочется - у меня там теги в ADS.
Какой DE Линукса максимально приближен по внешнему виду к классической теме Windows? (win2000) На работе пользуюсь Lubuntu в виртуалке, более-менее похоже не но всё.
Отличная программа! Можно сказать что запускаю ее первой и она является чем-то вроде "рабочего стола":) Хотя конечно есть множество функций которых в ней нет (и наверное у каждого пользователя есть свой такой список). Что-то удается заменить внешними программами, они встраиваются достаточно легко.
Вот бы еще исходники открыли... Кстати кто нибудь задавал такой вопрос автору?
Непонятно при чем тут ML. Это же по сути самые обычные (и вообще говоря приближенные) вычисления, но в ОЧЕНЬ большом количестве. Никакими основаниями математики там и не пахнет (ИМХО конечно), это просто почти школьная математика, а весь вау-эффект достигается за счет перехода количества в качество.
Вот здесь статья о реверс-инжиниринге простейшей нейросети, которую обучили для сложения двоичных чисел. Ожидалось что она воспроизведет внутри себя что-то вроде "двоичного сумматора", применяемого во всех микропроцессорах, по оказалось что сеть пошла по принципиально иному пути... И в некотором смысле этот другой путь гораздо ближе к природе, чем двоичные сумматоры.
Я не физик, но уже достаточно давно мне пришла в голову мысль почему всё именно так. Если предположить что наша Вселенная подобна четырехмерному пузырьку газа в кипящей жидкости, или чему-то подобному, а наше трехмерное пространство - оболочка этого пузырька. А элементарные частицы в свою очередь - микровыпуклости на этой оболочке. Ну и дальше очевидно, что чисто геометрически, за счет кривизны самого пространства, выпуклости наружу окажутся не совсем равнозначны выпуклостям внутрь. Они почти одинаковые (за счет ОГРОМНОЙ разницы в размерах между Вселенной и самими частицами) - но все-же не совсем.
Интересно, эту гипотезу можно как-то проверить математически, связав такие параметры как размер Вселенной, количество материи в ней и что-то еще?
Кстати большинство (и я в том числе) проголосовали за постижение Тайн Мироздания:)
Увы, в моем ВУЗе все эти основания математики не изучали (из математики была линейная алгебра, матан, дискретка, тервер, численные методы). Но тема очень интересная, всегда хотелось погрузиться в нее поглубже.
Поэтому вопрос к тем кто глубоко в теме: что вы можете сказать о том, как устроен реальный мир на низком уровне, опираясь на знания оснований математики?
Вообще интересно, а есть неофициальные проекты "хакерских" клиентов для Телеграма, т.е. таких которые предоставляют пользователю гораздо больше функций - в частности сохранение всего контента независимо от наличия разрешений на сохранение и того что контент впоследствии может быть "удален" , глубокое исследование социальных графов, скачивание содержимого чатов и т.п.?
Почему бы и нет? Это в чистом виде расширения ОС. Как и драйверы. Только эти работают на другом уровне.
Они модифицируют себя? Нет, другой код. Вот если бы они модифицировали свой собственный код, то да. А так - нет.
Динамическая генерация шейдеров пожалуй подпадает под это понятие.
Обучение моделей? Ну не знаю. Это все-же данные а не код. Так можно сказать что и конфиги с настройками это самомодифицирующийся код:)
Мне интересно когда выпустят браузер, который из коробки будет поддерживать цепочки прокси. В частности, чтобы настройки прокси браузера не пересекались с прокси-расширениями. Т.е. если я в настройки прописал внешний прокси, и еще поставил расширение, то они бы работали одновременно в цепочке. А при установке нескольких прокси-расширений они должны уметь работать одновременно также в цепочке.
зачем-то выпилен старый добрый классический интерфейс, в результате пользователи вынуждены пользоваться новым вырвиглазным
добавлена система обновлений, которая постоянно что-то качает из инета и сливает в инет (или это система телеметрии?), в общем компьютер живет своей жизнью
Не самомодифицирующегося, а модифицируемого внешними средствами (которые как правило являются частью ОС или близкими к этому понятию системными программами - такими как CLR/JVM).
Из именно самомодифицирующегося (т.е. когда код модификации программы является частью программы и пишется разработчиком программы вместе с остальным кодом) приходит в голову разве что какие-нибудь полиморфные вирусы. Ах да, еще вроде бы в ATL/WTL для таблиц обработчиков событий применяется какой-то хитрый способ генерации кода под названием "thunks".
Как я понял, статическая значит работает на этапе компиляции, а точнее на этапах когда во время компиляции выполняется пользовательский код (а это и constexpr/consteval, и шаблонное метапрограммирование). Здесь и генератором, и потребителем метаданных в конечном итоге оказывается компилятор. А в рантайм эти метаданные могут попасть только если их туда специально затолкать, т.е. например использовать для инициализации рантайм-объектов.
RTTI и C# Reflection работают во время выполнения - там компилятор просто подготавливает константные метаданные и сохраняет их в exe-шнике, эти данные используются в рантайме для инициализации всяких reflection-объектов, обращение к которым происходит также в рантайме.
Вот здесь вроде бы какие-то мысли на этот счет
https://www.open-std.org/jtc1/sc22/wg21/docs/papers/2024/p3381r0.html#why-not-a-keyword
Но не самомодификация. Этими действиями занимается операционная система или другие программы (java и т.д.). В некотором смысле JIT-компиляция это следующий уровень загрузки exe-файлов (когда загрузчик перед передачей управления настраивает адреса по таблицам, хранящимся в заголовке exe-файла). Еще можно вспомнить программы-упаковщики, протекторы и т.п.
Неужели конкурировать больше нечем кроме как всякими беспроводными зарядками?
Никогда не знал TypeScript, но примеры кода чем-то напомнили C++ :)
Использовать ИИ для математики крайне интересно, но нужно делать это с умом. К примеру обучать не на всём мусоре из интернета, а ТОЛЬКО на математическом контенте. А желательно еще и записанном в единой стандартной нотации, исключающей неоднозначности в интерпретации. Вот тогда вполне можно ждать от ИИ интересных результатов, в том числе и научных открытий.
Лично для меня идеальным выходом бы было возрождение проекта CoLinux для x64. Тогда можно было бы спокойно сидеть под семеркой, обрубить ей инет полностью, а все сетевые программы (браузеры, торренты, обходчики блокировок...) были бы линуксовые с GUI через какой нибудь xming.
Хотя я и так спокойно под семеркой сижу, никаких вирусов не ловлю (недавно проверял ради интереса систему несколькими антивирусами). Главная проблема - новый софт отказывается работать, а вовсе не вирусы и уязвимости.
Погуглил картинки с XFCE - похоже на имитацию MacOS, а не классической винды (панель по центру внизу, меню сверху).
Было бы интересно сравнение с 7zip - тоже бесплатный, тоже кучу форматов поддерживает...
Насколько хорошо Линукс работает с NTFS в сравнении с самой виндой? Если имеются NTFS диски с ценной информацией, не хотелось бы рисковать. И менять файловую систему тоже не хочется - у меня там теги в ADS.
Какой DE Линукса максимально приближен по внешнему виду к классической теме Windows? (win2000) На работе пользуюсь Lubuntu в виртуалке, более-менее похоже не но всё.
Отличная программа! Можно сказать что запускаю ее первой и она является чем-то вроде "рабочего стола":) Хотя конечно есть множество функций которых в ней нет (и наверное у каждого пользователя есть свой такой список). Что-то удается заменить внешними программами, они встраиваются достаточно легко.
Вот бы еще исходники открыли... Кстати кто нибудь задавал такой вопрос автору?
Так кто же он - Сатоши Накомото?
Непонятно при чем тут ML. Это же по сути самые обычные (и вообще говоря приближенные) вычисления, но в ОЧЕНЬ большом количестве. Никакими основаниями математики там и не пахнет (ИМХО конечно), это просто почти школьная математика, а весь вау-эффект достигается за счет перехода количества в качество.
Вот здесь статья о реверс-инжиниринге простейшей нейросети, которую обучили для сложения двоичных чисел. Ожидалось что она воспроизведет внутри себя что-то вроде "двоичного сумматора", применяемого во всех микропроцессорах, по оказалось что сеть пошла по принципиально иному пути... И в некотором смысле этот другой путь гораздо ближе к природе, чем двоичные сумматоры.
Я не физик, но уже достаточно давно мне пришла в голову мысль почему всё именно так. Если предположить что наша Вселенная подобна четырехмерному пузырьку газа в кипящей жидкости, или чему-то подобному, а наше трехмерное пространство - оболочка этого пузырька. А элементарные частицы в свою очередь - микровыпуклости на этой оболочке. Ну и дальше очевидно, что чисто геометрически, за счет кривизны самого пространства, выпуклости наружу окажутся не совсем равнозначны выпуклостям внутрь. Они почти одинаковые (за счет ОГРОМНОЙ разницы в размерах между Вселенной и самими частицами) - но все-же не совсем.
Интересно, эту гипотезу можно как-то проверить математически, связав такие параметры как размер Вселенной, количество материи в ней и что-то еще?
Кстати большинство (и я в том числе) проголосовали за постижение Тайн Мироздания:)
Увы, в моем ВУЗе все эти основания математики не изучали (из математики была линейная алгебра, матан, дискретка, тервер, численные методы). Но тема очень интересная, всегда хотелось погрузиться в нее поглубже.
Поэтому вопрос к тем кто глубоко в теме: что вы можете сказать о том, как устроен реальный мир на низком уровне, опираясь на знания оснований математики?