Вообще, огромные вопросы к шпаргалкам в конце. Особенно к выбору, что использовать, рекорды или обычные классы/структуры. Это слабо связано с тем, будет ли использоваться тип в качестве поля другого типа. Обычные структуры чаще всего используются для оптимизаций, где можно избавиться от лишних аллокаций в куче и ускорить операции (как пример, особая поддержка struct-энумераторов в foreach или при ручном вызове для массивов, спэнов, и т.д.), record struct теперь по всей видимости будут представлять value-type DTO с хэшем, равенством, и т.д. (все эти ваши Point2D, RGB цвета и т.д., для чего раньше приходилось руками писать весь обвес). record это теперь go-to решение для доменных моделек и прочих value-object из-за иммутабельность по умолчанию и простоты создания, а так же из-за наследования. Ну и class на все остальное, включая EF, которому плохо от иммутабельных рекордов.
И 16 байт тут тоже так себе лимит. В зависимости от функций вашего кода, предача readonly record struct по in ссылке или не-readonly по ref (в зависимости от целей) может быть гораздо эффективнее чем использование ссылочного типа.
Короче, наверное каждая шпаргалка подлежит обсуждению.
У вас в таблице опечатка - record struct с позиционной записью можно создавать с помощью инициализатора объектов. Вообще конструкторы и инициализаторы объектов ортогональны друг другу в каком-то смысле -- если объект создался с помощью какого-то конструктора (а у record struct есть дефолтный конструктор), те его поля и set/init свойства, которые видны в данном контексте можно присвоить в инициализаторе. В том числе, можно сначал инициализировать свойство в конструкторе и тут же пере-присвоить значение в инициализаторе.
Вы действительно думаете, что в экспериментах с этими установками могли быть получены отрицательные результаты и сделаны выводы об отсутствии гравитационных волн и бозонов
Да легко. LIGO долгие годы не приносил результатов, пока не был проапгрейжен до Advanced LIGO, после чего результаты посыпались со всех сторон. Если вы намекаете, что это фейк, то это отборнейший фейк с элементами предсказания будущего, потому что NS-NS мерджер GWS170817 был зарегистрирован до гамма-вспышки. Чертовски удачное совпадение.
Ничего, что существенная часть «открытий» в «фундаментальной науке» представляет собой решение уравнения с двумя неизвестными, когда положительный результат эксперимента одновременно принимается в качестве доказательства работоспособности экспериментальной установки
Тем временем у меня есть конкретный пример исследований, где из примерно 4 пропозалов и около десятка объектов наблюдений лишь один объект дал положительный результат (в смысле вообще результат какой-то был), и не просто положительный, а достойный публикации в журнале Science. Сколько времени было потрачено на отладку инструмента, бенчмарк, тестовые наблюдения и сверка со стандартами, чтобы доказать, что все настолько точно -- я даже не пытаюсь описать. Но пожалуйста, верьте в то, что вся наука построена только на получении положительных результатов.
Как проверялась работоспособность «телескопа» Event Horizon и его настройка — разглядыванием бублика на поверхности Луны?
Я никогда близко не занимался радиоинтероферометрией, но ответ довольно простой -- у вас есть N независимыз и проверенных инструментов, которые объединяют в сеть для увеличения апертуры до ~ диаметра Земли, а еще у вас есть математический аппарат, которые позволяет по результатам интерферометрии восстановить изображения со значительными артефактами. Бублик на поверхности Луны вы не увидите по многим причинам.
Кстати, «фотография» «реальной» чёрной дыры и тут бросает тень на «открытие» первой гравитационной волны, показывая, что мы имеем дело не с идеальным чёрным кругом, идеально по спирали обращающейся вокруг неё материей, идеально равномерно поглощаемой
Вы же сами пишете, "тень". На снимке сверхмассивная ЧД с аккреционным диском. В низком разрешении. Никто никогда не ожидал увидеть "круг", и уж тем более никакое вещество по спирали вокруг ЧД не обращается -- по крайней мере в тривиальном смысле, см. теорию аккреции и формирования аккреционных дисков, теорию сферической аккрецции и смежные области. И поглощение не происходит равномерно.
в то время как первая «обнаруженная» гравитационная волна чудесным образом совпадает с рассматриваемым в ОТО модельным слиянием идеальных чёрных дыр, идеально взаимодействующих друг с другом и с окружающей материей.
Это ожидаемо. Последние доли секунды жизни двойной системы из двух ЧД производят достаточной силы гравитационные волны, чтобы их можно было зафикировать. Вблизи самого слияния две ЧД являются доминирующим источником гравитацонных волн, и именно "отличное" совпадение наблюдаемых волн с предсказаниями ОТО и является подтверджением того, что это настоящие гравитационные волны.
Нам тут более 50 лет термоядерную энергетику обещают — не пора ли уже усомниться в истинности теории термоядерного синтеза и правильности понимания процессов в звёздах?
Пожалуйста, не мешайте в кучу всю конспирологию, вы хотя бы ознакомьтесь с вопросом. Про ITER почитайте, я не знаю. Термоядерный синтез один из основных механизмов получения энергии во Вселенной. Абсолютно вся энергия, которую вы расходуете за свою жизнь, является резульатом термоядерного синтеза. "Металлы" (элементы тяжелее гелия на астро-жаргоне) -- результат термоядерного синтеза (но не все, есть и ограничения). Но так сложилось, что термоядерный синтез требует определенных условий. Очень высоких давления и температуры. Крайне высоких. В космосе проблема решается легко -- там есть гравитация и законы газодинамики, которые достаточно тяжелое облако газа разогреют до нужных температур в ядре. На Земле таких условий нет. Вообще. Ни в ядре, ни на поверхности. Не имея возможности удерживать плазму гравитацией, люди пытаются этого добиться иными способами -- электромагнитными полями сложнейшей конфигурации, которые к счастью мы создавать умеем. На самом деле термоядерный синтез вещь очень простая -- вам нужно топливо, вам нужно его "слегка" разогреть, вам нужно его удержать в одном месте, и извлечь из этого энергию. Все эти шаги возможны уже сейчас (и были возможны давно), до сих пор нерешенная проблема -- удержать плазму достаточно долго, извлечь энергию с достаточным КПД, и самое важное произвести энергии больше чем было затрачено на старт реакции и ее поддержание. Именно этого пытается достичь ITER.
Честно, я устал разбирать эту кашу. Вот это например тоже не совсем правда
ведь принцип работы LIGO основан на наличии как минимум влияния гравитационного поля на электромагнитное
Гравитационное поле действительно влияет на электромагнитное (см например гравитационное красное смещение), но здесь речь о другом -- гравитационные волны искажают пространство-время, из-за чего нарушается интерференционная картина в детекторе. Нужны лишь длинные "плечи" интерферометра. На Земле выкопали тоннели и подвесили зеркала, будущем запустят в космос несколько спутников и получат бОльший частотный диапазон и чувствительность.
или же все те «сказки», что они насочиняли в одной из самых спекулятивных дисциплин, всегда учитывали существование гравитационных волн; или же они тупо закроют на всё глаза, как это было с «открытиями» тёмной материи или нейтрино
Я не знаю, откуда такая ненависть у автора к ученым, к астрофизикам в частности. Право его (как и мое -- испытывать отвращение к конспирологам), но лично я не вижу смысла тратить время на разбор ошибок/неточностей/беспардонной лжи, зная, что каждый останется при своем мнении.
Простите, не очень понимаю, в чем смысл вашего комментария? Вы перечислили какие-то цитаты с около-технического ресурса в ру-зоне, которые лишь указывют на поверхностность познаний автора (-ов) цитат.
Фундаментальная наука работает на 100% в рамках математических моделей. Интересно, что оригинальный автор не понимает, как работают доказательства каких-то гипотез в науке. Есть наблюдательный факт интерферометры LIGO (и Virgo) зарегистрировали синхронно* некоторые колебания, превышающие уровень шума. Эти колебания очищаются, затем сраниваются с теоретическими предсказаниями ОТО (форма и частота сигналов в зависимости от положения интерферометра на Земле). И на основе этого можно решить проблему оптимизации параметров -- найти массы ЧД, расстояние до них, область, из которой пришел сигнал, время "слияния". И с определенной долей вероятности мы утверждаем, что это слияние ЧД. Есть много проверок, которое это все проходит -- например, вероятность слуайного возникновения такого сигнала, вероятность возникновения его одновременно на нескольких интерферометрах и т.д. Goodness-of-fit в конце концов, на сколько модель хорошо соответствует данным. И вот все это позволяет нам сказать что это не совпадение и не упавший метеорит в сибири, а слияние ЧД.
Обвинение в фальсификации звучит не то чтобы оскорбительно, но ожидаемо. В конце концов необходимо иметь определенные познания и уровень экспертизы, чтобы судить о таких результатах, что несколько сложнее, чем верить в религию или конспирологию. Характерно, что оригинальный автор(-ы) используют набор псевдонаунчых терминов, практически ничего общего с реальностью не имеющие. Со стороны, наверное, звучит умно и по-экспертному.
а мы будем развлекать Вас сказками в рамках самых спекулятивных дисциплин.
В мире гигантское количество спекулятивных дисциплин, тем не менее люди упорно несут деньги, чтобы их развлекали сказками о волшебных существах, которые управляют всем миром, и ни у кого не возникает вопросов. Но стоит только попросить деньги на науку -- нее, не дадим, вы нам врете.
Вопрос сложный, а ответ и решение скорее всего индивидуально для каждого. Не считаю себя полноценным разработчиком потому что понимаю, сколько вещей я на самом деле (еще) не понимаю.
Скорее всего, граница пролегает в процессе (само-) обучения. Если работать с 9-до-5 и в остальное время не трогать ПК, наверное можно стать крутым разработчиком, но для этого нужен талант. Для простых смертных типа меня работает внерабочая активность -- участие в опенсорсе, пет-проекты, следование за инновациями в платформе (большниство технологий сейчас имеет как минмум один крупный релиз в год, значит каждый год есть что-то новое, что стоит выучить). Посещение конференций (хотя бы в формате просмотра докладов), изучение best-practices. А еще велосипедостроение. Многие считают что это бесполезная трата времени, и это так, когда это касается работы. А вот для себя построить велосипед очень полезно -- по пути вы сделаете ошибки и столкнетесь с ограничениями, а потом сможете изучить, как профессионалы избегали таких ошибок и обошли ограничения, сравнив свой велосипед с industry standard.
Еще помогает смена области. Не в смысле работы, а в смысле "влезть к соседям в свободное время". Возьмите бесплатный движок, напишите игру. Пусть это будут бестекстурные шары на прямоугольной площадке. Сделайте глупый SPA сайт с двумя кнопками или напишите консольную утилиту для группировки любимых сериалов на диске. Скачайте .csv какого-нибудь государственного органа любой страны и посчитаете какую-нибудь простенькую статистику на python/R/Julia. А потом создайте базу и запишите туда результат. Выложите код в репозиторий, наладьте CI, контейнеризуйте, обложите тестами. Возможно, ничего из этого вам напрямую в работе не понадобится, но это способствует двум вещам: 1) получению опыта и обучению процессу "обучения" и 2) изучение практик и подходов в смежных областях, удачные решения из которых можно позаимствовать. После этого никакая новая технология, никакой новый инструмент на вашем основном месте работы вам больше не будет создавать проблем. Скорее всего вы будете сразу думать "А, так это же технология X, которую я видел в проекте Y, только используется по-другому. Ничего сложного."
Как всегда, есть одно "но". Все это легко обсуждать если вам айти-тематика интересна. Если вы в дестве хотели написать свою игру, или хотите создавть свой собственный сайт, или разобраться как что-то работает, или заставить тупой код работать быстрее в 10 раз, применив оптимизацию, или автоматизировать рутину потому что бесит выполнять одно и то же действие -- поздравляю, вас скорее всего ну нужно заставлять в свободное время возиться с кодом, вероятно вы и так уже это делаете. А вот если написание кода это тяжелая работа и после трудового дня нет никакого желания написать даже строчку в своей программе -- достичь результатов будет сложнее просто потому что заставить себя сложнее. Как и везде -- если ваша работа это ваше хобби, жить гораздо проще.
И здесь кроется основная проблема. Если условный гик с детства пришел в айти, ему там комфортно. Даже работая на неинтересной работе в кровавом ынтырпрайзе, это все равно его среда. А если человек, с детства хотевший стать, не знаю, писателем, ненавидящий все эти схемы, чертежи, карты, графики и графы, математику, пытается войти в айти потому что там платят многа деняк, а не потому что хочется -- я не уверен что у такого человека получится поднятся выше условного "кодера", i.e. работника, выполняющего рутинные задачи стандартными способами. Но это не значит, что нужно бросать все и не работать над собой. Просто это будет тяжелее.
Кажется, все же нужно отличать разработчиков от кодеров (названия взяты с потолка, но должны отражать суть). И практически все курсы подготовки "за 3 месяца" готовят на самом деле кодеров (и их эквивалентов в смежных областях).
Я перешел в энерпрайз не так давно, но довольно быстро обнаружил, что большая часть команды -- именно кодеры. Они отлично (часто лучше меня) выполняют стандартные рутинные задачки, пишут стандартные фрагменты кода, но абсолютно не задумываются о том, что они пишут. Из-за чего на ревью выпадают детские ошибки или нерациональные с точки зрения ресурсов конструкции, которые легко можно заменить на более оптимизированные за О(1) времени и сил. А иногда эти ошибки и недочеты едут в прод, если на ревью не попадается такой мчудак как я, который пытается найти баланс между затраченным временем/ресурсами и качеством кода, и доебкапывается до мелочей.
И это более-менее работает на этапе начальной разработки. А потом перестает. Перестает, когда нужно найти проблему и починить. Перестает, когда нужно расширить функционал, а существующая реализация просто чудовищна. Перестает, потому что кодеры могут знать много разных умных слов, описывающих принципы разработки, но не уметь применять их (или применять подобие принципов без реальной пользы). И все это в конечном итоге приводит к потере денег бизнесом. Медленнее разработка, больше багов и работы для саппорта, больше счета за облачную инфраструктуру из-за нерационального использования ресурсов.
"Войти в айти" (тм) и стать кодером -- не так уж и сложно, но все равно требует усилий. Проблема в том что зачастую кодеры производят впечатление чуть более совершенной версии GitHub Copilot, и не на каждую должность можно попасть с такими навыками.
Вы правы, это был плохой выбор слова. "Несколько" в данном контексте стоит понимать как 1 - 1.5 порядка. В качестве источника для этой информации я использовал Frank, King & Raine (2002), если вдруг кто-то хочет проверить или ознакомиться с выкладками.
Давайте попробуем разобраться. Одна из основных проблем современной фундаментальной науки -- это плохое сочетание общей теории относительности (ОТО) с квантовой теорией поля. Если совсем просто, кванты это про микро мир, базовые частицы, поля, и всякую квантовую магию типа суперпозиции, неопределенности Гейзенберга и т.д. А ОТО это про пространство-время, его искревление под действием массы и т.д. По отдельности обе модели работают идеально -- квантовые эффекты дают нам все, от полупроводников до радио, от спектра теплового излучения до квантовых компьютеров, ОТО помогает справиться с различными гравитационными и временными эффектами (например, поправить сигналы GPS спутников или не промахнуться ровером по Марсу). Но вот вместе, ОТО и кванты не очень согласуются друг с другом. Точнее не придумана теория, которая лаконично описывает как эффекты ОТО на огромных расстояниях и в присутствии огромной массы, так и квантовые эффекты на нано-расстояниях.
На данный момент в лабораториях нам доступны ограниченные эксперименты для проверки квантовых теорий. Можно разогнать пару частиц в Большом Адронном Коллайдере (БАК) и посмотреть, что произойдет при их столкновении. Но создать симуляцию огромной массы, сосредоточенной в крошечном пространстве, чтобы посмотреть, как ведет себя пространство-время, мы не можем (а очень хочется). Так вышло, что в космосе есть объекты (иногда называемые астрофизическими лабораториями), которые одновременно являются объектами исследования ОТО и квантовой механики -- это черные дыры (ЧД). Осознать насколько ЧД странные, бывает довольно сложно. Ну например, чтобы ЧД возникла, очень часто нужно, чтобы вещество было сжато настолько сильно, что это оказывает эффект на квантовом уровне. Сжал слабо -- получил что-то типа белого карлика, сжал сильнее и вдавил электроны в протоны -- получил нейтронную звезду (с практически неизвестынм уравнением состояния "газа"), сдавил еще сильнее -- все, ЧД. С одной стороны, ОТО предсказывает трудно-постижимые эффекты вблизи ЧД (и "внутри" если можно так выразиться), с другой стороны -- в каком квантовом состоянии находится "вещество" внутри -- сказать очень сложно, но ведь оно же никуда не исчезло. И все это происходит в одном объекте.
ЧД "черные" потому что одиночне ЧД мы увидеть не можем (скорее всего не можем, гипотетическое излучение Хокинга для известных ЧД должно быть чрезвычайно мало). Зато мы видим, какой эффект они оказывают на окружающее вещество (аккреция), на фотоны, пролетающие мимо (гравитационное линзирование), на другие объекты (движение звезд по орбите вокруг "ничего", движение звезд в центер Млечного Пути вокруг этого самого Sgr A*). И вот один из процессов в окрестности ЧД изучается довольно давно -- это аккреция, падение вещества с какого-то удаления на (или скорее "под") "поверхность" ЧД. Падение это происходит сложным образом, обычно приводящим к возникновению плоской структуры -- аккреционного диска. Диск позволяет гасить угловой моммент у внутренних слоев и переносить его к внешним слоям, позволяя веществу у самой-самой ЧД все-таки падать на нее. Диск сам по себе нагервается из-за вязкого взаимодействия слоев, светится, ну а само падение вещества приводит к выделению энергии. Аккреция -- это самый эффективный из известных механизмов превращения материи в энергию (в пересчете на массу покоя частицы), на несколько порядков эффективнее реакций синтеза внутри звезд.
Многие ЧД звездных масс взаимодействуют с другими звездами, поглощая их материю. Этот процесс бывает нестабильным, из-за чего размер диска, его яркость и температура, а так же множество других параметров вещества вокруг ЧД меняются драматически. Иногда на масштабах дней/недель яркость может возрасти в 100 раз, а потом так же быстро упасть, а ЧД попутно выбросит узконаправленные потоки материи называемые джетами (механизм их формирования это целый отдельный раздел астрофизики). Джеты видны радиотелескопам (даже у маленьких ЧД, см "микроквазары"), а вот аккреционный диск или ближайшая акрестность ЧД -- нет. Поэтому первые снимки M87 и Sgr A* дают возможность взглянуть именно на аккреционный диск, конечно вокруг значительно более массивной ЧД, но тем не менее. Изучение аккреционных дисков и джетов позволит лучше понять физические процессы в условиях экстремальной гравитации, и других способов взглянуть на физику под таким углом пока нет.
Хотите пофантазируем? Есть такой объект, OJ287, блазар. Фактически это галактика, в центре которой, согласно наиболее популярной версии, не одна а целых две сверхмассивные ЧД, много больше чем Sgr A*. Хитрость в том, что из-за большой разницы масс, второстепенная ЧД фактически обращается вокруг основной, и есть теория, что существующий период активности в ~11 лет объясняется тем, что орбита второстепенной ЧД эксцентрична (т.е. эллипс а не окружность), и ЧД регулярно пересекает аккреционный диск (который скорее всего почти круг), вызывая яркие вспышки, что мы и наблюдаем. Как говорится, let's put it into perspective: почти двадцать миллиардов (20 * 10^9) масс Солнца (1 Мо = 2 * 10^30 кг) зажаты в пределах четверти светового года (или около 15 тысяч расстояний между Землей и Солнцем), с орбитальным периодом, который мы можем несколько раз пронаблюдать за одну человеческую жизнь (большая редкость для космических процессов). Если когда-нибудь OJ287 будет наблюдаться аналогичным образом (с помощью Event Horizon Telescope), это будут бесценные данные. Ах да, такая система должна быть еще довольно мощным постоянным источником гравитационных волн, и если не с помощью LIGO/Virgo, то вероятно с помощью космических гравитационных интерферометров есть шанс это измерить. По оценкам, эти ЧД столкнутся в пределах 10 000 лет. Таким образом, гипотеически мы смогли бы увидеть орбитальное движение двух сверхмассивных ЧД, их взаимодействие с аккреционным диском, и одновременно "услышать" пульс гравитационных волн, который ускоряется с каждой секундой из-за неминуемого столкновения. И вот для того, чтобы даже голословные рассуждения на эту тему были возможны, нужны и первые данные с LIGO/Virgo, и первые снимки M87 / Sgr A*.
Главный вопрос, конечно же, "Зачем?". Если наблюдаемые проявления взаимодействия ЧД с веществом согласуются с теоретическим предсказаниями "очень хорошо" (говоря простым языком), значит существующая теория работает и применима даже в экстремальных физических условяих. Если же наблюдается несоответствие модели и наблюдений, значит условная ОТО -- не полная, и требует доработки, что так же является критически важным результатом работы.
Приложение HH мне периодически показывает пуши (мы подобрали вам N вакансий). В до-[Роскомнадзор]ные времена находилось порядка 2800 вариантов, ближе к началу марта число резко упало до ~1800, сейчас оно около ~800. Вчера впервые пришел пуш с 700 с чем то вакансиями. Фильтры насколько я помню я не менял.
Я сначала не поверил. Открыл Explorer, и вы оказались правы. Спрведливости ради, это похоже на артефакт каких-то WinApi приложений. Например, такие же проблемы имеют многие "классические" приложения, но не "современные". Все равно бред, особенно после выпуска brand new версии Windows.
Мне кажется, упущена одна важная вещь, которая объясняет, почему сверхновые настолько значимы. Если грубо, есть сверхновые типа Ia и все остальные, не-Ia. Последние -- это так называемые core-collapse supernovae, т.е. результат коллапса массивных звезд на последнем этапе жизни. Типов этих core-collapse - великое множетсво, их спектры и кривые блеска (изменение яркости со временем) зависят от кучи факторов, включая химический состав. Тем не менее, они имеют некие общие черты, профиль увеличения яркости с постепенным "экспоненциальным" (примерно) затуханием, и т.д. Вернемся к Ia, это thermal runaway supernovae, возникающие в двойных системах, где белый карлик аккрецирует вещество с другой звезды. При определенных условиях этот процесс может длиться довольно долго, но есть нюанс (тм). Белые карлики имеют предельную массу примерно 1.44 Мsun (предел Чандрасекара), при превышении которой давление вырожденных электроном более не может сдерживать гравитационный коллапс. Так вот, если белый карлик потихоньку набирает вещество, как только он приблизится к этой массе, он рванет. И из-за того, что взрывы происходят при примерно одинаковых условиях (БК массой 1.44 Мsun), наблюдаемая картина практически всегда одинаковая. Более того, известно количество энергии, которое это все генерирует, и пиковая яркость. Поэтому если вдруг вы обнаружили сверхновую, и смогли доказать что это Ia, вы с высокой степенью точности можете определить расстояние до этой звезды, просто потому что все Ia взрываются одинаково.
Ну и интересное замечание -- thermal runaway и core-collapse это процессы, отличающиеся друг от друга, а главное происходящие с совершенно разными объектами (крохотный БК массой 1.44Msun vs ядро в несколько масс (иногда десятков масс) Солнца в сверхмассивной звезде), но их наблюдаемые характеристики достаточно схожи, чтобы изначально поместить их в одну категорию "сверхновые" и только спустя некоторое время понять, что Ia (и подтипы) отличаются от всех остальных сверхновых.
А вы пробовали считать коэфициенты дальше n=7? Вангую что при таком подходе (долбить факториалы каждый раз с нуля и потом на них делить) у вас очень быстро развалятся коэффициенты. Или здесь какое-то хитрое целочисленное деление основанное на рациональных числах? Максимально страшно выглядит round() при вычиление коэффициентов.
Это все очень похоже на snapshot testing. Можно как-то поподробнее разъяснить разницу? Буквально вчера смотрел на snapshot testing в C# и нашел Verify, у вас есть опыт работы с ним?
Отдельный важный для меня вопрос -- интеграция тестирования с CI. Для корректной работы подобных тестов нужно за собой таскать артефакты (правильный вывод тестов), и это не всегда оптимальное решение. Есть ли какие-то стандартные решения у этой проблемы?
Единственная 'глубокая' 'философская' мысль поста - 'Every base is base 10' (я об этом раньше не задумывался), все остальное слишком притянуто и упрощено.
В Computer Science есть такой банальный принцип: garbage in -- garbage out. Суть его довольна проста -- если на вход вашему алгоритму подается "мусор", не важно, правильно ли ваш алгоритм написан или нет, на выходе стоит ожидать только "мусор".
В данном разделе предлагается сценарий рождения и эволюции Вселенной, основанный на хорошо известной идее двойственности (бинарности) нашего Мира
В этом параграфе буквально собраны в кучу случайные примеры где фигурирует что-то в количестве двух штук. Не важно, есть ли связь, главное -- чтобы было два. Казалось бы, почему не 3? Трехмерность пространства невероятно важное свойство, оно в свою очередь определяет зависимость силы взаимодействия от расстояния (как 1/r^2) или потенциальной энергии взаимодействия (как 1/r). И степени здесь не "примерно 2" и "примерно 1", а с высокой степенью точности именно целые числа, без каких либо дробных частей.
Полагать, что наша уникальная Вселенная возникла случайно, как один из огромного числа вариантов, так же наивно, как полагать, что жизнь на Земле возникла в результате случайного сочетания атомов и молекул.
No comments, выше уже ответили.
Удивительно, что на «нашу» наблюдаемую и ощущаемую барионную материю остается менее 4%, большая часть которой не связана с живой материей.
И что удивительного? По определению "жизни" даже в нашей солнечной системе абсолютное большинство барионной материи -- неживая. Даже если "жизнь" вдруг есть на соседних планетах, это обычно тонкий слой "биосферы" на поверхности шарообразного тела, абсолютно большая часть объема (и еще большая доля по массе) -- неживая. Так что да, "живой" материи в космосе пренебрежимо мало. Конечно можно учесть всякие органические молекулы которые образуются в молеклуярных облаках и т.д. (а.к.а. "облако спирта" как пишут в нашей желтой прессе), но на критерий "жизни" это не тянет, увы.
Все больше космологов склоняются к гипотезе о начале нашей Вселенной не из куска сверхплотного вещества, а из «планковского вакуума», как «кипящей пены» виртуальных безмассовых частиц и античастиц.
Рад за коллег-космологов. Вот если бы еще увидеть ссылки на сторонников одной и другой гипотезы и почитать их мнения (хотя бы Abstract + Conclusions), было бы совсем легко принять вашу теорию.
После рождения двойственного Космического вакуума, обе его компоненты приступили к выполнению своих функций: физический вакуум – к созданию материальных частиц и полей их взаимодействия (согласно Стандартной физической модели), а мнимый вакуум – к «управлению» процессом создания «нужных» (для возникновения живой материи) частиц и полей
Ну теперь-то все стало понятно, а я-то думал. Пойду исправлять свой тезис и сдавать степень -- вакуумы-то оказались просто трудягами и уже сколько миллиардов лет фигачат нужные частицы по госплану. Только вот непонятна разница в обязанностях "материальные частицы и поля" и "частицы и поля нужные для возникновения живой материи" это примерно одно и то же. Или мнимый вакуум создает "мнимые" частицы, a.k.a симулирует деятельность и осваивает энергетический бюджет вселенной?
По нашему предположению, мнимый вакуум «создает» живую материю и управляет процессом ее направленной эволюции, то есть он находится в живой материи так же, как физический вакуум находится в элементарных частицах.
“For my ally is the Force, and a powerful ally it is. Life creates it, makes it grow. Its energy surrounds us and binds us. Luminous beings are we, not this crude matter.” - Yoda
темная материя – это заранее «задуманный» результат эволюции мнимого вакуума, а живая материя – это промежуточный этап (оболочка) превращения мнимого вакуума в темную материю (можно называть её «душой»)
Если призвать сюда какой-то обобщенный корпус религиозных верований, получается что жизнь это этап на пути эволюции между "мнимым вакуумом" и "темной материей". Не обладая всей глубиной познания, рискну выдинуть гипотезу, что получается "темная материя" это совокупность "душ" умерших живых существ? Т.е. буквально души терзают нашу вселенную, пытаясь разорвать ее на куски и вырваться за ее пределы (a.k.a. ускоренное расширение вселенной). С таким world building вам бы фантастику писать.
Неживая материя нерастет и не возникает дополнительно к уже существующей (закон сохранения материи).
Закона сохранения "материи" как такового нет. Можно сохранять момент, угловой момент, энергию. Материя не обязана сохранятся. За примерами далеко ходить не нужно -- вот две черные дыры столкнутся и излучат колоссальное количество энергии, при этом масса новой черной дыры всегда меньше чем сумма масс двух ее предшественников. Солнце буквально теряет материю каждую секунду, трансформируя ее часть в излучаемую энергию (при этом энергетический баланс выполняется). Фотон сам по себе не является материей, но при определенных условиях возможен так называемый electron-positron pair production, когда из ультра-энергетических фотонов можно получить электрон и позитрон, и если удастся их разделить до аннигиляции обратно -- буквально создать материю из энергии.
С одной стороны, как узнать, кто «производит» более «качественную» темную материю
Да я походу правильно угадал про "души".
Здесь также возникает ряд трудных вопросов: возможно ли взаимодействие Космического сознания с сознанием человеческого мозга?; предопределен ли техногенный путь развития человечества?; если «да», то возможен ли симбиоз «духовного» начала темной материи с неизбежной роботизацией человека?
Как от темы "возникновения Вселенной" -- довольно специфической и узкой области -- мы догли до космических сознаний и техногенного пути развития человечества?
P.S.: наверное так себя чувствуют эпидемиологи и вирусологи когда им рассказывают как вакцины используютюся для внедрения чипов, управляемых через вышки 5G.
C# - имплементация хэширования просто адовая, не учитывает особенности платформы (вангую переписывание бенчей с какой-нибудь Java не задумываясь). Было бы не плохо это починить.
Недавно отправил на пенсию 2700K и заменил на 11700KF. Сразу предупреждаю, запускал на Windows как есть (чистое окружение не готовил). Имею проблемы с охлаждение, по моим прикидкам теряю примерно 1% частоты (0.05 ГГц) при продолжительной пиковой нагрузке.
Дотнетовский бенчмарк у меня один раз выпал с ArgumentOutOfRangeException при досутпе к какой-то коллекции. В остальные два раза 24 тест у меня просто не отрабатывал -- 0 загрузки CPU и 0 прогресса. Что-то странное с бенчмарком на сравнение строк параллельно -- потребляет не более 20% CPU cycles, возможно там какой-то data race происходит (либо может это IO-bound/GC-heavy, но я не заметил ни давления на память ни доступа к диску). На джаве параллельные строки работали действительно праллельно с загрузкой в 100%.
Т.к. в джаве не шарю, запустил бинарник "как есть".
Возможно я что-то еще делаю не так, но тест блендера занял у меня 22 секунды.
По хорошему, психология не нужна -- невозможно изучить на достаточном уровне тратя пару часов в неделю. Педагогика -- хорошо. Иностранный язык звучит забавно, обычно если есть тест на английский, он сдается до поступления. Хорошая идея это всякие Academic Writing, Grant Proposal Drafting и прочие полезные навыкию То как у нас преподавали это пещерный совок. Точнее не совок а просто средняя школа с поправкой на длину урока в два академических часа.
Изучал "философию" в нашей аспиранутре, не изучал в заграничной. Философия для нефилософов практически пустая трата времени. С другой стороны, в заграничной аспирантуре есть, например, этика и прочие важные вещи -- о том как собирать и обрабатывать данные (особенно перснальные данные), о прведении эксериментов над животными, о храненнии данных и ответственности за утечки, об ответственности за качество публикаций и плагиаризм -- вот этого нам точно в РФ не хватает, т.к. многие даже не задумываются что поступают неэтично.
Спасибо за цитирование, очень удивился получив уведомление на почту от хабра об упоминании, на который не заходил больше года.
Вообще, огромные вопросы к шпаргалкам в конце. Особенно к выбору, что использовать, рекорды или обычные классы/структуры. Это слабо связано с тем, будет ли использоваться тип в качестве поля другого типа. Обычные структуры чаще всего используются для оптимизаций, где можно избавиться от лишних аллокаций в куче и ускорить операции (как пример, особая поддержка
struct
-энумераторов вforeach
или при ручном вызове для массивов, спэнов, и т.д.),record struct
теперь по всей видимости будут представлять value-type DTO с хэшем, равенством, и т.д. (все эти вашиPoint2D
,RGB
цвета и т.д., для чего раньше приходилось руками писать весь обвес).record
это теперь go-to решение для доменных моделек и прочих value-object из-за иммутабельность по умолчанию и простоты создания, а так же из-за наследования. Ну иclass
на все остальное, включая EF, которому плохо от иммутабельных рекордов.И 16 байт тут тоже так себе лимит. В зависимости от функций вашего кода, предача
readonly record struct
поin
ссылке или не-readonly поref
(в зависимости от целей) может быть гораздо эффективнее чем использование ссылочного типа.Короче, наверное каждая шпаргалка подлежит обсуждению.
У вас в таблице опечатка -
record struct
с позиционной записью можно создавать с помощью инициализатора объектов. Вообще конструкторы и инициализаторы объектов ортогональны друг другу в каком-то смысле -- если объект создался с помощью какого-то конструктора (а уrecord struct
есть дефолтный конструктор), те его поля иset/init
свойства, которые видны в данном контексте можно присвоить в инициализаторе. В том числе, можно сначал инициализировать свойство в конструкторе и тут же пере-присвоить значение в инициализаторе.Пример на sharplab.
Да легко. LIGO долгие годы не приносил результатов, пока не был проапгрейжен до Advanced LIGO, после чего результаты посыпались со всех сторон. Если вы намекаете, что это фейк, то это отборнейший фейк с элементами предсказания будущего, потому что NS-NS мерджер GWS170817 был зарегистрирован до гамма-вспышки. Чертовски удачное совпадение.
Тем временем у меня есть конкретный пример исследований, где из примерно 4 пропозалов и около десятка объектов наблюдений лишь один объект дал положительный результат (в смысле вообще результат какой-то был), и не просто положительный, а достойный публикации в журнале Science. Сколько времени было потрачено на отладку инструмента, бенчмарк, тестовые наблюдения и сверка со стандартами, чтобы доказать, что все настолько точно -- я даже не пытаюсь описать. Но пожалуйста, верьте в то, что вся наука построена только на получении положительных результатов.
Я никогда близко не занимался радиоинтероферометрией, но ответ довольно простой -- у вас есть N независимыз и проверенных инструментов, которые объединяют в сеть для увеличения апертуры до ~ диаметра Земли, а еще у вас есть математический аппарат, которые позволяет по результатам интерферометрии восстановить изображения со значительными артефактами. Бублик на поверхности Луны вы не увидите по многим причинам.
Вы же сами пишете, "тень". На снимке сверхмассивная ЧД с аккреционным диском. В низком разрешении. Никто никогда не ожидал увидеть "круг", и уж тем более никакое вещество по спирали вокруг ЧД не обращается -- по крайней мере в тривиальном смысле, см. теорию аккреции и формирования аккреционных дисков, теорию сферической аккрецции и смежные области. И поглощение не происходит равномерно.
Это ожидаемо. Последние доли секунды жизни двойной системы из двух ЧД производят достаточной силы гравитационные волны, чтобы их можно было зафикировать. Вблизи самого слияния две ЧД являются доминирующим источником гравитацонных волн, и именно "отличное" совпадение наблюдаемых волн с предсказаниями ОТО и является подтверджением того, что это настоящие гравитационные волны.
Пожалуйста, не мешайте в кучу всю конспирологию, вы хотя бы ознакомьтесь с вопросом. Про ITER почитайте, я не знаю. Термоядерный синтез один из основных механизмов получения энергии во Вселенной. Абсолютно вся энергия, которую вы расходуете за свою жизнь, является резульатом термоядерного синтеза. "Металлы" (элементы тяжелее гелия на астро-жаргоне) -- результат термоядерного синтеза (но не все, есть и ограничения). Но так сложилось, что термоядерный синтез требует определенных условий. Очень высоких давления и температуры. Крайне высоких. В космосе проблема решается легко -- там есть гравитация и законы газодинамики, которые достаточно тяжелое облако газа разогреют до нужных температур в ядре. На Земле таких условий нет. Вообще. Ни в ядре, ни на поверхности. Не имея возможности удерживать плазму гравитацией, люди пытаются этого добиться иными способами -- электромагнитными полями сложнейшей конфигурации, которые к счастью мы создавать умеем. На самом деле термоядерный синтез вещь очень простая -- вам нужно топливо, вам нужно его "слегка" разогреть, вам нужно его удержать в одном месте, и извлечь из этого энергию. Все эти шаги возможны уже сейчас (и были возможны давно), до сих пор нерешенная проблема -- удержать плазму достаточно долго, извлечь энергию с достаточным КПД, и самое важное произвести энергии больше чем было затрачено на старт реакции и ее поддержание. Именно этого пытается достичь ITER.
Честно, я устал разбирать эту кашу. Вот это например тоже не совсем правда
Гравитационное поле действительно влияет на электромагнитное (см например гравитационное красное смещение), но здесь речь о другом -- гравитационные волны искажают пространство-время, из-за чего нарушается интерференционная картина в детекторе. Нужны лишь длинные "плечи" интерферометра. На Земле выкопали тоннели и подвесили зеркала, будущем запустят в космос несколько спутников и получат бОльший частотный диапазон и чувствительность.
Я не знаю, откуда такая ненависть у автора к ученым, к астрофизикам в частности. Право его (как и мое -- испытывать отвращение к конспирологам), но лично я не вижу смысла тратить время на разбор ошибок/неточностей/беспардонной лжи, зная, что каждый останется при своем мнении.
Простите, не очень понимаю, в чем смысл вашего комментария? Вы перечислили какие-то цитаты с около-технического ресурса в ру-зоне, которые лишь указывют на поверхностность познаний автора (-ов) цитат.
Фундаментальная наука работает на 100% в рамках математических моделей. Интересно, что оригинальный автор не понимает, как работают доказательства каких-то гипотез в науке. Есть наблюдательный факт интерферометры LIGO (и Virgo) зарегистрировали синхронно* некоторые колебания, превышающие уровень шума. Эти колебания очищаются, затем сраниваются с теоретическими предсказаниями ОТО (форма и частота сигналов в зависимости от положения интерферометра на Земле). И на основе этого можно решить проблему оптимизации параметров -- найти массы ЧД, расстояние до них, область, из которой пришел сигнал, время "слияния". И с определенной долей вероятности мы утверждаем, что это слияние ЧД. Есть много проверок, которое это все проходит -- например, вероятность слуайного возникновения такого сигнала, вероятность возникновения его одновременно на нескольких интерферометрах и т.д. Goodness-of-fit в конце концов, на сколько модель хорошо соответствует данным. И вот все это позволяет нам сказать что это не совпадение и не упавший метеорит в сибири, а слияние ЧД.
Обвинение в фальсификации звучит не то чтобы оскорбительно, но ожидаемо. В конце концов необходимо иметь определенные познания и уровень экспертизы, чтобы судить о таких результатах, что несколько сложнее, чем верить в религию или конспирологию. Характерно, что оригинальный автор(-ы) используют набор псевдонаунчых терминов, практически ничего общего с реальностью не имеющие. Со стороны, наверное, звучит умно и по-экспертному.
В мире гигантское количество спекулятивных дисциплин, тем не менее люди упорно несут деньги, чтобы их развлекали сказками о волшебных существах, которые управляют всем миром, и ни у кого не возникает вопросов. Но стоит только попросить деньги на науку -- нее, не дадим, вы нам врете.
Вопрос сложный, а ответ и решение скорее всего индивидуально для каждого. Не считаю себя полноценным разработчиком потому что понимаю, сколько вещей я на самом деле (еще) не понимаю.
Скорее всего, граница пролегает в процессе (само-) обучения. Если работать с 9-до-5 и в остальное время не трогать ПК, наверное можно стать крутым разработчиком, но для этого нужен талант. Для простых смертных типа меня работает внерабочая активность -- участие в опенсорсе, пет-проекты, следование за инновациями в платформе (большниство технологий сейчас имеет как минмум один крупный релиз в год, значит каждый год есть что-то новое, что стоит выучить). Посещение конференций (хотя бы в формате просмотра докладов), изучение best-practices. А еще велосипедостроение. Многие считают что это бесполезная трата времени, и это так, когда это касается работы. А вот для себя построить велосипед очень полезно -- по пути вы сделаете ошибки и столкнетесь с ограничениями, а потом сможете изучить, как профессионалы избегали таких ошибок и обошли ограничения, сравнив свой велосипед с industry standard.
Еще помогает смена области. Не в смысле работы, а в смысле "влезть к соседям в свободное время". Возьмите бесплатный движок, напишите игру. Пусть это будут бестекстурные шары на прямоугольной площадке. Сделайте глупый SPA сайт с двумя кнопками или напишите консольную утилиту для группировки любимых сериалов на диске. Скачайте
.csv
какого-нибудь государственного органа любой страны и посчитаете какую-нибудь простенькую статистику на python/R/Julia. А потом создайте базу и запишите туда результат. Выложите код в репозиторий, наладьте CI, контейнеризуйте, обложите тестами. Возможно, ничего из этого вам напрямую в работе не понадобится, но это способствует двум вещам: 1) получению опыта и обучению процессу "обучения" и 2) изучение практик и подходов в смежных областях, удачные решения из которых можно позаимствовать. После этого никакая новая технология, никакой новый инструмент на вашем основном месте работы вам больше не будет создавать проблем. Скорее всего вы будете сразу думать "А, так это же технология X, которую я видел в проекте Y, только используется по-другому. Ничего сложного."Как всегда, есть одно "но". Все это легко обсуждать если вам айти-тематика интересна. Если вы в дестве хотели написать свою игру, или хотите создавть свой собственный сайт, или разобраться как что-то работает, или заставить тупой код работать быстрее в 10 раз, применив оптимизацию, или автоматизировать рутину потому что бесит выполнять одно и то же действие -- поздравляю, вас скорее всего ну нужно заставлять в свободное время возиться с кодом, вероятно вы и так уже это делаете. А вот если написание кода это тяжелая работа и после трудового дня нет никакого желания написать даже строчку в своей программе -- достичь результатов будет сложнее просто потому что заставить себя сложнее. Как и везде -- если ваша работа это ваше хобби, жить гораздо проще.
И здесь кроется основная проблема. Если условный гик с детства пришел в айти, ему там комфортно. Даже работая на неинтересной работе в кровавом ынтырпрайзе, это все равно его среда. А если человек, с детства хотевший стать, не знаю, писателем, ненавидящий все эти схемы, чертежи, карты, графики и графы, математику, пытается войти в айти потому что там платят многа деняк, а не потому что хочется -- я не уверен что у такого человека получится поднятся выше условного "кодера", i.e. работника, выполняющего рутинные задачи стандартными способами. Но это не значит, что нужно бросать все и не работать над собой. Просто это будет тяжелее.
Кажется, все же нужно отличать разработчиков от кодеров (названия взяты с потолка, но должны отражать суть). И практически все курсы подготовки "за 3 месяца" готовят на самом деле кодеров (и их эквивалентов в смежных областях).
Я перешел в энерпрайз не так давно, но довольно быстро обнаружил, что большая часть команды -- именно кодеры. Они отлично (часто лучше меня) выполняют стандартные рутинные задачки, пишут стандартные фрагменты кода, но абсолютно не задумываются о том, что они пишут. Из-за чего на ревью выпадают детские ошибки или нерациональные с точки зрения ресурсов конструкции, которые легко можно заменить на более оптимизированные за О(1) времени и сил. А иногда эти ошибки и недочеты едут в прод, если на ревью не попадается такой
мчудак как я, который пытается найти баланс между затраченным временем/ресурсами и качеством кода, и доебкапывается до мелочей.И это более-менее работает на этапе начальной разработки. А потом перестает. Перестает, когда нужно найти проблему и починить. Перестает, когда нужно расширить функционал, а существующая реализация просто чудовищна. Перестает, потому что кодеры могут знать много разных умных слов, описывающих принципы разработки, но не уметь применять их (или применять подобие принципов без реальной пользы). И все это в конечном итоге приводит к потере денег бизнесом. Медленнее разработка, больше багов и работы для саппорта, больше счета за облачную инфраструктуру из-за нерационального использования ресурсов.
"Войти в айти" (тм) и стать кодером -- не так уж и сложно, но все равно требует усилий. Проблема в том что зачастую кодеры производят впечатление чуть более совершенной версии GitHub Copilot, и не на каждую должность можно попасть с такими навыками.
Вы правы, это был плохой выбор слова. "Несколько" в данном контексте стоит понимать как 1 - 1.5 порядка. В качестве источника для этой информации я использовал Frank, King & Raine (2002), если вдруг кто-то хочет проверить или ознакомиться с выкладками.
Давайте попробуем разобраться. Одна из основных проблем современной фундаментальной науки -- это плохое сочетание общей теории относительности (ОТО) с квантовой теорией поля. Если совсем просто, кванты это про микро мир, базовые частицы, поля, и всякую квантовую магию типа суперпозиции, неопределенности Гейзенберга и т.д. А ОТО это про пространство-время, его искревление под действием массы и т.д. По отдельности обе модели работают идеально -- квантовые эффекты дают нам все, от полупроводников до радио, от спектра теплового излучения до квантовых компьютеров, ОТО помогает справиться с различными гравитационными и временными эффектами (например, поправить сигналы GPS спутников или не промахнуться ровером по Марсу). Но вот вместе, ОТО и кванты не очень согласуются друг с другом. Точнее не придумана теория, которая лаконично описывает как эффекты ОТО на огромных расстояниях и в присутствии огромной массы, так и квантовые эффекты на нано-расстояниях.
На данный момент в лабораториях нам доступны ограниченные эксперименты для проверки квантовых теорий. Можно разогнать пару частиц в Большом Адронном Коллайдере (БАК) и посмотреть, что произойдет при их столкновении. Но создать симуляцию огромной массы, сосредоточенной в крошечном пространстве, чтобы посмотреть, как ведет себя пространство-время, мы не можем (а очень хочется). Так вышло, что в космосе есть объекты (иногда называемые астрофизическими лабораториями), которые одновременно являются объектами исследования ОТО и квантовой механики -- это черные дыры (ЧД). Осознать насколько ЧД странные, бывает довольно сложно. Ну например, чтобы ЧД возникла, очень часто нужно, чтобы вещество было сжато настолько сильно, что это оказывает эффект на квантовом уровне. Сжал слабо -- получил что-то типа белого карлика, сжал сильнее и вдавил электроны в протоны -- получил нейтронную звезду (с практически неизвестынм уравнением состояния "газа"), сдавил еще сильнее -- все, ЧД. С одной стороны, ОТО предсказывает трудно-постижимые эффекты вблизи ЧД (и "внутри" если можно так выразиться), с другой стороны -- в каком квантовом состоянии находится "вещество" внутри -- сказать очень сложно, но ведь оно же никуда не исчезло. И все это происходит в одном объекте.
ЧД "черные" потому что одиночне ЧД мы увидеть не можем (скорее всего не можем, гипотетическое излучение Хокинга для известных ЧД должно быть чрезвычайно мало). Зато мы видим, какой эффект они оказывают на окружающее вещество (аккреция), на фотоны, пролетающие мимо (гравитационное линзирование), на другие объекты (движение звезд по орбите вокруг "ничего", движение звезд в центер Млечного Пути вокруг этого самого Sgr A*). И вот один из процессов в окрестности ЧД изучается довольно давно -- это аккреция, падение вещества с какого-то удаления на (или скорее "под") "поверхность" ЧД. Падение это происходит сложным образом, обычно приводящим к возникновению плоской структуры -- аккреционного диска. Диск позволяет гасить угловой моммент у внутренних слоев и переносить его к внешним слоям, позволяя веществу у самой-самой ЧД все-таки падать на нее. Диск сам по себе нагервается из-за вязкого взаимодействия слоев, светится, ну а само падение вещества приводит к выделению энергии. Аккреция -- это самый эффективный из известных механизмов превращения материи в энергию (в пересчете на массу покоя частицы), на несколько порядков эффективнее реакций синтеза внутри звезд.
Многие ЧД звездных масс взаимодействуют с другими звездами, поглощая их материю. Этот процесс бывает нестабильным, из-за чего размер диска, его яркость и температура, а так же множество других параметров вещества вокруг ЧД меняются драматически. Иногда на масштабах дней/недель яркость может возрасти в 100 раз, а потом так же быстро упасть, а ЧД попутно выбросит узконаправленные потоки материи называемые джетами (механизм их формирования это целый отдельный раздел астрофизики). Джеты видны радиотелескопам (даже у маленьких ЧД, см "микроквазары"), а вот аккреционный диск или ближайшая акрестность ЧД -- нет. Поэтому первые снимки M87 и Sgr A* дают возможность взглянуть именно на аккреционный диск, конечно вокруг значительно более массивной ЧД, но тем не менее. Изучение аккреционных дисков и джетов позволит лучше понять физические процессы в условиях экстремальной гравитации, и других способов взглянуть на физику под таким углом пока нет.
Хотите пофантазируем? Есть такой объект, OJ287, блазар. Фактически это галактика, в центре которой, согласно наиболее популярной версии, не одна а целых две сверхмассивные ЧД, много больше чем Sgr A*. Хитрость в том, что из-за большой разницы масс, второстепенная ЧД фактически обращается вокруг основной, и есть теория, что существующий период активности в ~11 лет объясняется тем, что орбита второстепенной ЧД эксцентрична (т.е. эллипс а не окружность), и ЧД регулярно пересекает аккреционный диск (который скорее всего почти круг), вызывая яркие вспышки, что мы и наблюдаем. Как говорится, let's put it into perspective: почти двадцать миллиардов (20 * 10^9) масс Солнца (1 Мо = 2 * 10^30 кг) зажаты в пределах четверти светового года (или около 15 тысяч расстояний между Землей и Солнцем), с орбитальным периодом, который мы можем несколько раз пронаблюдать за одну человеческую жизнь (большая редкость для космических процессов). Если когда-нибудь OJ287 будет наблюдаться аналогичным образом (с помощью Event Horizon Telescope), это будут бесценные данные. Ах да, такая система должна быть еще довольно мощным постоянным источником гравитационных волн, и если не с помощью LIGO/Virgo, то вероятно с помощью космических гравитационных интерферометров есть шанс это измерить. По оценкам, эти ЧД столкнутся в пределах 10 000 лет. Таким образом, гипотеически мы смогли бы увидеть орбитальное движение двух сверхмассивных ЧД, их взаимодействие с аккреционным диском, и одновременно "услышать" пульс гравитационных волн, который ускоряется с каждой секундой из-за неминуемого столкновения. И вот для того, чтобы даже голословные рассуждения на эту тему были возможны, нужны и первые данные с LIGO/Virgo, и первые снимки M87 / Sgr A*.
Главный вопрос, конечно же, "Зачем?". Если наблюдаемые проявления взаимодействия ЧД с веществом согласуются с теоретическим предсказаниями "очень хорошо" (говоря простым языком), значит существующая теория работает и применима даже в экстремальных физических условяих. Если же наблюдается несоответствие модели и наблюдений, значит условная ОТО -- не полная, и требует доработки, что так же является критически важным результатом работы.
Приложение HH мне периодически показывает пуши (мы подобрали вам N вакансий). В до-[Роскомнадзор]ные времена находилось порядка 2800 вариантов, ближе к началу марта число резко упало до ~1800, сейчас оно около ~800. Вчера впервые пришел пуш с 700 с чем то вакансиями. Фильтры насколько я помню я не менял.
Я сначала не поверил. Открыл Explorer, и вы оказались правы. Спрведливости ради, это похоже на артефакт каких-то WinApi приложений. Например, такие же проблемы имеют многие "классические" приложения, но не "современные". Все равно бред, особенно после выпуска brand new версии Windows.
Мне кажется, упущена одна важная вещь, которая объясняет, почему сверхновые настолько значимы. Если грубо, есть сверхновые типа Ia и все остальные, не-Ia. Последние -- это так называемые core-collapse supernovae, т.е. результат коллапса массивных звезд на последнем этапе жизни. Типов этих core-collapse - великое множетсво, их спектры и кривые блеска (изменение яркости со временем) зависят от кучи факторов, включая химический состав. Тем не менее, они имеют некие общие черты, профиль увеличения яркости с постепенным "экспоненциальным" (примерно) затуханием, и т.д. Вернемся к Ia, это thermal runaway supernovae, возникающие в двойных системах, где белый карлик аккрецирует вещество с другой звезды. При определенных условиях этот процесс может длиться довольно долго, но есть нюанс (тм). Белые карлики имеют предельную массу примерно 1.44 Мsun (предел Чандрасекара), при превышении которой давление вырожденных электроном более не может сдерживать гравитационный коллапс. Так вот, если белый карлик потихоньку набирает вещество, как только он приблизится к этой массе, он рванет. И из-за того, что взрывы происходят при примерно одинаковых условиях (БК массой 1.44 Мsun), наблюдаемая картина практически всегда одинаковая. Более того, известно количество энергии, которое это все генерирует, и пиковая яркость. Поэтому если вдруг вы обнаружили сверхновую, и смогли доказать что это Ia, вы с высокой степенью точности можете определить расстояние до этой звезды, просто потому что все Ia взрываются одинаково.
Ну и интересное замечание -- thermal runaway и core-collapse это процессы, отличающиеся друг от друга, а главное происходящие с совершенно разными объектами (крохотный БК массой 1.44Msun vs ядро в несколько масс (иногда десятков масс) Солнца в сверхмассивной звезде), но их наблюдаемые характеристики достаточно схожи, чтобы изначально поместить их в одну категорию "сверхновые" и только спустя некоторое время понять, что Ia (и подтипы) отличаются от всех остальных сверхновых.
А вы пробовали считать коэфициенты дальше
n=7
? Вангую что при таком подходе (долбить факториалы каждый раз с нуля и потом на них делить) у вас очень быстро развалятся коэффициенты. Или здесь какое-то хитрое целочисленное деление основанное на рациональных числах? Максимально страшно выглядитround()
при вычиление коэффициентов.Это все очень похоже на snapshot testing. Можно как-то поподробнее разъяснить разницу? Буквально вчера смотрел на snapshot testing в C# и нашел Verify, у вас есть опыт работы с ним?
Отдельный важный для меня вопрос -- интеграция тестирования с CI. Для корректной работы подобных тестов нужно за собой таскать артефакты (правильный вывод тестов), и это не всегда оптимальное решение. Есть ли какие-то стандартные решения у этой проблемы?
Единственная 'глубокая' 'философская' мысль поста - 'Every base is base 10' (я об этом раньше не задумывался), все остальное слишком притянуто и упрощено.
В Computer Science есть такой банальный принцип: garbage in -- garbage out. Суть его довольна проста -- если на вход вашему алгоритму подается "мусор", не важно, правильно ли ваш алгоритм написан или нет, на выходе стоит ожидать только "мусор".
В этом параграфе буквально собраны в кучу случайные примеры где фигурирует что-то в количестве двух штук. Не важно, есть ли связь, главное -- чтобы было два. Казалось бы, почему не 3? Трехмерность пространства невероятно важное свойство, оно в свою очередь определяет зависимость силы взаимодействия от расстояния (как 1/r^2) или потенциальной энергии взаимодействия (как 1/r). И степени здесь не "примерно 2" и "примерно 1", а с высокой степенью точности именно целые числа, без каких либо дробных частей.
No comments, выше уже ответили.
И что удивительного? По определению "жизни" даже в нашей солнечной системе абсолютное большинство барионной материи -- неживая. Даже если "жизнь" вдруг есть на соседних планетах, это обычно тонкий слой "биосферы" на поверхности шарообразного тела, абсолютно большая часть объема (и еще большая доля по массе) -- неживая. Так что да, "живой" материи в космосе пренебрежимо мало. Конечно можно учесть всякие органические молекулы которые образуются в молеклуярных облаках и т.д. (а.к.а. "облако спирта" как пишут в нашей желтой прессе), но на критерий "жизни" это не тянет, увы.
Рад за коллег-космологов. Вот если бы еще увидеть ссылки на сторонников одной и другой гипотезы и почитать их мнения (хотя бы Abstract + Conclusions), было бы совсем легко принять вашу теорию.
Ну теперь-то все стало понятно, а я-то думал. Пойду исправлять свой тезис и сдавать степень -- вакуумы-то оказались просто трудягами и уже сколько миллиардов лет фигачат нужные частицы по
госплану. Только вот непонятна разница в обязанностях "материальные частицы и поля" и "частицы и поля нужные для возникновения живой материи" это примерно одно и то же. Или мнимый вакуум создает "мнимые" частицы, a.k.a симулирует деятельность и осваивает энергетический бюджет вселенной?“For my ally is the Force, and a powerful ally it is. Life creates it, makes it grow. Its energy surrounds us and binds us. Luminous beings are we, not this crude matter.” - Yoda
Если призвать сюда какой-то обобщенный корпус религиозных верований, получается что жизнь это этап на пути эволюции между "мнимым вакуумом" и "темной материей". Не обладая всей глубиной познания, рискну выдинуть гипотезу, что получается "темная материя" это совокупность "душ" умерших живых существ? Т.е. буквально души терзают нашу вселенную, пытаясь разорвать ее на куски и вырваться за ее пределы (a.k.a. ускоренное расширение вселенной). С таким world building вам бы фантастику писать.
Закона сохранения "материи" как такового нет. Можно сохранять момент, угловой момент, энергию. Материя не обязана сохранятся. За примерами далеко ходить не нужно -- вот две черные дыры столкнутся и излучат колоссальное количество энергии, при этом масса новой черной дыры всегда меньше чем сумма масс двух ее предшественников. Солнце буквально теряет материю каждую секунду, трансформируя ее часть в излучаемую энергию (при этом энергетический баланс выполняется). Фотон сам по себе не является материей, но при определенных условиях возможен так называемый electron-positron pair production, когда из ультра-энергетических фотонов можно получить электрон и позитрон, и если удастся их разделить до аннигиляции обратно -- буквально создать материю из энергии.
Да я походу правильно угадал про "души".
Как от темы "возникновения Вселенной" -- довольно специфической и узкой области -- мы догли до космических сознаний и техногенного пути развития человечества?
P.S.: наверное так себя чувствуют эпидемиологи и вирусологи когда им рассказывают как вакцины используютюся для внедрения чипов, управляемых через вышки 5G.
P.P.S: На правах сарказма.
C# - имплементация хэширования просто адовая, не учитывает особенности платформы (вангую переписывание бенчей с какой-нибудь Java не задумываясь). Было бы не плохо это починить.
Недавно отправил на пенсию 2700K и заменил на 11700KF. Сразу предупреждаю, запускал на Windows как есть (чистое окружение не готовил). Имею проблемы с охлаждение, по моим прикидкам теряю примерно 1% частоты (0.05 ГГц) при продолжительной пиковой нагрузке.
Дотнетовский бенчмарк у меня один раз выпал с ArgumentOutOfRangeException при досутпе к какой-то коллекции. В остальные два раза 24 тест у меня просто не отрабатывал -- 0 загрузки CPU и 0 прогресса. Что-то странное с бенчмарком на сравнение строк параллельно -- потребляет не более 20% CPU cycles, возможно там какой-то data race происходит (либо может это IO-bound/GC-heavy, но я не заметил ни давления на память ни доступа к диску). На джаве параллельные строки работали действительно праллельно с загрузкой в 100%.
Т.к. в джаве не шарю, запустил бинарник "как есть".
Возможно я что-то еще делаю не так, но тест блендера занял у меня 22 секунды.
Бенчмарк Blender
dotnet 6.0
Java openjdk version "1.8.0_292"
CPU-Z
По хорошему, психология не нужна -- невозможно изучить на достаточном уровне тратя пару часов в неделю. Педагогика -- хорошо. Иностранный язык звучит забавно, обычно если есть тест на английский, он сдается до поступления. Хорошая идея это всякие Academic Writing, Grant Proposal Drafting и прочие полезные навыкию То как у нас преподавали это пещерный совок. Точнее не совок а просто средняя школа с поправкой на длину урока в два академических часа.
Изучал "философию" в нашей аспиранутре, не изучал в заграничной. Философия для нефилософов практически пустая трата времени. С другой стороны, в заграничной аспирантуре есть, например, этика и прочие важные вещи -- о том как собирать и обрабатывать данные (особенно перснальные данные), о прведении эксериментов над животными, о храненнии данных и ответственности за утечки, об ответственности за качество публикаций и плагиаризм -- вот этого нам точно в РФ не хватает, т.к. многие даже не задумываются что поступают неэтично.