Как стать автором
Обновить
77
2.8
Артемий @Sap_ru

Пользователь

Отправить сообщение

Ну, как бы американские военные уже протитип строят на этом принципе. Китайцы тоже начали эксперименты. Теоретически это просто идеальный двигатель получается, особенно для военных нужд. Но как настоящий хардкорный хайтек он очень просто конструктивно, но его очень сложно создать. И нет уверенности, что его можно сделать стабильным. С другой стороны американцы перед началом практических работ промоделировали и получилось, что теоретически работа вращающегося детонационного двигателя может быть стабильной, если его увешать датчиками и компьютерами. Это если не будет никаких неучтённых эффектов, конечно. Так-то принцип уже давно известен до безобразия просто. Просто считалось, что нельзя управлять двигателем с необходимой скоростью и точностью. Но скорость и точность ныне не проблема. Будем посмотреть.

Осталось всего ничего- объяснить:
1) Что за свойста этой энергии и какого именно рода эта энергия (поле или что?).
2) Что (какая частица( является носителем этой энергии.
3) Каким таким образом она "локализована". Это не волна? Не поле? Она не распространяется? Тогда что это? Вокруг чего именно она "локализована"?
4) Почему она "локализована" в "войдах". Там носители этой "энергии"? Тогда что это за носители?
5) Что такое "войды" и чем они так отличаются от остального пространства, что там "локализуется" тёмная энергия?

А так, да - отличная идея и всё сразу объясняет.

Вот только область образования/туннелирования зависит от длины волны излучающего/распадающегося объекта. Длина волны планковской черной дыры меньше её горизонта событий. Наблюдать их сложно, так как все квантовые эффекты оказываются заперты за горизонтом событий. Сечение взаимодействия очень мало, чтобы обнаружить пополнение непосредственно в горизонт событий. В случае крайнего везения и поглощения массы, она её тут же испускает в виде света и снова превращается в планковскую ЧД. Остаётся только гравитация - потому и идеальный кандидат на ТМ.

Ну, да, так и есть. Если при излучении/распаде ЧД неизбежно образуется высокоэнергетический фотон с длиной волны меньше гравитационного радиуса и при этом длинна волны самой ЧД тоже меньше этого радиуса, то излучение будет невозможно и она будет совершенно стабильна.

На планковских размерах излучения Хокинга нет, так как оно само основывается на квантовых эффектах планковского размера и требует, чтобы размеры ЧД были кратно больше планковской длинны и не было значительной разницы между ЧД и её горизонтом событий. Что для макрообъектов так и есть - размер ЧД определяется горизонтом событий. Но по мере уменьшения размеров ЧД, как и любой другой объект, начинает приобретать свойства волны, включая длину волны, и начинаются чудеса: определяемый длинной волны "размер" ЧД перестаёт совпадать с определяемым её массой горизонтом событий. ЧД оказывается заметно меньше своего же горизонта событий, и все создаваемые ей квантовые эффекты оказываются "заперты" внутри этого горизонта. Но это в меру моего скудного понимания.

Но то, что современная квантовая физике не допускает излучения Хоккинга у планковских черных дыр - широко известный факт.

P.S. переписал комментарий в более связный текст

Мешает горизонт событий. Там все возможные эффекты туннелирования и излучения оказываются внутри горизонта.

Я ненастоящий сварщик, но у планковских ЧД длина волны меньше их горизонта событий. Поэтому все квантовые эффекты, включая распад, оказываются заперты внутри горизонта событий и объект стабилен. А эффекты, которые могли бы проявиться вне горизонта событий, должны иметь слишком высокие энергии и приводят или к формированию новой планковской ЧД или нарушают энергетический баланс и потому невозможны.

Как-то так.

А ещё у вас наблюдаемая скорость света изменится и куча базовых физических констант, включая те, что влияют ядерный синтез в звездах, что может немного насторожить стороннего наблюдателя

Либо,если у вас скорость времени от точки в пространстве зависит, что свет краснеет не будет, так как будет лететь и осциллировать в "локальном времени", но тогда время становится ненаблюдаемо и нет смысла об этом даже думать.

Виртуальные "внутренние" Внешторгбанка использовались для расчётов с физлицами. Те самые 67 копеек за доллар. По такому курсу государство покупало забирало у всяких командировочных валюту (меняя её на талоны "Берёзок"), но купить валюту по такому курсу было практически невозможно. В том смысле, что купить можно было 10 баксов по куче справок.
Во всей публичной отчётности был только такой курс, а остальные курсы были с грифом не ниже ДСП и за их публикацию светила гарантированный срок. Для всяких советский газет по такому курсу даже периодически что-то покупали и продавали у дружественных режимов, и "рисовали" всякие отчётности зарубежных и совместных предприятий (именно, что "рисовали", так как параллельно велась настоящая отчётность, но с грифом ДСП) . На самом деле даже с дружественными режимами использовался другой курс, где рубль был дешевле доллара.
Даже макроэкономическая статистка велась в двух экземплярах - публичная и "настоящая" но под грифом. В результате всё перемешалось и привело к краху, так как, ясен перец, в масштабах страны на секретной бухгалтерии далеко не уедешь.

Не могут планковские дыры испариться, так как при испарении они должны отдать всю энергию, а энергии будут достаточно для создания планковской чёрной дыры. То или есть нужно вносить поправки в квантование излучения или планковские дыры стабильны. Ну, или они не могут образоваться по каким-то неизвестным причинам и всё равно нужно что-то подкручивать в квантовой физике.

Планковская чёрная дыра может испариться только через излучение (создание) планковской чёрной дыры, т.е. она стабильна.
Если на ТМ влияют только силы гравитации, что внутри галактик и звёздных систем её должно много, а её не наблюдается. Например, в Солнечной системе её (по массе) совсем нет. Короче, там есть большие странности с распределением. На больших масштабах она ведёт себя как имеющая массу и взаимодействующая через гравитацию, а на малых её просто нет, то есть она избегает плотные (больше определённой плотности) скопления обычной материи.

Ускорение времени само по себе ненаблюдаема и ничего изменить не может. А если оно не само по себе, то это эквивалентно изменению базовых констант со временем и/или расстоянием. Именно вокруг этого и шум. Это может объяснить красное смещение, но не может объяснить все остальные эффекты, а потому лишняя сущность и не является верной теорией.

Одна из очень популярный теорий, кстати, имеющая право на жизнь. Просто эти дыры должны быть планковмких размеров и тогда они практически ни с чем не взаимодействуют, показывая практически все необходимые свойства темной материи. Но таких дыр можно быть реально много. Более того, теория не видит препятствий для существования таких объектов, и даже немного странно, что их не обнаружено.

К сожалению всю идиллию портит тот факт, что внутри галактик наблюдаемая плотность темной материи получается очень низкой или нулевой. И в Солнечной системе она гораздо ниже, чем вокруг нашей же галактики, что очень странно - не ясно почему темная материя не просил не перемешивается с обычной, но и каким образом отделяется от неё. Ну, либо, мы просто чего-то важного ещё не знаем о её свойствах.

Будь проклята автозамена текста.

Вот так, кстати, измерять RAID не сильно смысл имеет. Нужно измерять колебания задержек. Средняя скорость, да, будет примерно такой, но время доступа в реальных задачах (и, соответственно, реальная скорость) может отличаться в разы.

Нет памяти, нет обратной связи, нет внутреннего цензора, чтобы ловить собственные галлюцинации. Всё сети сейчас это просто преобразование аходных данных в выходные за один цикл работы сети - вот это и есть основой и принципиальный изъян а всё остальное уже следствия.

В результате для текущей архитектуры ИИ невозможны последовательные рассуждения/анализ (когда задача рождается на несколько подзадач и решает последовательно и итеративно) и самообучение, например.

Когда скорость у NVME падает до 16 МБайт/сек, то никакими разумными задержками этого уже не объяснить.

Из LLM делали агентов. Пока глупых, да, но ничего сложного в этом нет, см. AutoGPT, например.
Вот тут и кроется ошибка в рассуждениях, ровно такая же, как у автора статьи. Они глупые не потому, что вычислительных мощностей не хватает, а потому, что это врождённые изъяны архитектуры. Да, увеличив объём сети можно сделать их ещё лучше, но качественного скачка при этом не произойдёт. Для качественного скачка нужно и объём на порядок увеличит и полностью структуру сетей изменить, и подход к обучению изменить. Но тогда это будет уже совсем не те сети, что сейчас есть и экстраполировать результаты вообще никак нельзя. Например, может произойти чудо качественный скачок и будет создан сильный и полноценный ИИ с самостоятельным созданием. Без всякого роста размера сети - только за счёт изменения структуры. Это вполне вероятно. И тогда всё станет очень сильно интересно прямо немедленно. А можно ещё 10..15 лет на генеративных сетях застрять и решить проблему "в лоб" созданием какой-то супер-огромной и гибкой сети, которая наконец-то сможет выступать "внутренним цензором" необходимым для сильного ИИ. И тогда всё будет круто, но вовсе не так круто, как в статье описывается. Так как никакого самостоятельного вывода теорем и прочих сложных рассуждений со стороны ИИ не будет.

Я понимаю, что "понимает". Но в я в последнее время очень часто люди, которые разрабатывают сети, начинают воспринимать их как некоторую самостоятельную абстракцию, а не тупо матрицу весов огромного размера. В результате оказываются в плену иллюзий о том, что нейросети "думают" или вот-вот "начнут думать". Не начнут, так как есть непредолимые в рамках структуры современный сетей проблемы. Никакими вычислительными мощностями непреодолимые - нужно архитектуру сетей новую изобретать.

На одно и то же не похоже. Скорее всего, там и правда NVME/SSD/HDD, но лимиты по IOPS настроены то ли одинаково, то ли криво. Я бы поставил на "криво" - например, одинаковые настройки лимитов и шейпера для SSD и NVME. В результате имеем то, что видим - чудеса чудесатые.

Проблема в том, что задержка доступа будет определяться задержкой самого медленного диска в массиве. А SSD и NVME любят выполнять фоновую работу, которая периодически увеличивает задержку. Когда вы работаете с одним диском, то не важно - средняя задержка всё равно остаётся низкой. А когда дисков несколько, тогда ой: то один, то другой, то третий увеличивает задержку из-за фоновой работы. В результате и колебаний задержки становится больше, и среднее значение растёт.
А ещё там NVME может начать копировать кэш, или обновлять содержимое ячеек. Это тоже фоновая работа, которая будет выполняться несихронно у дисков в массиве.
А если ещё и сами диски так себе, то у них и скорость записи начнёт расходиться и массив скатится до максимальной.
А если нужен частый или непрерывный TRIM, то совсем всё грустно становится, там задержки большие и разные. И вообще могут быть сложности с TRIM и RAID одновременно.
А если у вас ещё и NVME разные производителей, то всё становится совсем весело и непредсказуемо, можно реально упасть до очень низкой средней скорости

Короче, работать-то оно будет, но дрожание задержки доступа вырастет, как и сама задержка. И можно TRIM потерять. И очень много чудес из-за конкретных сочетаний железа/софта.

У RuVDS есть, кстати, статья о битве с NVME и RAID.

Информация

В рейтинге
958-й
Откуда
США
Дата рождения
Зарегистрирован
Активность