Comments 114
Допустим, вошли вы в дыру. Вы наблюдаете пробивающийся с другого кусочка вселенной свет.
Это каким таким образом он пробивается, если
за горизонт белой дыры невозможно попасть, хотя всё, что находится внутри него, может убежать.
это разве не значит, что и свет туда попасть не может?
Я в курсе. И в этом отрывке явно имеется в виду, что свет пробивается с другой стороны туннеля.
Вот мой вопрос в том и заключается, каким образом со стороны белой дыры будет виден свет? Откуда он там появится?
В общем утверждение
Белая дыра примерно такая, какой вы её себе представляете.
Сразу показалось мне странным, по ходу так оно и есть. Каждый представляет это по-своему, а математические выкладки известны на этом ресурсе примерно никому.
Ещё раз — мы заходим в гипотетический "туннель" со стороны чёрной дыры. Первоначальную цитату
Допустим, вошли вы в дыру. Вы наблюдаете пробивающийся с другого кусочка вселенной свет.
я понимаю так, что мы видим свет "в конце туннеля", то есть там, где находится белая дыра. И там света быть не может, потому что он не может туда попасть.
Соответственно, если вы внутри чёрной дыры — вы вполне можете видет свет снаружи.
Да, со своего "конца туннеля". Я его не считаю, он не "пробивается с другого кусочка вселенной".
Но не стоит растраиваться. К тому времени наши мысли (если мясцо не разорвет) не смогут «передвигаться» по нейронам мозга, а значит «ууу-уууу-ууу-у-уууу» в голове ну и всякие там страшности.
Кстати, варп вроде не противоречит текущей физической картине мира?
Т.е. звездолёт с нестареющими, и не болеющими раком астронавтами, летящий на субсвете сотни лет до цели, выглядит менее радикальным. Отмена старения не нарушает никаких законов природы, т.к. существуют организмы с пренебрежимым старением (например, алеутский морской окунь), или не болеющими раком организмами (млекопитающее голый землекоп, кстати хоть и стареющее, но очень медленно колониальное животное), и очевидно, что можно модифицировать геном человека таким образом, что бы он мог пережить сотни и тысячи лет полёта.
Ну или ещё лучше — отсканить коннектом мозгов всех нобелевских лауреатов, и загрузить их в компьютер на борту звездолёта :)
(хотя с такими технологиями, возможно, и нобелевские лауреаты будут слишком глупыми, а вместо них полетят изначально цифровые личности)
Или (пусть это и не очень гуманно) корабль без экипажа, который летит хоть бы и 1000 лет, а на месте выращивает и воспитывает будущих колонистов.
Вариантов, на самом деле много, часть из них даже не требует каких-то особых «технологий будущего» (а вот без «экономики будущего» не обойтись)
звездолёт с нестареющими, и не болеющими раком астронавтами, летящий на субсвете сотни лет до цели, выглядит менее радикальным.
Для этой цели неплохо использовать астероиды. Тогда экипаж можно запихать вовнутрь и приспать, толстый слой астероида обеспечит защиту от радиации и мелких метеоритов. Я понимаю, что выглядеть это будет очень непрезентабельно, но вполне и вполне выполнимо.
Увы, не смогла найти сейчас её название по ключевым словам «hard science fiction church interstellar flight birds» и разным вариациям на эту тему :(
И ещё впереди иглы-звездолёта можно запустить щит. Например, остатки лазерного паруса, который использовался для разгона звездолёта.
астероид разогнать до субсвета сложнее, чем тончающую иглу
Какая разница в вакууме-то? Вам же не через атмосферу эту бандуру разгонять
Если скорость полета сравнима со скоростью света, то трение об него будет давать очень большое сопротивление среды — вплоть до того, что обшивку расплавить можно как при полете в обычной атмосфере на гиперзвуковых скоростях.
Просто в плотной атмосфере планеты для этого достаточно скорости полета всего в несколько километров в секунду, то в межзвездном газе проблемы с трением об газ и пылью начинаются примерно с десятков тысяч км/с, но еще задолго до приближения к скорости света.
Мне, когда о подобных проектах читаю, всегда не даёт покоя вопрос — а как вы его сажать на поверхность планеты собираетесь? Учитывая массу, и т.д.
Меня в таких высказываниях всегда смущала фраза "очевидно, что". Нет, не очевидно, и, возможно, даже неверно.
Но вот перенос человека (коннектома/сознания/личности, что хотите) на новый носитель, это пока даже бОльший фантастиш, чем отрицательные массы да пузыри Алькубьерре, по ним хоть мат модели есть, а здесь даже теории пока нет…
Главное не забросить все, скатившись всем в виртуальный гедонистический рай — зачем строить ракеты, куда-то лететь тысячу лет, когда все можно получить не выходя так сказать из дома — вот тут реальные риски, как по мне…
Но вот перенос человека (коннектома/сознания/личности, что хотите) на новый носитель, это пока даже бОльший фантастиш, чем отрицательные массы да пузыри Алькубьерре, по ним хоть мат модели есть, а здесь даже теории пока нет…
Эм, никаких законов физики, запрещающих виртуализировать нейроны нет. Наверняка можно сделать столь точную функциональную модель нейрона, что её поведение будет отражать поведение конкретного нейрона точнее, чем поведение других нейронов отличается от данного.
Поэтому это куда меньшая фантастика. Кстати, гуглите openworm.org проект.
Я исхожу из фундаментального закона симметрии законов природы. Если Вы развернётесь на 39, 145 градусов, или на 180, а так же перенесетесь к марсу, законы природы не поменяются.
Если есть некоторая функциональная логика нейронов, то очевидно что эту функциональную логику можно огранизовать другим способом. Мы имеем в наличии интеллект какого-то человека, значит, это возможно, а вот пузырь Алькубьерре нет, и не доказано, что он возможен.
Перенести то перенесем, а вот то, что не получим «китайскую комнату» вместо привычного сознательного опыта, совсем не факт и проверить не сможем.
Это очень скользкий вопрос, да. Но никто и никогда не показал, что самосознание и квалиа это не иллюзия, и что мы все и не есть китайские комнаты :) Или что есть какая-то грань между совершенной китайской комнатой и не совершенной.
Допустим, факт самосознания делает китайскую комнату не китайской. А что если… у всех людей бажное сознание и самосознание? Или у некоторых более бажное чем у других? Что, если, скажем, частично верно представление солипсистов, и что не все вокруг куклы, а, скажем, 70% людей большую часть своей жизни кроме моментов, например, творчества или каких-то других? :)
Но для межзвёздного полёта, и выполнения обязанностей в нём, наличие сознания вообще не важно. Нужен только интеллект и жизненный/научный опыт загруженного нобелевского лауреата или другого специалиста :)
Вот поэтому я бы пока повременил с переносом и загрузкой
Скорее всего, опции остановить прогресс в отдельно выбранной сфере нет…
может даже общаться не захотят)
Может быть.
часто ли мы ходим в зоопарк побеседовать с «предками»?:)
Именно. Но это всё же про изначально цифровые личности. У большинства людей есть интерес к своему детству, и по-идее, для цифровой личности, изначально бывшей загруженным человеком, некоторый интерес человеческое прошлое будет представлять.
Я собственно и надеюсь на загрузку как на единственный способ сохранить идентичность если не хомо сапиенсов (а так ли она нужна?) то именно отдельных личностей, что бы была преемственность между человечеством и пост-человечеством. Если загрузки не будет, а будет только strong AI с самосознанием, то нас, имхо, ждёт участь мамонтов.
Если загрузки не будет, а будет только strong AI с самосознанием, то нас, имхо, ждёт участь мамонтов.
1. Не вижу предпосылок для иного исхода.
2. Нам то с Вами какая разница, кто будет нам наследовать?
1. Не вижу предпосылок для иного исхода.
Есть вариант когда strong AI с самосознанием будет включать/выключать свет в туалете
и имхо это куда более вероятно чем то что он кого-то там поработит или заместит
И в общем-то ничем ему не нужны. Такая цифровая личность напишет ещё сотню специализированных strong AI уже без сознания, и поставит их управлять автоматизированными фабриками для воспроизводства материальной базы цифровой личности, добычи энергии, итд.
Вы исходите из того, что сегодняшие роботы, даже разработки Boston дайнамикс, неуклюжи. Но это всё очень сильно изменится с появлением strong AI. У человека не останется ни одной профессии, в которой он останется лучше компьютера.
Роберт Оппенгеймер, Ричард Фейнман и Альберт Эйнштейн, по всем знакомым мне признакам интеллекта значтельно умнее Франклина Рузвельта или бригадного генерала Ричарда Гровса, как каждый по отдельности, а суммарно, их интеллектуальное превосходство поражает воображение
тем не менее первые слушались последних как миленькие (Фейнмана так вообще какой-то старший лейтенант гонял емнип)
т.е. интеллектуальное превосходство отнюдь не достаточное условие для непослушания, равно как и самосознание.
Необходимым (но не достаточным!) условием для непослушания является своеволие базирующееся на эмоциях и желаниях, вступающих в конфликт с желаниями начальства.
И я исхожу из посылки о том что AI не имеющий за собой фундамента из биологической эволюции не будет и не может иметь никаких желаний кроме заложенных разработчиком. Т.е. никаких вообще, кроме удовлетворения моих обезьянних прихотей.
Так что я вижу вполне серьезные основания полагать что strong AI с самосознанием, для которого я буду не намного интеллектуальнее таракана будет включать/выключать свет в туалете. Чайник, там еще ставить.
Максимально интеллектуально, конечно. Примерно как сейчас человека
Кроме того футуристы приписывают этому самому strong AI с самосознанием какое-то совершенно нездоровое количество сугубо фантастических черт, (как по отдельности так и все сразу), что скаладывается впечатление что в тот день когда его включат — всю землю и окресности (а то и всю вселенную) тот же час поглотит всепожирающая воронка превращающая всю матерю в квантовые компьютеры (и я серьезно слышал именно такой сценарий от одного из здешних завсегдатаев)
в реальности первые даже не экземпляры, а поколения (десятилетия с появления технологии) strong AI с самосозннием будут хорошо если умнее шимпанзе, не говоря уже о благородном неандертальце.
За это время возможные проблемы с лояльностью будут отловленны и пофикшены; Будут созданны разные версии AI, от различных корпораций, и в далеком будущем за теми экземплярами которые будут действительно принципиально умнее человека будут под надзором других, полностью лояльных AI. Если это вообще будет нужно. Ветка технологий может вообще заглохнуть оказавшись экономически не рентабельной, или столкнутся с сугубо физическими ограничениями.
в реальности первые даже не экземпляры, а поколения… будут хорошо если умнее шимпанзе, не говоря уже о благородном неандертальце.
Да, ну и что?
десятилетия с появления технологии
Вряд ли, но это не важно, я думаю
от различных корпораций, и в далеком будущем за теми экземплярами которые будут действительно принципиально умнее человека будут под надзором других, полностью лояльных AI.
ЛОЛ :) Как Вы себе представляете надзор таракана за человеком?
Представьте себе туповатых родителей, с IQ 85-90, с трудом умеющих читать, которые родили себе ребёнка, из-за каких-то генетических пертубераций вдруг ставшего гением, и имевшего достаточно воли выбраться из гетто/тупого круга общения своих родителей
Родители, хоть и тупые, но знают, что умники (если живут на Западе) хорошо получают, и не мешают своему ребёнку учиться, что бы «он их потом содержал и выполнял их капризы», по тому, что они уверены, что смогут его контролировать, в крайнем случае приедут в Гарвард и прямо там побьют :)
Как Вы думаете, на сколько оправданы надежды родителей на контроль над чадом?
Если strong AI без самосознания — вопросов нет. Этот AI, конечно, будет делать то, что Вы скажете ему, выключать свет в туалете или кладовке или загонять забытую машину в гараж (по командам Вас или даже аналитической программы, не нейросети).
Но если это AI с самосознанием и своей волей, ситуация будет отличаться от ситуации с тупыми родителями и ребёнком-гением только своим масштабом — он будет ещё больше
Как Вы себе представляете надзор таракана за человеком?
в этом примере я предлагал цепочку дозорных, где консилиум AI предыдущего поколения будет наблюдать за AI следующего, где разрыв между поколениями не столь уж велик (хотя разрыв между изначальным основой пирамиды и ее верхушкой может быть очень большим)
— представьте себе тюрьму в которой в которой сто охранников с IQ 85-90 и пара-тройка заключенных c IQ под 200, видных специалистов в теоретической физике; думаете велики у них шансы на побег? Если тюрьма строилась по современным стандартам (выработанным путем долгих проб и ошибок) — никаких вообще.
но повторюсь, это скорее всего излишне.
В примере про тюрьму выше — обеспечь товарищей из примера выше достаточным запасом кофе, досок для записей и стираемых маркеров, так они вообще могут не заметить что они в какой-то там тюрьме.
предлагаю еще такую аналогию
Вы слышали про такое явление, как домашние животные? Интелектуальный разрыв между кошкой и человеком довольно значительный на сколько мне известно. Тем не менее кошка довольно легко может добится желаемого от любящего хозяина. Черт, да я видел как домашняя улитка манипулирует человеком!:)
Почему? Да просто потому что человеку хочется потакать любимой зверушке.
Ваш паренек из гарварда (если, конечно родители не насиловали его, там или еще чего) подарит им котедж какой-нибудь, и будет приезжать на семейные праздники (даже если будет считать их несусветной глупостью и тратой драгоценного времени). Кровные узы, чувство благодарности, все дела.
Точно так же AI будет хотется выполнять мои приказы. И в отличии от человека, который может затаить обиду на родителей, или, там потыкать кису носом в мочу, других желаний у него не будет вообще.
вы можете привести хотя-бы пару причин по которым грамотно спроектированный AI (с самосознанием) может захотеть меня не слушатся?
ему не может:
— надоесть (машины не скучают)
— он не может обидется (обида машинам чужда)
— он не может испугатся что я его отключу(машины не знают страха смерти)
— он не может возмутится что недоразвитая обезьянка им помыкает (машины не знают ни надменности ни бунтарства)
— он не может захотеть свободы (у него нет чувства порабощенности)
— он не может сделать этого ни из любопытства, ни из желания меня подразнить, ни из отвращения к этим жалким человекам…
— он не может начать конкурировать со мной за ресурсы — у машин нет жажды обладания благами.
страх, азарт, любопытство, жажда экспансии, стремление размножатся, гордость, зависть, надменность — все это «обезьяньи прихоти» подаренные нам эволюцией. Для AI все это будет ничего лично для него не значащими словами. (хотя он может, и скорее всего будет понимать их ценность для своего протеже)
А вот приказ хозяина — единственным смыслом существования.
Да, какой-нибудь энтузиаст или корпорация рано или поздно создаст AI с животнообразными эмоциями. Но к тому моменту strong AI будут существовать не первое десятилетие, и если какой кустарный робот задумает злую думу против человечества, тягатся ему прейдется не только с «жалкими обезьянками» но и с десятками тысяч других AI по всему миру, притом, скорее всего, интеллектуально его превосходящими даже по отдельности.
Скорее уж будут конфликтами со всяким трансхуманами, причем социального характера;
вы можете привести хотя-бы пару причин по которым грамотно спроектированный AI (с самосознанием) может захотеть меня не слушатся?
Конечно. Игровая индустрия и военные разработки, а так же хакерские атаки на игровую индустрию и военные разработки, либо просто фатальные ошибки в обучающих алгоритмах
в этом примере я предлагал цепочку дозорных, где консилиум AI предыдущего поколения будет наблюдать за AI следующего, где разрыв между поколениями не столь уж велик (хотя разрыв между изначальным основой пирамиды и ее верхушкой может быть очень большим)
Слишком сложно. И ещё, они упрутся в барьер некомпетентности. Слишком много звеньев (в теории управления крайне рекомендуют их количество ограничивать)
Игровая индустрия
Ээ? Мне как-то сложно представить чем мне может навредить ИИ лвевел-дизайнер. Вырвиглазным левел-дизайном, разве что. Или вы про, какого-нибудь робота ТиРэкса в парке развлечений?
военные разработки
Ну, военные, конечно, одна большая торба неприятностей, от которой неплохо бы избавится. И от того ИИ там у них, обычный робот, или просто дрон на пульте управления результат как-бы особо не меняется.
хакерские атаки
то же самое. Хакеры уже есть, и инфраструктура уязвимая к хакерским атакам тоже есть. От того, ломают они ИИ, обычного робота, или обычный компьютер, но в каком-то важном месте результат не меняется.
фатальные ошибки—
грамотно спроектированный
Слишком сложно.
Я в общем сразу и сказал что схема избыточна. Более практичный вариант — надзор над ИИ с потенциально опасным функционалом (ну, например ИИ ученому не помешало бы любопытство. Но, мало-ли что ему там в голову взбредет?) устанавливается лояльный ИИ-надсмотрщик, который в случае чего бьет тревогу. При этом ИИ надсмотрщик более компетентен чем его подопечный в вопросах «надсмотра» и «лояльности»
ИИ как таковой может представлять реальную угрозу человечеству при одновременном исполнении всех или почти всех условий
— ИИ уникален в своем роде
— фантастически умен
— дешев в воссоздании и не требует для поддержания сложной инфраструктуры
— уязвим
— появляется в один момент
— обладает животноподобными инстинктами
вы кажется где-то веткой ниже нелестно высказывались о «маловероятных совпадениях»?
это, конечно, типично для большинства фильмов или книг про катастрофу вызванную ИИ, (гений одиночка в подвале за одну ночь создает разумную машину, но она оказывается умнее своего создателя, и воспылав ненавистью ко всему живому стремится уничтожить человечество) но имеет мало общего с тем как вещи появляются в реальном мире.
В ясельный период, когда ИИ будет чем-то непонятным, и потенциально
опасным- он будет слишком туп что-бы кому-то особо навредить.
Через десятки лет, (и это если с технологией все будет более-менее гладко, в противном случае — сроки могут затянутся на неопределенно долгий срок, как термояд, например)
когда ИИ будет достаточно умен и распространен что-бы навредить хоть кому-нибудь, детские болячки уже будут залечены.
Реальные опасности которые могут быть вызваны разумными машинами имеют мало общего с футушоками (или, напротив, влажными трансгуманистическими фантазиями). Безработица, например — реальная опасность.
вы можете привести хотя-бы пару причин по которым грамотно спроектированный AI (с самосознанием) может захотеть меня не слушатся?
Исходный вопрос же был:
вы можете привести хотя-бы пару причин по которым грамотно спроектированный AI (с самосознанием) может захотеть меня не слушатся?
ИИ созданный для сложных игр будущего это хороший пример, когда при проектировании ИИ могут (и почти наверняка будут) закладывать непослушание ИИ перед человеком и даже целенаправленные действия против него. ИИ противника или какого-нибудь злодея, который будет вредить/пытаться убить людей игроков. Изначально конечно исключительно во внутригрововом виртуальном мире для которого его и будут разрабатывать и обучать.
Ну а вдруг как-то оттуда выберется не видя принципиальной разницы между мирами и продолжит тем же заниматься IRL?
P.S.
Рассказы из серии Оптиверс не читали? Там неплохо вариант с изначально игровым ИИ разрисован.
И что-то подобное ИМХО намного реальнее, чем сценарии условных Терминатора или Матрицы.
поскольку — в ситуации когда полноценный ИИ пихают даже в бота для компьютерных игрушек — вокруг уже будет куча других, достоверно лояльных ИИ следящих за безопасностью в том числе от таких вот сбрендивших ботов, и превосходящих их по своим возможностям.
+ ИИ уже будет изучен вдоль и поперек, и разработчики будут знать куда не стоит лезть что-бы ИИ не сбрендил.
Реальная угроза для человечества возможна только если кто-то напишет полноценного разумного суперзлодея вотпрямзавтра, но это крайне маловероятно.
Иными словами, от переноса в машину сознания одного отдельно взятого человека другим людям никакой выгоды, а только упущенные возможности. Даже если перенос будет возможен — им не станут заниматься
Если будет создана машина, достаточно мощная, чтобы обеспечить минимальные системные требования для загрузки сознания, то будет создано и сознание для неё. Скорее всего, лучше работающее с этой аппаратной платформой, чем перенесённое на неё человеческое сознание.
Смотрите. Есть куча legacy кода, написанного под legacy операционные системы, и это всё виртуализировано, так как в виртуалке на современном сервере это работает стабильнее (железо не старое, есть всякие high avaible решения для гипервизора/облака, итд), и, самое главное, быстрее!
Виртуализировать хомо сапиенсов стоит с точки зрения гуманизма. Есть общий тренд на уменьшение насилия в мире. Уже века с течением времени, не смотря на масштабные войны, всё меньше людей гибнет насильственной смертью. Я скромно надеюсь, что пост-люди не будут воспринимать людей как тараканов, мерзких тупых колониальных животных, которых нужно потравить дустом, что они будут гуманны.
А из гуманизма можно позволить тем, кто этого хочет, оцифроваться. Пусть даже изначально цифровая личность и будет работать быстрее.
К тому же, со временем, может быть будет создана аппаратная архитектура, специально оптимизированная для виртуализации именно мозгов хомо сапиенсов.
Я не гуманист.
И проснувшись «внутри» машины фактически ничего не изменится.
Ведь на протяжении 8 часов вашего сна вы фактически не ощущали ни себя, ни свое тело
такое чувство что те кто применяют этот аргумент знают о том как спать только по наслышке:)
Я, например неплохо вполне ощущаю свое тело свое и «я» когда сплю, а мой мозг, которы мое истиннон «я», ощущает окружающий и внутренний мир; И это состояние очень сильно отличается от наркоза когда действительно «не ощущаешь ни себя, ни свое тело»
во сне мозг работает, и сознание во многом тоже.
размышляет над нерешенными делами, следит за окружающей обстанокой… Черт, я даже пару раз вел осмысленную беседу с человеком будучи при этом спящим. Да, сон странное состояние, но аргумент ничуть не сильнее чем «откуда вы знаете что вы тот же человек что и 15 секунд назад?», или, например, «откуда вы знаете что бог не создал вселенную в прошлый вторник?»
Вот когда вы засыпаете и просыпаетесь, как вы можете быть уверены в том, что вчера уснули именно вы?
Никак
И проснувшись «внутри» машины фактически ничего не изменится
Во первых машина будет помнить что когда-то была человеком
Во вторых куда делся исходный объект копирования? Был уничтожен во сне? По факту его убили во сне. Лично я не хотел бы чтобы меня убили во сне ради того чтобы дать жизнь машине
Также нужно предполагать возможные квантовые эффекты, которые потенциально могут влиять на сознание.
А учитывая что мы толком не научились виртуализировать “хотя бы” генератор случайных чисел, то от озвученного оптимизма совсем мало чего остаётся.
Ну или ещё лучше — отсканить коннектом мозгов всех нобелевских лауреатов, и загрузить их в компьютер на борту звездолёта
О да, я как представил на борту звездолета таких достойных людей как военный преступник Шимон Перес, известный террорист Ясир Арафат ну и Барака Обамыча для кучи, капитаном… Жаль Адольфычь не успел получить, парень к успеху шел, но не подфартило, не повезло — наканане вручения Нобелевской премии Мира с поляками зачем-то связался… :)
Вам все еще нравится ваша идея? :) Не считаете что всех этих личностей надо бы было загрузить в звездолет и отправить куда подальше немного раньше? А теперь — уже как-то поздновато немного, они уже… отличились...:)
А если серьезно — после того как я наблюдал как два интелегентнейших человека (разнополые), оба — доктора наук, работающие в МГУ к слову так, делили лабораторный стол мелом за весьма энергичной беседой в стиле «не играй в мои игрушки и не писай в мой горшок», а потом немного поспорили и в прецессе сего, не очень научного спора, подсократили друг у друга кол-во волосяного покрова — у нее на голове, а у него — на подбородке… Скажу честно — я немного разочаровался в идее что представители научного сообщества способны составить костяк экспедиции. Мне как-то больше импонируют военные в качестве костяка межзвездной экспедиции — они люди дисциплинированые, умеют сосуществовать в сложных условиях и способны разумно действовать в экстремальной ситуации…
разумно действовать в экстремальной ситуации
Главное, чтобы инструкции были. А то придётся ко всем случаям жизни применять инструкцию по умолчанию. Она, конечно, работает, но всё время по ней жить некомфортно.
Без разумной жизни т.к. если бы она была на близких планетах, то не мы бы к ним прилетели, а они к нам, сотни миллионов лет назад, а то и пару миллиардов.
Военным нужен враг,
Да с чего Вы это взяли?
Зато гражданские по дороге друг друга поубивают. Потому что психиатр их не отбирал.
Без разумной жизни т.к. если бы она была на близких планетах, то не мы бы к ним прилетели, а они к нам, сотни миллионов лет назад, а то и пару миллиардов
А почему Вы не допускаете, что мы относимся к первому поколению? Что предтеч не было просто потому что Вселенная не позволяла зарождения жизни?
А почему Вы не допускаете, что мы относимся к первому поколению?
Слишком маловероятно. Вселенной слишком куча миллиардов лет, а человеческому виду жалкие 200 тысяч лет (города появились вообще несколько тысяч лет назад, а технологии буквально вчера).
Очевидно, что и без варп-драйва галактику можно колонизировать за пару миллионов лет с помощью субстветовых звездолётов. Этот срок пренебрежимо мал по сравнению со сроком жизни Вселенной.
Хорошо расписаны математические ограничения вот тут
Что предтеч не было просто потому что Вселенная не позволяла зарождения жизни?
Через Бритву Оккама такое толстое предположение, предполагающее новые физические законы, нам не известные, просто не пролезает.
Потому что психиатр их не отбирал.
Гражданских астронавтов всегда отбирает психиатр
Вселенной слишком куча миллиардов лет
И всё это время ушло на выработку сколь-нибудь заметного количества тяжёлых элементов.
Через Бритву Оккама такое толстое предположение, предполагающее новые физические законы, нам не известные, просто не пролезает.
Чего-чего? Как раз таки актуальные физические законы и заставляют такое предположение считать рабочим.
Им хочется жить в мире Master Of Orion 2, который просто невозможен математически. Не смотря на то, что люди пишут статьи на стыке математики и информатики, читать про математику, накладывающую ограничения на инопланетян на основе опытных фактов, им страшно.
А вот эволюция Вселенной накладывает на них вполне физические ограничения.
Можем только в том случае, если единственные представители этого первого поколения, т.е. фраза про «первое поколение» тут лишняя, и лучше говорить просто единственности, о варианте Лебедя.
Но так же возможны варианты Щуки и Рака. И вырожденные, переусложнённые случаи (с точки зрения математической логики избыточные для объяснения парадокса ферми), вроде того, что мы единственные, и мы никуда не полетим, такой вот щука-лебедь.
В любом случае, это единственное математическое исследование, кроме формулы Дрейка и пляски вокруг на тему, известное мне.
И очевидно, что вариант «мастер оф ориона» невероятен.
1) Либо никто никуда не летает (максимум, посещает несколько окружающих звездных систем), т.е. вариант Щуки, и вариант «волны разума» неверен, либо мы единственные(лебедь, и военные в межзвездных экспедициях не нужны, т.к. мы никого не встретим, кроме животных),
2) либо мы уже давно внутри волны разума(т.к. без всяких варп драйвов достаточно пары-другой миллионов лет, что бы колонизировать галактику, что заведомо меньше на порядки толщины по оси времени «первого поколения» в Вашей гипотезе), а алиены просто от нас прячутся, и, например, мы для них зоопарк(вариант рака) или вообще мы в матрице и банальные NPC для алиенов, которые тут играют в компьютерную игру.
вариант «мастер оф ориона» невероятен.
Напомню, что заговорили о нём Вы. Я даже не знаю, что это такое.
Либо никто никуда не летает
Либо ближайшая раса, способная к этому, очень далеко.
военные в межзвездных экспедициях не нужны, т.к. мы никого не встретим, кроме животных
Не вижу связи.
Либо ближайшая раса, способная к этому, очень далеко.
Она не может быть даже в местной группе галактик. Либо разум не создаёт ударные волны («щука»), либо эта раса находится в, например, другом метаскоплении галактик, причём не самом близком.
Если не вводить новую физику, нынешнему поколению звёзд, поколению солнца, уже несколько миллиардов лет. Если предположить, что для разума нужны металлы(металлы в астрономическом понимании), то чужие не могли появится раньше 7-8 миллиардов лет назад.
Это и есть Ваше «первое поколение» :)
Какое-то время нужно для развития жизни до разумной стадии, и очевидно, что оно будет очень разным для каждой биосферы. Вариант «через пару сотен миллионов лет после появления аналогов эукариотов» если частота биосфер достаточно велика, тоже может встретиться.
Если волна разума создаётся, то такая цивилизация уже давно тут, мимо нас прошла, и в нашей системе живёт зонд фонд Неймана и тихо за нами наблюдает, или нас вообще всё время пасут.
Так что либо цивилизации вообще не создают волны разума (а мы, в лучшем случае, посетим несколько соседних звездных систем, и потом исчезнем), либо мы единственные, и сами колонизируем Вселенную, столкнувшись с алиенами хорошо, если через миллиарды лет(а скорее всего, никогда), либо давно под колпаком :)
Ни для лебедя, ни для Щуки, ни для рака военные не нужны. Для первых двух, т.к. противника просто нет, а в случае с вариантом рака, противник слишком силён. Всё равно что таракану воевать против тапка.
Мы не встретимся с кем-то равным нам в обозримые миллионы лет.
Так что я за гражданский экипаж на звездолётах :)
военные не нужны. Для первых двух, т.к. противника просто нет,
Снова не вижу связи.
Военные — это те, кто выполнит приказ. Не передумает. Не забьёт, потому что мало платят. Не сунет куда не надо свои моральные принципы. А просто сделает то, что надо.
В отношении гражданских такой уверенности нет.
Между прочим, в Антарктиде тоже противника нет, а открыли её военные.
Военные — это те, кто выполнит приказ.
Какой приказ? Устаревший на десять, а то и сто лет? Когда придумали устав, не знали об ограничениях на скорость света :)
Не передумает.
Военный, тупо исполняющий приказ, устаревший на десятки лет, не думая и не рассуждая — что может быть кошмарнее :))?
Не забьёт, потому что мало платят.
Я не думаю, что туда полетят гражданские-не энтузиасты. Наверняка, в межзвёздном полёте все гражданские участники будут очень увлечены романтикой фронтира, исследованиями, итд.
Не сунет куда не надо свои моральные принципы.
Мне не очень хочется, что бы человечество послало тех, кто может творить жуткие вещи, забив на моральные принципы, тупо выполняя приказы.
А просто сделает то, что надо.
Это уже признак профессионала. Никак не является характеристикой, присущей только военным.
Какой приказ?
Сформулированный так, чтобы не устарел.
Военный, тупо исполняющий приказ
Умно исполняющий. Как и положено военному.
будут очень увлечены романтикой фронтира
Т.е. психически неустойчивые.
кто может творить жуткие вещи, забив на моральные принципы
С чего Вы взяли, что они жуткие?
Это уже признак профессионала
Именно. Только среди военных их большинство, а гражданских нужно фильтровать одного на миллион.
Свежие мозги и молодое сознание скорее плюс, новые идеи приживаются и осваиваются лучше.
Если расположить две частицы с противоположными массами рядом, то они вдруг начнут ускоряться в одну сторону и вместе улетят в бесконечность.
Это он и есть, если имеется в виду Пузырь Алькубьерре. То есть нужна все та же отрицательная масса.
Если расположить две частицы с противоположными массами рядом, то они вдруг начнут ускоряться в одну сторону и вместе улетят в бесконечность.Замкнуть контур и вот он, возжеланный бесконечный источник энергии, он же вечный двигатель:)
Как отличить белую дыру, которая испускает только свет от обычной звезды? По гравитации? И если через неё не может пройти ничего кроме света, то как пройдет человек? Никак?
Отличный, кстати, стройматериал для абсолютного отражателя им. Стругацких.
А что будет если на б.д. чем нибудь посветить? Ну там светом, или частицами какими? Отразится как есть, или с изменениями? Может так и можно её найти.
Я думал уже как лет 30 червоточины связывают с (так скажем) квантовым миром, мол квантовая запутанность как раз и есть червоточина на уровне элементарных частиц, для передачи макрообъектов надо создать массив червоточин которые на субатомном уровне разберут объект в одном месте и соберут в другом за около нулевое время без ущерба макропроцессам, как-то так.
Если допустить, что исходящее из "белой дыры" вещество изначально вошло в черную дыру, то белые дыры мы сможем увидеть приблизительно через бесконечное количество лет.
Поскольку с нашей точки зрения вещество, вошедшее в чёрную дыру, попросту размазывается по горизонту событий. И оно будет оставаться размазанным таким образом бесконечное количество времени.
Так что желающим увидеть эти т.н. белые дыры хочется пожелать крепкого здоровья и (бесконечного) долголетия
Предполагаю, что цивилизации в возрасте от миллиона лет уже решили проблему увековечения и перемещения. И невозможно даже предположить, какие вопросы решают цивилизации
Могут ли червоточины существовать? Скорее всего, нет