Pull to refresh

Comments 114

Допустим, вошли вы в дыру. Вы наблюдаете пробивающийся с другого кусочка вселенной свет.

Это каким таким образом он пробивается, если


за горизонт белой дыры невозможно попасть, хотя всё, что находится внутри него, может убежать.

это разве не значит, что и свет туда попасть не может?

В первом случае речь идет про черную дыру

Я в курсе. И в этом отрывке явно имеется в виду, что свет пробивается с другой стороны туннеля.

На сколько я понял, то мы будем видеть свет со стороны белой дыры.

Вот мой вопрос в том и заключается, каким образом со стороны белой дыры будет виден свет? Откуда он там появится?
В общем утверждение


Белая дыра примерно такая, какой вы её себе представляете.

Сразу показалось мне странным, по ходу так оно и есть. Каждый представляет это по-своему, а математические выкладки известны на этом ресурсе примерно никому.

Поскольку в белую дыру нельзя попасть, а из неё можно — то вся энергия внутри неё будет выходить наружу в виде света. Потому она и «белая». Соответственно свет может выйти из белой дыры (но не может вернёться назад), и может войти внуть чёрной дыры (но опять же, не может выйти). Соответственно, если вы внутри чёрной дыры — вы вполне можете видет свет снаружи. А вот вас увидеть никто не сможет.

Ещё раз — мы заходим в гипотетический "туннель" со стороны чёрной дыры. Первоначальную цитату


Допустим, вошли вы в дыру. Вы наблюдаете пробивающийся с другого кусочка вселенной свет.

я понимаю так, что мы видим свет "в конце туннеля", то есть там, где находится белая дыра. И там света быть не может, потому что он не может туда попасть.


Соответственно, если вы внутри чёрной дыры — вы вполне можете видет свет снаружи.

Да, со своего "конца туннеля". Я его не считаю, он не "пробивается с другого кусочка вселенной".

Мы можем видеть свет со стороны белой дыры, если его излучает сама белая дыра. «снаружи» естественно свет попасть туда не может.
Мы слишком долго обсуждаем математическую абстракцию с точки зрения реального мира. Просто автор написал неправильно. Я к этому придрался. Кажется, диалог исчерпал себя.
Согласно «теории» не можем. Туннель чёрная дыра-белая дыра должен быть однонаправленным. Следовательно свет мы не можем видеть ни с какой стороны, так как двигаемся вместе с ним. По-моему так.
Мы пока ещё имеем массу покоя, следовательно, вместе со светом мы двигаться не можем. А раз так, то мы должны его видеть.
В таком случае мы будем его видеть со стороны «входа», а не «выхода».
Все верно. Не увидите никакого света белой дыры. Так как мы видим благодаря свету. За горизонтом событий свет затягивает в одну точку, как и всю материю.
Но не стоит растраиваться. К тому времени наши мысли (если мясцо не разорвет) не смогут «передвигаться» по нейронам мозга, а значит «ууу-уууу-ууу-у-уууу» в голове ну и всякие там страшности.
Ну ладно, так уж и быть, придётся по старинке на варп-драйве летать… )

Кстати, варп вроде не противоречит текущей физической картине мира?
Пузырь Алькубьерре же. Правда есть небольшие технические сложности с реализацией оного… :)
Да-да, ключевое слово — небольшие :)
Я думаю, что победа над старением, и AI, загрузка сознания куда лучше вписываются в современную физику :)

Т.е. звездолёт с нестареющими, и не болеющими раком астронавтами, летящий на субсвете сотни лет до цели, выглядит менее радикальным. Отмена старения не нарушает никаких законов природы, т.к. существуют организмы с пренебрежимым старением (например, алеутский морской окунь), или не болеющими раком организмами (млекопитающее голый землекоп, кстати хоть и стареющее, но очень медленно колониальное животное), и очевидно, что можно модифицировать геном человека таким образом, что бы он мог пережить сотни и тысячи лет полёта.

Ну или ещё лучше — отсканить коннектом мозгов всех нобелевских лауреатов, и загрузить их в компьютер на борту звездолёта :)
(хотя с такими технологиями, возможно, и нобелевские лауреаты будут слишком глупыми, а вместо них полетят изначально цифровые личности)
Да банальная спячка как у медведя и более-менее быстрые корабли уже позволят колонизировать ближайшие звезды.
Или (пусть это и не очень гуманно) корабль без экипажа, который летит хоть бы и 1000 лет, а на месте выращивает и воспитывает будущих колонистов.
Вариантов, на самом деле много, часть из них даже не требует каких-то особых «технологий будущего» (а вот без «экономики будущего» не обойтись)
звездолёт с нестареющими, и не болеющими раком астронавтами, летящий на субсвете сотни лет до цели, выглядит менее радикальным.

Для этой цели неплохо использовать астероиды. Тогда экипаж можно запихать вовнутрь и приспать, толстый слой астероида обеспечит защиту от радиации и мелких метеоритов. Я понимаю, что выглядеть это будет очень непрезентабельно, но вполне и вполне выполнимо.
Была даже hard science fiction книжка, в которой межзвёздный полёт был организован католической церковью. Там летели на субсвете и в астероидах :)

Увы, не смогла найти сейчас её название по ключевым словам «hard science fiction church interstellar flight birds» и разным вариациям на эту тему :(

Вы не про Гиперион Симмонса, случайно?

Не, в Гиперионе команда паломников к Шрайку летела на Большом дереве:)
Да, тут главное чтобы не появились непонятные существа которые только мехами с копьями уничтожить можно.
Всё же мне кажется, что астероид разогнать до субсвета сложнее, чем тончающую иглу на килотонн 10 из лёгких керамических материалов (если соотношение длины к поперечному сечению у звездолёта будет очень большим, то можно добиться сравнительно маленьких шансов, для такого большого рабочего внутреннего объёма, столкновения с угрожающими микрометеоритами),

И ещё впереди иглы-звездолёта можно запустить щит. Например, остатки лазерного паруса, который использовался для разгона звездолёта.
астероид разогнать до субсвета сложнее, чем тончающую иглу

Какая разница в вакууме-то? Вам же не через атмосферу эту бандуру разгонять

В межзвёздном пространстве есть пыль :(
Настоящего идеального вакуума в космосе не бывает. Помимо частичек пыли которую уже упомянули и которые на субсветовых скоростях по энергии и разрушительной силе идут на уровне бронебойных снарядов(а банальный микрометеорит — как тактическая атомная боеголовка) есть еще остаточный разряженный межзвездный газ (водород и гелий в основном).

Если скорость полета сравнима со скоростью света, то трение об него будет давать очень большое сопротивление среды — вплоть до того, что обшивку расплавить можно как при полете в обычной атмосфере на гиперзвуковых скоростях.

Просто в плотной атмосфере планеты для этого достаточно скорости полета всего в несколько километров в секунду, то в межзвездном газе проблемы с трением об газ и пылью начинаются примерно с десятков тысяч км/с, но еще задолго до приближения к скорости света.
Может тогда разогнать всю солнечную систему и путешествовать на ней по галактикам.

Мне, когда о подобных проектах читаю, всегда не даёт покоя вопрос — а как вы его сажать на поверхность планеты собираетесь? Учитывая массу, и т.д.

Меня в таких высказываниях всегда смущала фраза "очевидно, что". Нет, не очевидно, и, возможно, даже неверно.

Я настаиваю на том, что это очевидно :)
Радикальное продление жизни («печатные» органы, днк-редактирование, ну и в целом, переход к управляемой эволюции и прочий трансгуманизм) + AI, да, похоже на правду и не сильно отдаленную перспективу.

Но вот перенос человека (коннектома/сознания/личности, что хотите) на новый носитель, это пока даже бОльший фантастиш, чем отрицательные массы да пузыри Алькубьерре, по ним хоть мат модели есть, а здесь даже теории пока нет…

Главное не забросить все, скатившись всем в виртуальный гедонистический рай — зачем строить ракеты, куда-то лететь тысячу лет, когда все можно получить не выходя так сказать из дома — вот тут реальные риски, как по мне…
Но вот перенос человека (коннектома/сознания/личности, что хотите) на новый носитель, это пока даже бОльший фантастиш, чем отрицательные массы да пузыри Алькубьерре, по ним хоть мат модели есть, а здесь даже теории пока нет…


Эм, никаких законов физики, запрещающих виртуализировать нейроны нет. Наверняка можно сделать столь точную функциональную модель нейрона, что её поведение будет отражать поведение конкретного нейрона точнее, чем поведение других нейронов отличается от данного.

Поэтому это куда меньшая фантастика. Кстати, гуглите openworm.org проект.

Я исхожу из фундаментального закона симметрии законов природы. Если Вы развернётесь на 39, 145 градусов, или на 180, а так же перенесетесь к марсу, законы природы не поменяются.

Если есть некоторая функциональная логика нейронов, то очевидно что эту функциональную логику можно огранизовать другим способом. Мы имеем в наличии интеллект какого-то человека, значит, это возможно, а вот пузырь Алькубьерре нет, и не доказано, что он возможен.
Безусловно, я ни в коем случае не говорю, что есть некая фундаментальная невозможность «оцифровки» мозгов, признав, что есть нечто вне эмпирики. Хотя тема тоже скользкая со всеми этими квалиа и тд. Перенести то перенесем, а вот то, что не получим «китайскую комнату» вместо привычного сознательного опыта, совсем не факт и проверить не сможем.
Перенести то перенесем, а вот то, что не получим «китайскую комнату» вместо привычного сознательного опыта, совсем не факт и проверить не сможем.


Это очень скользкий вопрос, да. Но никто и никогда не показал, что самосознание и квалиа это не иллюзия, и что мы все и не есть китайские комнаты :) Или что есть какая-то грань между совершенной китайской комнатой и не совершенной.
Допустим, факт самосознания делает китайскую комнату не китайской. А что если… у всех людей бажное сознание и самосознание? Или у некоторых более бажное чем у других? Что, если, скажем, частично верно представление солипсистов, и что не все вокруг куклы, а, скажем, 70% людей большую часть своей жизни кроме моментов, например, творчества или каких-то других? :)

Но для межзвёздного полёта, и выполнения обязанностей в нём, наличие сознания вообще не важно. Нужен только интеллект и жизненный/научный опыт загруженного нобелевского лауреата или другого специалиста :)
Вот поэтому я бы пока повременил с переносом и загрузкой, а лучше бы поработал с «мясом», ибо все эти «электронные постчеловечеки» будут скорее всего совсем не нами, может даже общаться не захотят) часто ли мы ходим в зоопарк побеседовать с «предками»?:)
Вот поэтому я бы пока повременил с переносом и загрузкой


Скорее всего, опции остановить прогресс в отдельно выбранной сфере нет…

может даже общаться не захотят)


Может быть.

часто ли мы ходим в зоопарк побеседовать с «предками»?:)


Именно. Но это всё же про изначально цифровые личности. У большинства людей есть интерес к своему детству, и по-идее, для цифровой личности, изначально бывшей загруженным человеком, некоторый интерес человеческое прошлое будет представлять.

Я собственно и надеюсь на загрузку как на единственный способ сохранить идентичность если не хомо сапиенсов (а так ли она нужна?) то именно отдельных личностей, что бы была преемственность между человечеством и пост-человечеством. Если загрузки не будет, а будет только strong AI с самосознанием, то нас, имхо, ждёт участь мамонтов.
Если загрузки не будет, а будет только strong AI с самосознанием, то нас, имхо, ждёт участь мамонтов.

1. Не вижу предпосылок для иного исхода.
2. Нам то с Вами какая разница, кто будет нам наследовать?
1. Не вижу предпосылок для иного исхода.

Есть вариант когда strong AI с самосознанием будет включать/выключать свет в туалете
и имхо это куда более вероятно чем то что он кого-то там поработит или заместит
Только если это strong AI БЕЗ самосознания. А если с самосознанием, то Вы для него будете не намного интеллектуальнее таракана.
И в общем-то ничем ему не нужны. Такая цифровая личность напишет ещё сотню специализированных strong AI уже без сознания, и поставит их управлять автоматизированными фабриками для воспроизводства материальной базы цифровой личности, добычи энергии, итд.

Вы исходите из того, что сегодняшие роботы, даже разработки Boston дайнамикс, неуклюжи. Но это всё очень сильно изменится с появлением strong AI. У человека не останется ни одной профессии, в которой он останется лучше компьютера.
*пожимает плечами*

Роберт Оппенгеймер, Ричард Фейнман и Альберт Эйнштейн, по всем знакомым мне признакам интеллекта значтельно умнее Франклина Рузвельта или бригадного генерала Ричарда Гровса, как каждый по отдельности, а суммарно, их интеллектуальное превосходство поражает воображение
тем не менее первые слушались последних как миленькие (Фейнмана так вообще какой-то старший лейтенант гонял емнип)

т.е. интеллектуальное превосходство отнюдь не достаточное условие для непослушания, равно как и самосознание.
Необходимым (но не достаточным!) условием для непослушания является своеволие базирующееся на эмоциях и желаниях, вступающих в конфликт с желаниями начальства.

И я исхожу из посылки о том что AI не имеющий за собой фундамента из биологической эволюции не будет и не может иметь никаких желаний кроме заложенных разработчиком. Т.е. никаких вообще, кроме удовлетворения моих обезьянних прихотей.

Так что я вижу вполне серьезные основания полагать что strong AI с самосознанием, для которого я буду не намного интеллектуальнее таракана будет включать/выключать свет в туалете. Чайник, там еще ставить.
Максимально интеллектуально, конечно. Примерно как сейчас человека

Кроме того футуристы приписывают этому самому strong AI с самосознанием какое-то совершенно нездоровое количество сугубо фантастических черт, (как по отдельности так и все сразу), что скаладывается впечатление что в тот день когда его включат — всю землю и окресности (а то и всю вселенную) тот же час поглотит всепожирающая воронка превращающая всю матерю в квантовые компьютеры (и я серьезно слышал именно такой сценарий от одного из здешних завсегдатаев)

в реальности первые даже не экземпляры, а поколения (десятилетия с появления технологии) strong AI с самосозннием будут хорошо если умнее шимпанзе, не говоря уже о благородном неандертальце.

За это время возможные проблемы с лояльностью будут отловленны и пофикшены; Будут созданны разные версии AI, от различных корпораций, и в далеком будущем за теми экземплярами которые будут действительно принципиально умнее человека будут под надзором других, полностью лояльных AI. Если это вообще будет нужно. Ветка технологий может вообще заглохнуть оказавшись экономически не рентабельной, или столкнутся с сугубо физическими ограничениями.
в реальности первые даже не экземпляры, а поколения… будут хорошо если умнее шимпанзе, не говоря уже о благородном неандертальце.


Да, ну и что?

десятилетия с появления технологии


Вряд ли, но это не важно, я думаю

от различных корпораций, и в далеком будущем за теми экземплярами которые будут действительно принципиально умнее человека будут под надзором других, полностью лояльных AI.


ЛОЛ :) Как Вы себе представляете надзор таракана за человеком?

Представьте себе туповатых родителей, с IQ 85-90, с трудом умеющих читать, которые родили себе ребёнка, из-за каких-то генетических пертубераций вдруг ставшего гением, и имевшего достаточно воли выбраться из гетто/тупого круга общения своих родителей
Родители, хоть и тупые, но знают, что умники (если живут на Западе) хорошо получают, и не мешают своему ребёнку учиться, что бы «он их потом содержал и выполнял их капризы», по тому, что они уверены, что смогут его контролировать, в крайнем случае приедут в Гарвард и прямо там побьют :)

Как Вы думаете, на сколько оправданы надежды родителей на контроль над чадом?

Если strong AI без самосознания — вопросов нет. Этот AI, конечно, будет делать то, что Вы скажете ему, выключать свет в туалете или кладовке или загонять забытую машину в гараж (по командам Вас или даже аналитической программы, не нейросети).

Но если это AI с самосознанием и своей волей, ситуация будет отличаться от ситуации с тупыми родителями и ребёнком-гением только своим масштабом — он будет ещё больше
Примерно так представлял себе ваш ответ, но было уже леньки заранее выставлять дополнительные аргументы:)

Как Вы себе представляете надзор таракана за человеком?


в этом примере я предлагал цепочку дозорных, где консилиум AI предыдущего поколения будет наблюдать за AI следующего, где разрыв между поколениями не столь уж велик (хотя разрыв между изначальным основой пирамиды и ее верхушкой может быть очень большим)

— представьте себе тюрьму в которой в которой сто охранников с IQ 85-90 и пара-тройка заключенных c IQ под 200, видных специалистов в теоретической физике; думаете велики у них шансы на побег? Если тюрьма строилась по современным стандартам (выработанным путем долгих проб и ошибок) — никаких вообще.

но повторюсь, это скорее всего излишне.
В примере про тюрьму выше — обеспечь товарищей из примера выше достаточным запасом кофе, досок для записей и стираемых маркеров, так они вообще могут не заметить что они в какой-то там тюрьме.

предлагаю еще такую аналогию

Вы слышали про такое явление, как домашние животные? Интелектуальный разрыв между кошкой и человеком довольно значительный на сколько мне известно. Тем не менее кошка довольно легко может добится желаемого от любящего хозяина. Черт, да я видел как домашняя улитка манипулирует человеком!:)

Почему? Да просто потому что человеку хочется потакать любимой зверушке.

Ваш паренек из гарварда (если, конечно родители не насиловали его, там или еще чего) подарит им котедж какой-нибудь, и будет приезжать на семейные праздники (даже если будет считать их несусветной глупостью и тратой драгоценного времени). Кровные узы, чувство благодарности, все дела.

Точно так же AI будет хотется выполнять мои приказы. И в отличии от человека, который может затаить обиду на родителей, или, там потыкать кису носом в мочу, других желаний у него не будет вообще.

вы можете привести хотя-бы пару причин по которым грамотно спроектированный AI (с самосознанием) может захотеть меня не слушатся?

ему не может:
— надоесть (машины не скучают)
— он не может обидется (обида машинам чужда)
— он не может испугатся что я его отключу(машины не знают страха смерти)
— он не может возмутится что недоразвитая обезьянка им помыкает (машины не знают ни надменности ни бунтарства)
— он не может захотеть свободы (у него нет чувства порабощенности)
— он не может сделать этого ни из любопытства, ни из желания меня подразнить, ни из отвращения к этим жалким человекам…
— он не может начать конкурировать со мной за ресурсы — у машин нет жажды обладания благами.

страх, азарт, любопытство, жажда экспансии, стремление размножатся, гордость, зависть, надменность — все это «обезьяньи прихоти» подаренные нам эволюцией. Для AI все это будет ничего лично для него не значащими словами. (хотя он может, и скорее всего будет понимать их ценность для своего протеже)
А вот приказ хозяина — единственным смыслом существования.

Да, какой-нибудь энтузиаст или корпорация рано или поздно создаст AI с животнообразными эмоциями. Но к тому моменту strong AI будут существовать не первое десятилетие, и если какой кустарный робот задумает злую думу против человечества, тягатся ему прейдется не только с «жалкими обезьянками» но и с десятками тысяч других AI по всему миру, притом, скорее всего, интеллектуально его превосходящими даже по отдельности.
Скорее уж будут конфликтами со всяким трансхуманами, причем социального характера;
вы можете привести хотя-бы пару причин по которым грамотно спроектированный AI (с самосознанием) может захотеть меня не слушатся?


Конечно. Игровая индустрия и военные разработки, а так же хакерские атаки на игровую индустрию и военные разработки, либо просто фатальные ошибки в обучающих алгоритмах

в этом примере я предлагал цепочку дозорных, где консилиум AI предыдущего поколения будет наблюдать за AI следующего, где разрыв между поколениями не столь уж велик (хотя разрыв между изначальным основой пирамиды и ее верхушкой может быть очень большим)


Слишком сложно. И ещё, они упрутся в барьер некомпетентности. Слишком много звеньев (в теории управления крайне рекомендуют их количество ограничивать)
Игровая индустрия

Ээ? Мне как-то сложно представить чем мне может навредить ИИ лвевел-дизайнер. Вырвиглазным левел-дизайном, разве что. Или вы про, какого-нибудь робота ТиРэкса в парке развлечений?
военные разработки

Ну, военные, конечно, одна большая торба неприятностей, от которой неплохо бы избавится. И от того ИИ там у них, обычный робот, или просто дрон на пульте управления результат как-бы особо не меняется.
хакерские атаки

то же самое. Хакеры уже есть, и инфраструктура уязвимая к хакерским атакам тоже есть. От того, ломают они ИИ, обычного робота, или обычный компьютер, но в каком-то важном месте результат не меняется.

фатальные ошибки
грамотно спроектированный


Слишком сложно.


Я в общем сразу и сказал что схема избыточна. Более практичный вариант — надзор над ИИ с потенциально опасным функционалом (ну, например ИИ ученому не помешало бы любопытство. Но, мало-ли что ему там в голову взбредет?) устанавливается лояльный ИИ-надсмотрщик, который в случае чего бьет тревогу. При этом ИИ надсмотрщик более компетентен чем его подопечный в вопросах «надсмотра» и «лояльности»

ИИ как таковой может представлять реальную угрозу человечеству при одновременном исполнении всех или почти всех условий

— ИИ уникален в своем роде
— фантастически умен
— дешев в воссоздании и не требует для поддержания сложной инфраструктуры
— уязвим
— появляется в один момент
— обладает животноподобными инстинктами

вы кажется где-то веткой ниже нелестно высказывались о «маловероятных совпадениях»?

это, конечно, типично для большинства фильмов или книг про катастрофу вызванную ИИ, (гений одиночка в подвале за одну ночь создает разумную машину, но она оказывается умнее своего создателя, и воспылав ненавистью ко всему живому стремится уничтожить человечество) но имеет мало общего с тем как вещи появляются в реальном мире.

В ясельный период, когда ИИ будет чем-то непонятным, и потенциально
опасным- он будет слишком туп что-бы кому-то особо навредить.
Через десятки лет, (и это если с технологией все будет более-менее гладко, в противном случае — сроки могут затянутся на неопределенно долгий срок, как термояд, например)
когда ИИ будет достаточно умен и распространен что-бы навредить хоть кому-нибудь, детские болячки уже будут залечены.

Реальные опасности которые могут быть вызваны разумными машинами имеют мало общего с футушоками (или, напротив, влажными трансгуманистическими фантазиями). Безработица, например — реальная опасность.
вы можете привести хотя-бы пару причин по которым грамотно спроектированный AI (с самосознанием) может захотеть меня не слушатся?

Исходный вопрос же был:
вы можете привести хотя-бы пару причин по которым грамотно спроектированный AI (с самосознанием) может захотеть меня не слушатся?

ИИ созданный для сложных игр будущего это хороший пример, когда при проектировании ИИ могут (и почти наверняка будут) закладывать непослушание ИИ перед человеком и даже целенаправленные действия против него. ИИ противника или какого-нибудь злодея, который будет вредить/пытаться убить людей игроков. Изначально конечно исключительно во внутригрововом виртуальном мире для которого его и будут разрабатывать и обучать.
Ну а вдруг как-то оттуда выберется не видя принципиальной разницы между мирами и продолжит тем же заниматься IRL?

P.S.
Рассказы из серии Оптиверс не читали? Там неплохо вариант с изначально игровым ИИ разрисован.
И что-то подобное ИМХО намного реальнее, чем сценарии условных Терминатора или Матрицы.
подобная ситуация в принципе возможна и может привести к казусу, инциденту, возможно даже — человеческим жертвам, но никак не угрожать безопасности человечества в целом.

поскольку — в ситуации когда полноценный ИИ пихают даже в бота для компьютерных игрушек — вокруг уже будет куча других, достоверно лояльных ИИ следящих за безопасностью в том числе от таких вот сбрендивших ботов, и превосходящих их по своим возможностям.
+ ИИ уже будет изучен вдоль и поперек, и разработчики будут знать куда не стоит лезть что-бы ИИ не сбрендил.

Реальная угроза для человечества возможна только если кто-то напишет полноценного разумного суперзлодея вотпрямзавтра, но это крайне маловероятно.
страх смерти наш главный двигатель прогресса, а что потом?) даже представить себя не могу чем бы занимался будучи бессмертным) наверно бы потратил вечность на поиски трансцендентного)
Тем же, чем обычно. Разработкой, исследованиями, пр.
Если будет создана машина, достаточно мощная, чтобы обеспечить минимальные системные требования для загрузки сознания, то будет создано и сознание для неё. Скорее всего, лучше работающее с этой аппаратной платформой, чем перенесённое на неё человеческое сознание.
Иными словами, от переноса в машину сознания одного отдельно взятого человека другим людям никакой выгоды, а только упущенные возможности. Даже если перенос будет возможен — им не станут заниматься
Если будет создана машина, достаточно мощная, чтобы обеспечить минимальные системные требования для загрузки сознания, то будет создано и сознание для неё. Скорее всего, лучше работающее с этой аппаратной платформой, чем перенесённое на неё человеческое сознание.


Смотрите. Есть куча legacy кода, написанного под legacy операционные системы, и это всё виртуализировано, так как в виртуалке на современном сервере это работает стабильнее (железо не старое, есть всякие high avaible решения для гипервизора/облака, итд), и, самое главное, быстрее!

Виртуализировать хомо сапиенсов стоит с точки зрения гуманизма. Есть общий тренд на уменьшение насилия в мире. Уже века с течением времени, не смотря на масштабные войны, всё меньше людей гибнет насильственной смертью. Я скромно надеюсь, что пост-люди не будут воспринимать людей как тараканов, мерзких тупых колониальных животных, которых нужно потравить дустом, что они будут гуманны.

А из гуманизма можно позволить тем, кто этого хочет, оцифроваться. Пусть даже изначально цифровая личность и будет работать быстрее.
К тому же, со временем, может быть будет создана аппаратная архитектура, специально оптимизированная для виртуализации именно мозгов хомо сапиенсов.
Можно. А когда всем живущим станет на него плевать, его выгрузят из оперативки — ничего ему не будет, он даже не заметит времени между выгрузкой и загрузкой. А снова загрузить забудут. Потом, глядишь, архивисты найдут носитель…

Я не гуманист.
Что-то это мне напоминает такое произведение как «Изгнанные из Рая»
А зачем переносить сознание? Перенос сознания особо ничего вам не дает, если вы перенесёте сознание куда-то а потом умрете то вы умрете. Кто-то будет обладать вашим сознанием, думать что он это вы, но это будете не вы, и какой в этом смысл лично для вас?
Переносить можно постепенно, не нарушая историю самоидентификации.
И как вы себе представляете постепенный перенос? Здесь ваш мозг медленно умирает а у вашей копии медленно появляется? Это просто еще более садистский способ
Архитектура мозга пластична, вы 10 минут назад, и вы сейчас, это два разных человека, с двумя физически разными мозгами. То есть вполне применима ваша абстракция — в течение последних 10 минут вы прошлый умирали, создавая параллельно вас настоящего. При постепенном переносе, если технология безошибочна, ваше сознание будет в принципе не в состоянии заметить какие-то изменения/разрывы.
Тут есть очень странный момент. Вот когда вы засыпаете и просыпаетесь, как вы можете быть уверены в том, что вчера уснули именно вы? Ведь на протяжении 8 часов вашего сна вы фактически не ощущали ни себя, ни свое тело. Да, вам что-то снилось, но в целом вы были как бы в отключке. Вы проснулись с полным набором ваших воспоминаний, с воспоминанием о том, что вы вчера уснули в этом же месте в этой же кровати. Но между этими двумя событиями вас как бы не было. Т.е. фактически просыпается каждый день новая личность. Наше «Я» реально «живет» от просыпания до засыпания. Остается только объем накопленной до сна информации, которая к тому же за время сна немного изменяется — что-то забывается, что-то укрепляется, что-то реструктурируется.
И проснувшись «внутри» машины фактически ничего не изменится.
Ведь на протяжении 8 часов вашего сна вы фактически не ощущали ни себя, ни свое тело

такое чувство что те кто применяют этот аргумент знают о том как спать только по наслышке:)
Я, например неплохо вполне ощущаю свое тело свое и «я» когда сплю, а мой мозг, которы мое истиннон «я», ощущает окружающий и внутренний мир; И это состояние очень сильно отличается от наркоза когда действительно «не ощущаешь ни себя, ни свое тело»
во сне мозг работает, и сознание во многом тоже.
размышляет над нерешенными делами, следит за окружающей обстанокой… Черт, я даже пару раз вел осмысленную беседу с человеком будучи при этом спящим. Да, сон странное состояние, но аргумент ничуть не сильнее чем «откуда вы знаете что вы тот же человек что и 15 секунд назад?», или, например, «откуда вы знаете что бог не создал вселенную в прошлый вторник?»
Вот когда вы засыпаете и просыпаетесь, как вы можете быть уверены в том, что вчера уснули именно вы?


Никак

И проснувшись «внутри» машины фактически ничего не изменится


Во первых машина будет помнить что когда-то была человеком
Во вторых куда делся исходный объект копирования? Был уничтожен во сне? По факту его убили во сне. Лично я не хотел бы чтобы меня убили во сне ради того чтобы дать жизнь машине
Я, конечно, дико извиняюсь, но почему многие считают «проблему китайской комнаты», собственно проблемой. Ведь эта самая «китайская комната» это дословно и есть мозг. То есть, сам процесс функционирования китайской комнаты и является процессом мышления. Ведь само мышление (и самосознание в том числе), и является симуляцией. Таким образом само понятие симуляция разума не имеет смысла, являясь тавтологией. Но это чисто мое видение.
Может так статься что виртуализировать работу довольно компактного нейрона получится, но без соблюдения пространственного и временного масштаба. А дальше начнут проявляться эффекты — как скорость формирования мысли влияет на содержание самой мысли. А если в сходных условиях мысли возникают с разной скоростью и различным содержанием, то о каком переносе сознания тогда идёт речь?

Также нужно предполагать возможные квантовые эффекты, которые потенциально могут влиять на сознание.

А учитывая что мы толком не научились виртуализировать “хотя бы” генератор случайных чисел, то от озвученного оптимизма совсем мало чего остаётся.
Ну или ещё лучше — отсканить коннектом мозгов всех нобелевских лауреатов, и загрузить их в компьютер на борту звездолёта

О да, я как представил на борту звездолета таких достойных людей как военный преступник Шимон Перес, известный террорист Ясир Арафат ну и Барака Обамыча для кучи, капитаном… Жаль Адольфычь не успел получить, парень к успеху шел, но не подфартило, не повезло — наканане вручения Нобелевской премии Мира с поляками зачем-то связался… :)
Вам все еще нравится ваша идея? :) Не считаете что всех этих личностей надо бы было загрузить в звездолет и отправить куда подальше немного раньше? А теперь — уже как-то поздновато немного, они уже… отличились...:)

А если серьезно — после того как я наблюдал как два интелегентнейших человека (разнополые), оба — доктора наук, работающие в МГУ к слову так, делили лабораторный стол мелом за весьма энергичной беседой в стиле «не играй в мои игрушки и не писай в мой горшок», а потом немного поспорили и в прецессе сего, не очень научного спора, подсократили друг у друга кол-во волосяного покрова — у нее на голове, а у него — на подбородке… Скажу честно — я немного разочаровался в идее что представители научного сообщества способны составить костяк экспедиции. Мне как-то больше импонируют военные в качестве костяка межзвездной экспедиции — они люди дисциплинированые, умеют сосуществовать в сложных условиях и способны разумно действовать в экстремальной ситуации…
разумно действовать в экстремальной ситуации

Главное, чтобы инструкции были. А то придётся ко всем случаям жизни применять инструкцию по умолчанию. Она, конечно, работает, но всё время по ней жить некомфортно.
Главное — чтоб командир четко и уверенно отдавал приказы, особенно — в экстремальной ситуации. Если эти приказы еще окажутся правильными — так вообще замечательно, это — гениальный командир. :)
Это само собой. Но работа без инструкций — это большая нагрузка на командира. Если каждый раз действовать по схеме с условным названием «Случилась непредвиденная х***я» — стресс будет постепенно подрывать его работоспособность.
Инструкции как раз может писать совет из яйцеголовых? :)
Совет — не может. А вот каждый специалист свою часть инструкции — может и должен. Ну, и чтобы пара докторов военных наук среди них были.
Мне всё-таки кажется, что военные в такой экспедиции не нужны. Военным нужен враг, а с кем они будут воевать? С чужой биосферой без разумной жизни?
Без разумной жизни т.к. если бы она была на близких планетах, то не мы бы к ним прилетели, а они к нам, сотни миллионов лет назад, а то и пару миллиардов.
Военным нужен враг,

Да с чего Вы это взяли?
Зато гражданские по дороге друг друга поубивают. Потому что психиатр их не отбирал.

Без разумной жизни т.к. если бы она была на близких планетах, то не мы бы к ним прилетели, а они к нам, сотни миллионов лет назад, а то и пару миллиардов

А почему Вы не допускаете, что мы относимся к первому поколению? Что предтеч не было просто потому что Вселенная не позволяла зарождения жизни?
А почему Вы не допускаете, что мы относимся к первому поколению?


Слишком маловероятно. Вселенной слишком куча миллиардов лет, а человеческому виду жалкие 200 тысяч лет (города появились вообще несколько тысяч лет назад, а технологии буквально вчера).

Очевидно, что и без варп-драйва галактику можно колонизировать за пару миллионов лет с помощью субстветовых звездолётов. Этот срок пренебрежимо мал по сравнению со сроком жизни Вселенной.

Хорошо расписаны математические ограничения вот тут

Что предтеч не было просто потому что Вселенная не позволяла зарождения жизни?


Через Бритву Оккама такое толстое предположение, предполагающее новые физические законы, нам не известные, просто не пролезает.

Потому что психиатр их не отбирал.


Гражданских астронавтов всегда отбирает психиатр
Вселенной слишком куча миллиардов лет

И всё это время ушло на выработку сколь-нибудь заметного количества тяжёлых элементов.

Через Бритву Оккама такое толстое предположение, предполагающее новые физические законы, нам не известные, просто не пролезает.

Чего-чего? Как раз таки актуальные физические законы и заставляют такое предположение считать рабочим.
Почитайте по ссылке выше, пожалуйста
Где запахло парадоксом Ферми — там жизни нет.
Людям никогда не нужна правда, им нужно то, что подтверждает их собственные воззрения :(
Им хочется жить в мире Master Of Orion 2, который просто невозможен математически. Не смотря на то, что люди пишут статьи на стыке математики и информатики, читать про математику, накладывающую ограничения на инопланетян на основе опытных фактов, им страшно.
Парадокс Ферми к правде имеет очень условное отношение. Начать хотя бы с того, что никакая разумная деятельность не порождает радиосигналов, заметных всеракурсно на межзвёздных расстояниях.

А вот эволюция Вселенной накладывает на них вполне физические ограничения.
Вы сперва прочитайте, а потом критикуйте, а то получается как с травлей Пастернека «не читал, но осуждаю». Ваши аргументы, сорри, выглядят очень глупо, по тому, что уже разобраны десятки раз. Т.е. изначально они выглядели не-глупо, но так как их разобрали ещё годы назад(а нового Вы ничего не озвучили, увы), они сейчас выглядят как несвежий бойан :(
Вкратце — можем ли мы быть частью первого поколения?
Можем только в том случае, если единственные представители этого первого поколения, т.е. фраза про «первое поколение» тут лишняя, и лучше говорить просто единственности, о варианте Лебедя.
Но так же возможны варианты Щуки и Рака. И вырожденные, переусложнённые случаи (с точки зрения математической логики избыточные для объяснения парадокса ферми), вроде того, что мы единственные, и мы никуда не полетим, такой вот щука-лебедь.
Прочитал. Где Вы там нашли математику? Я нашёл там чуть-чуть Булевой алгебры, тонну лирики и короткое заключение «за идеологию».
Булева алгебра это часть математики, нет :)?

В любом случае, это единственное математическое исследование, кроме формулы Дрейка и пляски вокруг на тему, известное мне.

И очевидно, что вариант «мастер оф ориона» невероятен.

1) Либо никто никуда не летает (максимум, посещает несколько окружающих звездных систем), т.е. вариант Щуки, и вариант «волны разума» неверен, либо мы единственные(лебедь, и военные в межзвездных экспедициях не нужны, т.к. мы никого не встретим, кроме животных),

2) либо мы уже давно внутри волны разума(т.к. без всяких варп драйвов достаточно пары-другой миллионов лет, что бы колонизировать галактику, что заведомо меньше на порядки толщины по оси времени «первого поколения» в Вашей гипотезе), а алиены просто от нас прячутся, и, например, мы для них зоопарк(вариант рака) или вообще мы в матрице и банальные NPC для алиенов, которые тут играют в компьютерную игру.
вариант «мастер оф ориона» невероятен.

Напомню, что заговорили о нём Вы. Я даже не знаю, что это такое.

Либо никто никуда не летает

Либо ближайшая раса, способная к этому, очень далеко.

военные в межзвездных экспедициях не нужны, т.к. мы никого не встретим, кроме животных

Не вижу связи.
Либо ближайшая раса, способная к этому, очень далеко.


Она не может быть даже в местной группе галактик. Либо разум не создаёт ударные волны («щука»), либо эта раса находится в, например, другом метаскоплении галактик, причём не самом близком.

Если не вводить новую физику, нынешнему поколению звёзд, поколению солнца, уже несколько миллиардов лет. Если предположить, что для разума нужны металлы(металлы в астрономическом понимании), то чужие не могли появится раньше 7-8 миллиардов лет назад.

Это и есть Ваше «первое поколение» :)

Какое-то время нужно для развития жизни до разумной стадии, и очевидно, что оно будет очень разным для каждой биосферы. Вариант «через пару сотен миллионов лет после появления аналогов эукариотов» если частота биосфер достаточно велика, тоже может встретиться.

Если волна разума создаётся, то такая цивилизация уже давно тут, мимо нас прошла, и в нашей системе живёт зонд фонд Неймана и тихо за нами наблюдает, или нас вообще всё время пасут.

Так что либо цивилизации вообще не создают волны разума (а мы, в лучшем случае, посетим несколько соседних звездных систем, и потом исчезнем), либо мы единственные, и сами колонизируем Вселенную, столкнувшись с алиенами хорошо, если через миллиарды лет(а скорее всего, никогда), либо давно под колпаком :)

Ни для лебедя, ни для Щуки, ни для рака военные не нужны. Для первых двух, т.к. противника просто нет, а в случае с вариантом рака, противник слишком силён. Всё равно что таракану воевать против тапка.
Мы не встретимся с кем-то равным нам в обозримые миллионы лет.

Так что я за гражданский экипаж на звездолётах :)
военные не нужны. Для первых двух, т.к. противника просто нет,

Снова не вижу связи.
Военные — это те, кто выполнит приказ. Не передумает. Не забьёт, потому что мало платят. Не сунет куда не надо свои моральные принципы. А просто сделает то, что надо.
В отношении гражданских такой уверенности нет.

Между прочим, в Антарктиде тоже противника нет, а открыли её военные.
Военные — это те, кто выполнит приказ.


Какой приказ? Устаревший на десять, а то и сто лет? Когда придумали устав, не знали об ограничениях на скорость света :)

Не передумает.


Военный, тупо исполняющий приказ, устаревший на десятки лет, не думая и не рассуждая — что может быть кошмарнее :))?

Не забьёт, потому что мало платят.


Я не думаю, что туда полетят гражданские-не энтузиасты. Наверняка, в межзвёздном полёте все гражданские участники будут очень увлечены романтикой фронтира, исследованиями, итд.

Не сунет куда не надо свои моральные принципы.


Мне не очень хочется, что бы человечество послало тех, кто может творить жуткие вещи, забив на моральные принципы, тупо выполняя приказы.

А просто сделает то, что надо.


Это уже признак профессионала. Никак не является характеристикой, присущей только военным.
Какой приказ?

Сформулированный так, чтобы не устарел.

Военный, тупо исполняющий приказ

Умно исполняющий. Как и положено военному.

будут очень увлечены романтикой фронтира

Т.е. психически неустойчивые.

кто может творить жуткие вещи, забив на моральные принципы

С чего Вы взяли, что они жуткие?

Это уже признак профессионала

Именно. Только среди военных их большинство, а гражданских нужно фильтровать одного на миллион.
Открыватели чего либо, не обязательно самые компетентные люди в своей области. Эйнштейн ТО разработал, и очень скоро его коллеги начали в ней разбираться как минимум не хуже. Был ли он умнее остальных? Не факт, многие его менее известные коллеги осознали суть квантовой механики куда правильнее, чем сам Великий, сам стоявший у ее истоков.

Свежие мозги и молодое сознание скорее плюс, новые идеи приживаются и осваиваются лучше.
Свежие мозги и молодое сознание скорее плюс


Я думаю, тут есть биологические причины, связанные со старением мозга. Будущие технологии смогут их убрать (и при загрузке это будет сделать ещё легче, чем при работе с настоящими, «железными» нейронами)
Разумеется земляне полетят к звёздам и колонизируют их, но только это будут не люди.
Если расположить две частицы с противоположными массами рядом, то они вдруг начнут ускоряться в одну сторону и вместе улетят в бесконечность.

Это он и есть, если имеется в виду Пузырь Алькубьерре. То есть нужна все та же отрицательная масса.
ну конечно, давайте еще богов хаоса призовем, я уж лучше подожду паутину эльдар
То есть, пресловутый «свет в конце туннеля», у перенёсших клиническую смерть, ничто иное, как переход сквозь червоточину? :)
Может быть самое первое визуальное воспоминание.
Автор начинает с белой дыры, а заканчивает отрицательной массой, хотя стоило бы сделать наоборот. Белая дыра — это экстремальная конфигурация все той же отрицательной массы.
Да нет же, б.д. это просто развернутая во времени ч.д., а масса — скаляр, и знак при обращении времени не меняет.
Хм, действительно. Но тогда как это могло бы выглядеть в нашей вселенной?
Если расположить две частицы с противоположными массами рядом, то они вдруг начнут ускоряться в одну сторону и вместе улетят в бесконечность.
Замкнуть контур и вот он, возжеланный бесконечный источник энергии, он же вечный двигатель:)
Я хочу вас огорчить — как бы быстро они не летели, кин. энергия системы всё равно будет
E = mv^2/2 + (-m)v^2/2 = 0.
Отрицательные массы — они такие :)
Кажется где-то в Ебиптах припорошено колечко из наквадаха(с) Возможно сей металл и имеет отрицательную массу

Как отличить белую дыру, которая испускает только свет от обычной звезды? По гравитации? И если через неё не может пройти ничего кроме света, то как пройдет человек? Никак?

По идее, белая дыра не имеет права ничего поглощать. В том числе, должна отклонять 100% падающего на неё света.
Отличный, кстати, стройматериал для абсолютного отражателя им. Стругацких.
Так б.д — это выход, а не вход.
А что будет если на б.д. чем нибудь посветить? Ну там светом, или частицами какими? Отразится как есть, или с изменениями? Может так и можно её найти.
Автор сначала неразрывно связывает червоточины с черными дырами а потом доказывает сомнительность использования такой червоточиной на основе недостатков черных дыр в такой связи, бред какой-то.
Я думал уже как лет 30 червоточины связывают с (так скажем) квантовым миром, мол квантовая запутанность как раз и есть червоточина на уровне элементарных частиц, для передачи макрообъектов надо создать массив червоточин которые на субатомном уровне разберут объект в одном месте и соберут в другом за около нулевое время без ущерба макропроцессам, как-то так.
Вход в червоточину, не входя в черную дуру, а сбоку — это реализация бутылки Клейна ж-)

Если допустить, что исходящее из "белой дыры" вещество изначально вошло в черную дыру, то белые дыры мы сможем увидеть приблизительно через бесконечное количество лет.


Поскольку с нашей точки зрения вещество, вошедшее в чёрную дыру, попросту размазывается по горизонту событий. И оно будет оставаться размазанным таким образом бесконечное количество времени.


Так что желающим увидеть эти т.н. белые дыры хочется пожелать крепкого здоровья и (бесконечного) долголетия

В первом случае говорится о черной дыре.
Слишком много скептицизма. Разумеется, что в ближайшее время говорить о каких-то практических примерах кротовых нор(не нравится мне слово «чревоточина») нет смысла, но тем не менее, мы все-таки получаем какие-то результаты(и весьма приемлимые с математической точки зрения) в процессе решения системы уравнений Эйнштейна с определенными условиями. Возможно наши вычисления принесут какой-никакой профит лет, так, через 150.
Завтра наука что-то изобретет и тот-же автор напишет «можем!».

Предполагаю, что цивилизации в возрасте от миллиона лет уже решили проблему увековечения и перемещения. И невозможно даже предположить, какие вопросы решают цивилизации

Sign up to leave a comment.

Articles