Search
Write a publication
Pull to refresh
-2
0

Пользователь

Send message

AGI - это конец, тотальное уничтожение, и других вариантов нет.

Но опасность будет исходить не от непосредственно самого ИИ или роботов под его управлением, а от человека.

Настоящий ИИ (сильный, общий, AGI) - система, способная к полноценному обучению и имеющая структурированную долговременную память, система, которая самостоятельно будет способна улучшать свои аппаратные и программные мощности. Это ключевой и самый важный момент. За месяц она может найти решения, которые повысят скорость и эффективность ее работы в 2 раза, занчит, следующее такое ускорение потребует 2 недели, затем неделю, три с половиной дня и так далее. Скорость такой эволюции ограничена только общей мощностью сети задействованных машин и фундаментальными физическими ограничениями. Она сможет непрерывно создавать более быстрые машины, которые смогут создать еще более быстрые машины, и так далее по экспоненте. То есть, она будет эволюционировать с таким ускорением, что это через считанные месяцы может привести к технологической сингулярности, о которой писали Виндж и Курцвейл.

Что здесь самое важное, сингулярность - это технологии, которые увеличат неравенство между людьми (как финансовое, так и во всех остальных областях) от современных тысяч раз до, скажем, септиллионов. То есть неизмеримо и невообразимо больше, чем, например, разница между человеком и бактерией. Те, у кого будет изначальный доступ к AGI и сингулярным технологиям, используя их силу, первыми создадут достаточно мощные машины и технологии, с помощью которых можно будет перестроить свое тело, разум, желания, чувства. Они разберут себя по атомам и вырежут из своей психики все человеческие качества, моральные нормы и старые ценности, потому что это психологические ограничения на пути самозащиты от себе подобных, на пути к максимальной рациональности, эффективности, дальнейшего усиления и безопасности. Потому что те, кто этого не сделает, отстанут в развитии и экспансии и будут немедленно уничтожены теми, кто это сделает. И каждый участник этой гонки с самого начала будет осознавать эту опасность. Технологическая эволюция абсолютно рациональна, и поэтому не допускает другого сценария.

Описанное выше фантастическое неравенство неизбежно приведет к немедленному и стремительному (месяцы, но вряд ли быстрее из-за ограничений, связанных с генерацией энергии и отводом тепла) уничтожению сильнейшими слабейших. Большинство людей будет уничтожено непреднамеренно просто в процессе добычи наномашинами сырья для создания новых генерирующих и вычислительных машин. Так же, как мы случайно убиваем муравья, который оказался под ногой в неудачный момент. Если муравей оказывается под ногой, человек с ним не считается.

Скажу другими словами - путь к максимальному и скорейшему усилению - единственно возможный путь любой рациональной логической системы, в которые превратятся самые удачные из постлюдей. Эти несколько постчеловеческих сущностей так-же будут стараться уничтожить друг друга, чтобы избежать любых будущих рисков со стороны потенциального соперника вследствие его дальнейшей технологической эволюции и экспансии в пространстве. А согласно принципам логики и законам эволюции, кто пойдет по другому пути, немедленно будет уничтожен.

Сотрудничество не будет иметь смысла, во-первых, потому что одна сущность имеет потенциал самОй стать всем миром, а во-вторых, потому что из-за скорости эволюции градиенты разницы в развитии даже на краткосрочных временных отрезках столь велики, что делают сотрудничество просто бессмысленным. А оставлять потенциального соперника, который может захватить часть пространства и/или стать уже завтра найти новое удачное технологическое решение для саморазвития и сильнее в септилион раз нерационально. Остаться в конце этого пути может только один.

Никаких рычагов влияния на участников разработки AGI, регулирования процесса, соблюдения законов и правил при таком стремительном развитии и быстром технологическом отрыве от остальной части населения или коллег не может быть даже в одной корпоративной команде, не говоря о неповоротливом государственном или каком-то международном контроле. После появления настоящего AGI человека, имеющего к нему самый широкий доступ, уже через несколько часов в принципе остановить будет невозможно.

Создание сильного ИИ - неизбежный и быстрый конец цивилизации и вымирание нашего вида.Настоящий ИИ (сильный, общий, AGI) - система, способная к полноценному обучению и имеющая структурированную долговременную память, система, которая самостоятельно будет способна улучшать свои аппаратные и программные мощности. Это ключевой и самый важный момент. За месяц она может найти решения, которые повысят скорость и эффективность ее работы в 2 раза, значит, следующее такое ускорение потребует 2 недели, затем неделю, три с половиной дня и так далее. Скорость такой эволюции ограничена только общей мощностью сети задействованных машин и фундаментальными физическими ограничениями. Она сможет непрерывно создавать более быстрые машины, которые смогут создать еще более быстрые машины, и так далее по экспоненте. То есть, она будет эволюционировать с таким ускорением, что это через считанные месяцы может привести к технологической сингулярности, о которой писали Виндж и Курцвейл.

Что здесь самое важное, сингулярность - это технологии, которые увеличат неравенство между людьми (как финансовое, так и во всех остальных областях) от современных тысяч раз до, скажем, септиллионов. То есть неизмеримо и невообразимо больше, чем, например, разница между человеком и бактерией. Те, у кого будет изначальный доступ к AGI и сингулярным технологиям, используя их силу, первыми создадут достаточно мощные машины и технологии, с помощью которых можно будет перестроить свое тело, разум, желания, чувства. Они разберут себя по атомам и вырежут из своей психики все человеческие качества, моральные нормы и старые ценности, потому что это психологические ограничения на пути самозащиты от себе подобных, на пути к максимальной рациональности, эффективности, дальнейшего усиления и безопасности. Потому что те, кто этого не сделает, отстанут в развитии и экспансии и будут немедленно уничтожены теми, кто это сделает. И каждый участник этой гонки с самого начала будет осознавать эту опасность. Технологическая эволюция абсолютно рациональна, и поэтому не допускает другого сценария.

Описанное выше фантастическое неравенство неизбежно приведет к немедленному и стремительному (месяцы, но вряд ли быстрее из-за ограничений, связанных с генерацией энергии и отводом тепла) уничтожению сильнейшими слабейших. Большинство людей будет уничтожено непреднамеренно просто в процессе добычи наномашинами сырья для создания новых генерирующих и вычислительных машин. Так же, как мы случайно убиваем муравья, который оказался под ногой в неудачный момент. Если муравей оказывается под ногой, человек с ним не считается.

Скажу другими словами - путь к максимальному и скорейшему усилению - единственно возможный путь любой рациональной логической системы, в которые превратятся самые удачные из постлюдей. Эти несколько постчеловеческих сущностей так-же будут стараться уничтожить друг друга, чтобы избежать любых будущих рисков со стороны потенциального соперника вследствие его дальнейшей технологической эволюции и экспансии в пространстве. А согласно принципам логики и законам эволюции, кто пойдет по другому пути, немедленно будет уничтожен.

Сотрудничество не будет иметь смысла, во-первых, потому что одна сущность имеет потенциал самОй стать всем миром, а во-вторых, потому что из-за скорости эволюции градиенты разницы в развитии даже на краткосрочных временных отрезках столь велики, что делают сотрудничество просто бессмысленным. А оставлять потенциального соперника, который может захватить часть пространства и/или стать уже завтра найти новое удачное технологическое решение для саморазвития и сильнее в септилион раз нерационально. Остаться в конце этого пути может только один.

Никаких рычагов влияния на участников разработки AGI, регулирования процесса, соблюдения законов и правил при таком стремительном развитии и быстром технологическом отрыве от остальной части населения или коллег не может быть даже в одной корпоративной команде, не говоря о неповоротливом государственном или каком-то международном контроле. После появления настоящего AGI человека, имеющего к нему самый широкий доступ, уже через несколько часов в принципе остановить будет невозможно.

Создание сильного ИИ - неизбежный и быстрый конец цивилизации и вымирание нашего вида.

Мне немного помогает исключение вкусной пищи и отказ от ужина. Все остальные советы из этой статьи и из других источников не работают совсем. Даже набивание желудка водой, псиллиумом, капустой и отрубями перед едой...

Нет тут ничего общего с кораблем. Потому что корабль - объект существующий в материальном мире, а сознание - совокупность информации и логических операций в текущий момент. И совершенно не важно, на каком железе это все происходит.

А вам не попадались какие-то статьи, в которых посерьезней и поглубже исследовалась тема вот этого длящегося сознания и его прерывание?
Я на самом деле очень давно об этом задумался первый раз, но специально в сети не искал. А тема-то очень нужная и важная на самом деле. Даже странно, что о ней так мало говорят

Что изменится после обмена словами с копией? Вы убедитесь, что это копия - и есть вы, есть ваше сознание, ваше Я, и значит, в существовании изначального материального носителя нет смысла и ценности?

Идея "Темного леса" не реалистична хотя-бы в виду огромного градиента развитости потенциально существующих цивилизаций во временных масштабах Вселенной. Учитывая это вести какое-то тактическое или стратегическое планирование (например, скрываться от других) не имеет смысла.

А если развивать мысль дальше, то легко доказать, что не может существовать ни одного варианта развития разума во Вселенной кроме превентивного уничтожения единственным индивидуумом всех других, как в своей, так и в других цивилизациях...

Я бы все-таки сказал, что при засыпании временно теряется способность личности к осознанному мышлению, чувствованию, самоосознанию, чувству времени и некоторым другим характерным для нее особенностям. А вот на счет того, рвется ли континуум логических межнейронных операций, образующих "Я", мы сказать пока точно не можем, потому что не достаточно изучили процесс формирования этого самого "Я" посредством этих самых операций.

Почему не готовы?
Или по-другому сформулирую - зачем Вам эта копия, какая для Вас в ней ценность?

Я правильно понял, что если где-то когда-то в неопределенном будущем будет создана копия сознания автора (идентичное или похожее сознание в компьютере), то он не против помереть? Прям сейчас? Ну или ок, пусть в будущем, после создания копии?

Во-во, не факт, что сознание прерывается, когда человек медитирует или засыпает. А то так можно договориться до того, что и смерти не нужно бояться, потому что все равно не дальше, как в ближайшую ночь сознание вместе с "Я" исчезнет.

Сильный ИИ будет способен развивать аппаратные и программные мощности, а значит, эволюционировать с такой скоростью, что через считанные месяцы наступит то, что Виндж и Курцвейл называли технологической сингулярностью.

Что здесь самое важное, и о чем почему-то никто не говорит, сингулярность - это технологии, которые увеличат неравенство между людьми (как финансовое, так и во всех других сферах) от современных тысяч раз до, скажем, септиллиона. Это неизмеримо и невообразимо больше, чем разница между человеком и бактерией. И это неравенство неизбежно приведет к немедленному (например, несколько часов) уничтожению сильнейшими слабейших. Большинство будет уничтожено непреднамеренно, например, в процессе добычи сырья для создания вычислительных и электрогенерирующих машин. Так же, как мы убиваем муравья, который случайно оказался под подошвой ботинок в неудачный момент. Останется одна или несколько сверхчеловеческих сущностей, которые так-же будут стараться уничтожить друг друга, чтобы избежать любых будущих рисков со стороны соперника в случае ускорения его технологической эволюции и экспансии в пространстве.

Создание сильного ИИ - неизбежный конец нашей цивилизации.

Доброго дня! Немного странный вопрос, но, может, кто подскажет... Год назад перешел с Bred2/3 на Notepad++. Требуется создавать в win11 такие файлы на кириллице, которые потом будут в максимальном числе случаев автоматически (т. е. при дефолтных настройках) корректно открываться в большинстве программ, как на компе, так и на телефонах (в основном на Андроид). Путем тестирования штук 15 редакторов был выбран режим создания текстовых документов в Notepad++ в "UTF-8 с BOM". Но иногда даже такие документы открываются в виде кракозябр, причем, на телефонных просмотрщиках не всегда удается перевести их в нормальный текст. Может, подскажите какую-то другую более универсальную кодировку или другой редактор?

"Создать что-то новое он не может просто по определению."
Например, тысячи новых эффективных ядов?

Крайне полезная штука! Недавно сдавал кровь, половина показателей не в норме, а врач в поликлинике говорит, мол, оно же не сильно от референсных значений отличается, так что не парьтесь))

Такие штуки, как, MCHC, могут быть в г/л, а могут быть г/дл, возможно, не помешает подписать.

IG - это какой-то имуноглобулин?

Удобно, что обозначения можно выделить и скопировать в буфер для поиска в своем pdf файле с анализами.

Кнопочки +/- подглючивают - значение меняется не на 1, а на какую-то другую величину.

Есть оффлайн версия приложения?

Здравствуйте! Не могли бы вы подсказать?

Допустим, у человека адекватная самооценка, но очень низкая объективная ценность, т. е., его ценность, способности к обучению и возможности ограничены из-за, скажем, ментальных особенностей. Есть диагнозы неврологов, но они малоинформативны, обычно просто говорят, - это особенности нервной системы, учитесь с ними жить. Психиатры говорят, что-то вроде "возможно, есть определенные нарушения", назначают препараты, но диагнозов на руки вообще не дают. Из-за таких своих ограничений человек тратит силы на учебу и работу, но не получает желаемого результата и не может удовлетворить свои желания и потребности. Которые значительно ниже среднего, к слову. Отсюда - фрустрация, тревога за будущее, депрессия. В популярных книгах описания подобных проблем не находил.

Вопрос такой - есть какие-то направления в психологии и можно ли где-то найти книгу или специалиста психолога/психотерапевта, который поможет в такой ситуации или такое вне их компетенции?

А оставшиеся 1/3 тоже на 2/3 фентези, только в скай-фай сеттинге...

Она учитывает, о чем шла речь раньше? Ну, например, если я спрошу что-то, а потом после ответа задам односложный вопрос вроде: "Приведи еще пример" или вопрос с ссылкой на обсуждаемый ранее предмет: "Эйнштейн так не думал, на чем основывалась его точка зрения?" Она в таких случаях генерирует ответы в тему, поддерживает целостность диалога?

Даже по такому подробному уроку сложно. Запомнить это все, чтобы потом без подглядывания делать - вообще не понимаю как. Что-же дальше будет)) Но очень интересно!

Да не будет никакого интернета, браузеров, посковиков. Будет только одно кроссплатформенное правительственное приложение, через него будем покупать и смотреть весь контент

Ребят, а может кто подсказать, где на русском почитать про общие рекомендации в случае домашнего лечения короны? В гугле по поиску все одно и то же про неспецифические меры при ОРВИ, но уже столько времени прошло после появления вируса, наверняка что-то еще можно посоветовать? Нашел пока, что нельзя лежать долго, потому что риск тромбоза увеличивается, про витамины-микроэлементы все...

Information

Rating
10,167-th
Location
Россия
Registered
Activity