Pull to refresh

Comments 11

Независимо от того, какую выгоду несет АИ и насколько низка вероятность p(doom), разработки АИ необходимо прекратить и запретить. Обоснование простое. При запрете АИ проигрыш небольшой и конечный (отсутствие ботов и картинкогенераторов). Выигрыш - мы сохраняем свое существование. Выигрыш при дальнейшем развитии АИ - небольшой и конечный (те самые картинкогенераторы). Проигрыш же бесконечно велик - исчезновение человечества.

а чем это отличается от атомной бомбы? в случае появления управляемого ИИ "у них" проиграет не все человечество, а только "мы", а в случае появления управляемого ИИ у "нас"- проиграет не все человечество, а только "они". Следовательно, "они" не могут отказаться от возможности получить себе управляемый ИИ, и вынуждены развивать ИИ вообще ( и может быть - не управляемый). И мы тоже вынуждены развивать управляемый ИИ, который внезапно может выйти из под контроля. Ну так и атомную бомбу террористы могут стытрить- и ниче, риск велик, но боеголовок уже десятки тысяч по всему миру запасено. Ваша стратегия (а давайте не будем строить "Звезды смерти") хороша, когда все игроки честные. Но все игроки не честные, а потому строят все, кто может и не может.

Несколько сотен боеголовок потеряно даже)

"Джина" можно остановить только ценой входа в технологию, как с атомной бомбой - порог входа достаточно высок. Обязательно найдется кто-нибудь, кто не смотря на все запреты будет разрабатывать технологию дальше, не обязательно из-за возможной прибыли, но с верой в самые радужные перспективы.

Независимо от того, какую выгоду несет Интернет и насколько низка вероятность Y2K, разработки Интернета необходимо прекратить и запретить. Обоснование простое. При запрете Интернета проигрыш небольшой и конечный (отсутствие ботов и видео с котиками). Выигрыш - мы сохраняем свой здравый смысл. Выигрыш при дальнейшем развитии Интернета - небольшой и конечный (те самые видео с котиками). Проигрыш же бесконечно велик - сессионные игры.

Человечеству в любом случае уже конец в том биологическом виде, в котором существует сегодня.
Свое дело сделает генная инженерия, нейроинтерфейсы, экзоскелеты, встроенные в тело различные вспомогательные модули ( от простых датчиков уровня сахара в крови, до модулей, улучшающих различные процессы). AGI лишь сделает этот переход более быстрыми и эффективным.

Конечно, быть может, какие-то дикари останутся жить без таких изменений.
Подобно тому, как сегодня какие-то племена живут в джунглях, с луками и стрелами.
Так и эти "новые дикари" будут жить - пусть даже и в городах, с машинами и даже с самолетами.
Но в каком-то своем, остановившемся навсегда, времени.

Коммент рисует столь яркую и живую картину, что я её узнал, я читал об этом.

Ruiz Aw, tell us. Just what were you doing on Dilvermoon?

Никогда не был сторонником трансгуманизма, но наблюдая насколько же наше тело плохо приспособлено к современной жизни начинаешь понимать, что увы, этот путь неизбежен. Отключив естественный отбор в лице детской смертности мы убили эволюцию и теперь деградируем. Все виды заболеваний "молодеют", аллергиков всё больше, а расходы на медицину растут по экспоненте. Скоро докатимся до того что без генной инженерии просто не выжить.

все бы вам запретить) по-моему вы слишком далеко планируете и попахивает думеризмом. Уже сейчас AI экономит нам кучу времени и позволяет делать, то что раньше человек без хард-скиллов не мог делать. Есть группа ученых, кто вообще считает что создать полноценный AGI невозможно, так что рановато бить тревогу

Странная у Вас логика. Если развитие ИИ застрянет на уровне картинко- и бредогенераторов - то от него ни пользы ни вреда особого не будет. А вот если он станет достаточно совершенным чтобы хотя бы потенциально нести угрозу человечеству - то он также будет способен сильно продвинуть науку вперёд. Кроме того, у нас не Империум Человечества, а куча разных стран. Если одни запретят - то другие всё равно продолжат. При чём заниматься этим будут скорее всего военные подрядчики, так что такой ИИ будет изначально заточен под войну.

Sign up to leave a comment.