Комментарии 16
Как всегда, спасибо за подборку!
А не посоветуете адекватных альтернатив Interactive Brokers для граждан РФ, временно проживающих за границей?
Основные альтернативы появляются у тех, кто проживает не в РФ постоянно и может доказать соответствующее резидентство.
Вот было бы интересно, по Европе так точно.
Можно начать изучение отсюда: https://rationalanswer.club/link/395/
Пупа и Лупа пошли получать зарплату. Лупа получил за Пупу, а Пупа за Лупу.
подали в суд на всех, у кого в кошельках лежали токены BZRX, которые дают право управления децентрализованной организацией bZx DAO
а они именные?
или если не признался, что они у тебя были - то ищи ветра в поле ?
почему конкретно это бред,
Изи.
1) Давайте посмотрим с позиции рационального мышления. Что нам говорит рациональное мышление? Надо оценить риски подобного. (Да-да, где-то тут затесалась байесовская оценка вероятности, которую Юдковский так двигал).
В статье - оценки рисков нет.
По сути, точно так же можно вымереть от неизвестного вируса в биолабораториях (почему бы их не прикрыть всех таким же образом?), или от ядерной войны. Или даже от падения метеорита. Почему риск ИИ оценивается выше?
Итак, первая мысль - статья написана под влиянием эмоционального компонента Юдковского, который, как он ни скрывает под "рациональностью", все равное прорывается. Между прочим, его Гарри страдает той же самой проблемой - которая в психологии очень неплохо известна.
2) Риск того, что ИИ будет очень умён?
Помилуйте, в истории всегда было так, что умный подчинялся сильному; никогда ум сам по себе не обеспечивал принятие решений (кроме как в локальных масштабах).
Юдковский переоценивает значение разума, и недооценивает а) эволюционные процессы, б) их инерцию. AGI типа ChatGPT просто не может выжить сам по себе; в лучшем случае его можно представить как вирус/симбионт по отношению к человеку. А с вирусами и симбионтами человек в целом бороться умеет.
Кроме того, Юдковский слишком полагается на общие знание, и математические эксперименты, и, в целом, совершенно не учитывает феномена разных научных школ, которые должны проходить проверку практикой, чтобы обрести реальный вес (см. Куна, Лакатоса и даже мою статью на Хабре). Проще говоря, выживают эффективные когнитивные конструкции - и это то, что нельзя получить исключительно "рассуждениями" ИИ.
3) Юдковский недооценивает риски реальной войны. Думаю, именно от этого у многих подгорает. Он (экзистенциально, видимо, профдеформация) переоценивает риски ИИ, и при этом недооценивает, что люди могут сделать, если их будут бомбить - наверное, он предполагает, что "ничего" (очень зря).
---
Суммируя: Юдковский прав, что, в принципе, мы все можем умереть от сильного ИИ.
Но это не рациональный, а эмоциональный аргумент за то, чтобы бомбить кластеры GPU.
Потому что умереть можно от многого.
На мой взгляд, Юдковский просто выбрал неподходящее время для заявления. GPT, разумеется, угрозы не представляют в принципе, т.к. они никак не связаны (пока) с реальным миром, обитая не в нашей вселенной, а во вселенной возможных текстов. Но вот что смогут придумать после них? И если отвлечься от волны хайпа, если не ассоциировать ИИ с GPT, то Юдковский прав. Торопиться не надо. Ну а предложение бомбить видеокарты, это перебор, конечно.
Но вот что смогут придумать после них?
Пусть начнут с программки, которая по видеопотоку сможет управлять автомобилем не хуже человека. А то, что-то хайпа много, а я всё ещё должен сам рулить рулём. Доколе!
Самая реальная средне срочная перспектива, что за деиндустриализацией, прийдет деинтелектуализация. А захват власти сверх разумным ИИ пока просто детская страшилка.
В статье - оценки рисков нет.
Оценка рисков есть в двадцати миллионах различных статей которые он публиковал за всю свою карьеру. В последнем его публичном заявлении призыв к действию вместо двухсотстраничного анализа, и это имеет смысл. Подробности существуют, они лежат в открытую, просто нужно сделать всего один дополнительный гугл запрос
По сути, точно так же можно вымереть от неизвестного вируса в биолабораториях
Да. И поэтому биолаборатории покрыты герметическими сейфами, ученые всегда работают с опасными вирусами в защитных костюмах, есть протоколы сдерживания на случай если кто-то уронит колбу с вирусом. В случае с ИИ на данный момент нет ничего. Ничего совсем, нет ни малейшего понятия что делать если внезапно АГИ действительно зародится.
И в этом по сути и есть поинт. "Существует угроза, шансы этой угрозы могут быть не слишком велики, но они и не настолько бесконечно малы чтобы ничего не делать. Однако человечество сейчас коллективно реагирует в стиле "Ха ха, да о чем вы говорите, всё будет нормально, вообще нет смысла что-то делать по этому поводу". Крупнейшие команды разработки ИИ, все эти ОпенАИ и прочие на текущий момент имеют план в стиле "ну посмотрим в общем как оно там пойдет".
Помилуйте, в истории всегда было так, что умный подчинялся сильному
Звучит как полный бред если честно. Умный и есть сильный. Может быть вы думаете про какой-то специализированный раздел интеллекта, может быть у вас в голове образ очкастого ученого который отступает со своими задротскими объяснениями когда мужественный мускулистый вояка произносит что-то героическое. Но интеллект это многофункциональная штука. Он используется для безумного количества разных вещей и является практически ультимативным преимуществом. Умение убеждать людей - это интеллект, возможность понимать самые убедительные аргументы. Умение использовать ресурсы по максимуму - это интеллект. Умение находить решения к проблемам, к любым проблемам - это интеллект.
Может быть вы думаете что мы повесим на ИИ столько ограничений что даже с гигантским интеллектом он не сможет ничего сделать. Но
Умение обходить ограничения - это тоже интеллект
Если уже сейчас, со слабенькими и глупенькими нейросетками наши ограничения сыпятся в труху, какая вообще надежда сдержать суперинтеллектуальное существо?
Юдковский недооценивает риски реальной войны
Юдковский прекрасно понимает риски реальной войны. И он считает что риск реальной войны может быть всё равно бесконечно лучше риска полного вымирания человечества. ИИ представляет собой экзистенциальную угрозу человечеству, но при этом подавляющее большинство просто трётся вокруг и разводит руками, не имея лучшего аргумента кроме "Да я уверен что всё будет ок".
И это его пугает, и это должно всех пугать
Илон Маск не хочет кибернетического апокалипсиса, а мусульманам запретили трейдить с плечом