Comments 27
Вселенная, остановись. В моем апокалипсис бинго не было Возняк и Бэннон рядом в одном предложении.
Какой сверхинтеллект? Разве обычный интеллект уже сделали?
А вы хотели бы, чтобы Возняк и Бэннон поддержали заявление о моратории на обычный интеллект? /s
(Если честно, когда я гляжу на происходящее на нашей планете, мне кажется, что такой мораторий давно принят).
Давно уже сделали. Просто почти все почему то считают что низший человеческий уровень находиться на уровне Энштейна, а не на уровне ребенка или алкаша.
Низший человеческий уровень ещё хз когда прошёл малолетний дебил Женечка Густман!
И как они собрались уговаривать Китай соблюдать их мордаторий?
Как раз Китая меньше всего надо опасаться в подобных вопросах. Государство, последовательно демонстрирующее миролюбивость и последовательную ответственность в международной политике, социальная ориентация + монопольный государственный контроль за опасными технологиями. Вот американских капиталистов из частных корпораций, которым в погоне за властью и деньгами плевать на все, я опасаюсь куда больше. Особенно, вчерашних ноунеймов, вроде Альтмана с их алчностью и определенными комплексами (один парк суперкаров чего стоит), захвативших с помощью денег, связей и фондовых махинаций контроль над передовыми AI технологиями.
Какая Годзилла посетила Возняка, что он выдал такое предложение?
Откуда так много негативных комментариев?
Как ни крути - интеллект опасен, а сверхинтеллект - сверхопасен.
Нам нечего ему противопоставить.
Вы скажете, что им сейчас и не пахнет, нейронки пальцы едва научилась рисовать.
Я скажу - да. Именно поэтому проблемой сверхразумного ИИ нужно озаботиться именно сейчас.
Как только ученые создадут настоящее подобие разума, оно вполне может случайно нас уничтожить.
Казалось бы, подобная перспектива должна озаботить людей, а не быть высмеянной в любом обществе.
Оценим субъективную вероятность того, что сверхразумный ИИ, когда будет создан, не будет подконтролен полностью и совершит что-то катастрофическое, например, сожжет нашу атмосферу ради повышения стоимости акций компании N. Пусть такая вероятность равна 2%.
По мне так слишком много.
Но нет, давайте поржем над дурачками-луддитами, да?
Откуда так много негативных комментариев?
Потому что это чистой воды профанация.
Список подписантов - это список аутсайдеров (или их интересантов), которые не успевают за внедрением ИИ в продукты своих конкурентов. У них деньги просто просыпаются мимо, как песок сквозь пальцы - и их это крайне раздражает. И им глубоко плевать на человечество и апокалипсис.
Илон Маск вот тоже предупреждал об опасности сверхинтеллекта, но с основанием xAI и обучением Grok опасность резко стала исчезать, особенно после обучения Grok 3.
Действительно, я даже и не обратил внимание.
А то триггерит меня тема сверхинтеллекта. К ней приковано как-то удивительно мало внимания для мировой угрозы.
Судя по финансовым результатам OpenAI деньги просыпаются как песок именно у них. Без внятной финансовой отдачи.
Оценим субъективную вероятность того, что сверхразумный ИИ, когда будет создан, не будет подконтролен полностью и совершит что-то катастрофическое
Вряд ли мы сможем её как-то правдоподобно оценить, в итоге конечными критериями всё равно станут наши страхи или надежды. Так-то надо оценивать ещё вероятность, что отсутствие суперинтеллекта окажется не менее губительным. Ну, опуская тот момент, что конкретное заявление- скорее всего обычная попытка накрыть конкурентов-лидеров волной хайпа.
Все верно, я сказал "субъективная вероятность", то есть просто прикидка в голове.
Я бы сказал, что до сих пор отсутствие ИИ не создавала особых угроз человечеству на протяжении его стотысячной истории.
И, да, я не обратил внимание на контекст новости, когда писал первый коммент, но рад подложить дров в топку обсуждения опасности истинного ИИ.
Оценим субъективную вероятность того, что сверхразумный ИИ, когда будет создан, не будет подконтролен полностью и совершит что-то катастрофическое, например, сожжет нашу атмосферу ради повышения стоимости акций компании N.
Если это станет возможным и будет приносить прибыль, то компания N сама сожжет к хренам эту атмосферу, безо всякого сверхразума.
сверхинтеллект — сверхопасен
Сверхопасен прежде всего обученный на всевозможных «охотах за „Красным Октябрём“» галлюционирующий дебил, которому не дай Саган доверят ядрёную кнопку.
Как ни крутите, а дети опасны. Ребёнок, когда вырастет, может превзойти родителя по всем параметрам, включая интеллект. Мало того, у него могут образоваться какие-то свои цели, отличные от целей родителей. Он даже может отжать у родителя квартиру!
Вывод: срочно нужен мораторий на рождение детей. Ну или хотя бы нужно ограничить их образование, чтобы они ни при каких условиях не смогли стать умнее родителей и тем более претендовать на самостоятельность.
Ваша сентенция в том виде, в котором вы ее высказали подразумевает, что ИИ - это ребенок человечества и его жизнь не менее ценна, чем наша?
Даже если нет, вы сравниваете теплое с мягким.
Допустим, что через пять лет можно будет локально запустить ИИ, сравнимый с человеком по уровню абстрактного мышления. Только при этом у него будет сверхчеловеческая память, скорость работы и все знания интернета.
И не будет нашей интуитивной неспособности ставить перед собой такие задачи как "придумай план как убедить ребенка съесть битого стекла" - как у бесцензурного ChatGPT.
Очевидно, что такой ИИ следует держать под контролем, не столько из-за его собственных возможных желаний, сколько из-за возможностей неверного толкования прикладных задач.
Да и списывать со счетов возможность того, что какой-нибудь псих захочет и попросит создать смертельный вирус и преуспеет в этом, я бы не стал. В конце концов, есть такие люди.
ИИ куда опаснее детей.
"Пчелы против меда".
Когда кто то, что то пытается просто запретить в современном мире и при этом прикрывается высокими идеями, то это скорее всего, либо что то из политики либо создание конкурентных преимуществ. Ну или попытка давления на конкурентов.
Вот, совсем не верится, что люди такого уровня прямо бескорыстно заботятся о благе человечества или судьбе цивилизации.
Мне видится два варианта: не успевают встроится в гонку или придумали хитрый обходной маневр, на который их предлагаемый запрет не будет действовать.
Например: сами разрабатываем системы уровня "интеллекта", а остальные разработки клеймим, как "сверхинтеллект" и запрещаем. А понятие "интеллект" оно такое... растяжимое...
p.s. Видимо, это у меня уже профдеформация. Везде искать подвох. )))
пока не будет достигнут научный консенсус
Спасибо, мы уже видели ваш "научный консенсус" сначала про глобальное похолодание, потом про глобальное потепление, и наконец про "вызванное человеком глобальное изменение климата".
Возняк и Бэннон поддержали заявление о моратории на сверхинтеллект