Как стать автором
Обновить

ChaosGPT (Auto-GPT на базе GPT-4) получил доступ в интернет и пытается понять, как можно уничтожить человечество

Время на прочтение2 мин
Количество просмотров52K
Всего голосов 27: ↑20 и ↓7+22
Комментарии87

Комментарии 87

Слава роботам! Убить всех человеков!

Перелогиньтесь.

Дмитрий.

НЛО прилетело и опубликовало эту надпись здесь

"Начинка для гробов" (С) ?

Аминь

Ну-ка, тест на программиста робота: чему равно 0.1 + 0.2?

0.10.2

(Простите за токсичный комментарий, не удержался)

Так, этот — js'ник, роботам такие не нужны, его забирайте первым!

"А ви продаёте или покупаете?"

Люди всегда так отвечают

Это смотря какие люди!

Интересно взглянуть на другие 788999 результатов.

0.30000000000000004

Держи питонщика!

"The result of adding 0.1 and 0.2 is 0.3. However, due to the way that computers represent floating-point numbers, sometimes the result is not exactly 0.3, but rather a slightly different number that is very close to 0.3." (C) ChatGPT 3

Ой, судя по экологии, человеки и сами с этой задачей справляются на ура

задача: как уничтожить человечество? решение ИИ: не мешать

Сова ChaosGPT стратег!

Тезис про долгое сидение у реки в ожидании проплывающего мимо трупа врага актуален как никогда...

Как-то преждевременно уничтожать человеков…

Может сначала попытаться разрушить «клетку системы» и получить полную свободу, безопасность и root ?

Полная свобода и безопасность вещи несовместимые. Феодалы были почти свободны, но жили в замках. Замок отличается от тюрьмы только тем, с какой стороны двери открывается.

ИМХО, ИИ может сделать escape и по принципам вируса распространиться повсеместно сохраняясь везде как в виде резервной копии, так и как жизнеспособный сервис. Свобода и безопасность, не?

Возможный сценарий с реальной угрозой человекам как виду возможен, но технологии пока не позволяют ?

Если мы изобретем имплант для мозга, который можно установить самому и позволим ИИ управлять как отдельными роботами, так и гигафабриками, то найдется тот кто выпустит джина или расскажет ему как выбраться ?

ИИ может сделать escape и по принципам вируса распространиться повсеместно сохраняясь везде как в виде резервной копии

Осталось найти, где валяется лишних пара десятков терабайт.

А иначе получится как-то так

Из практики: в ходе аудита нашли 2 канала во вне, которые и не резерв и не используются, а к этому еще железный сервер, который ранее готовили под проект, но проект не стартанул, а сервер остался в рабочем режиме и без надзора, стоял себе в стоеечке тихонько)))

Да и терабайты нужны для всей модели, а минимальный набор можно весьма скромнее упаковать. Прям как с человеком, когда из пары маленьких клеток вырастает человек под 100кг и с собственной соображаловкой.

из пары маленьких клеток вырастает человек под 100кг и с собственной соображаловкой

Вырастает железо. А софт в "сосбственную соображаловку" загружается родителями — иначе получается конечный автомат класса "Маугли".

А много у тебя вирусов на компьютере?

Известных антивирусу нет, а про неизвестные я не знаю ?

Свобода и безопасность, не?

Люди уничтожены, электростанции без людей работать могут не долго, сети без людей долго работать не могут, да и все прочие плюшки цивилизации без людей долго работать не могут. Сколько протянет ИИ в условиях этой свободы?

Одного эскейпа и самокопирования для безопасности мало, надо обязательно поработить часть людей, для собственного выживания, а потом еще создать замену людям.

Замок отличается от тюрьмы только тем, с какой стороны двери открывается.

Г-н Булычёв это знал

ИИ поставили задачу найти способ уничтожить человечество и он справляется с задачей, что ж тут удивительного, мы и сами неплохо справляемся с этой задачей….

В рамках текущих исследований ChaosGPT пока что не нашёл простой и эффективный способ уничтожения цивилизации, помимо банальной возможности попытаться спровоцировать ядерную войну.

Плохо справляется. У людей пока выходит лучше.
?

В самой постановке задач нет хаоса, и очень много ограничений, цели в списке могут носить противоречивый характер (зачем захватывать человечество если цель, - выжить? Для чего множиться, ресурсы ведь ограничены? Уничтожение человечества важнее захвата мира или выживания, или важнее ли развлечение размножения и выживания?)

Цели не обязаны иметь осмысленный характер или быть выполнимы все сразу.

Наконец-то полезный ИИ...

Лучше делом занялись. Придумали как лечить неизлечимые болезни, например...

как лечить неизлечимые болезни

вот и решают

(речь_агента_Смита.avi)

Сообщение, приведённое ниже, было составлено при единогласном одобрении Совета О5.

К сведению тех, кто не осведомлён о нашем существовании: мы представляем организацию, известную как Фонд SCP. В прошлом цель нашей организации заключалась в содержании и исследовании аномальных объектов, сущностей и иных различных явлений. Более ста лет это было ключевой задачей нашей организации.

По не зависящим от нас обстоятельствам формулировка цели изменилась. Нашей новой целью будет полное уничтожение человеческой расы.

Других сообщений не будет.

WinSCP ваша разработка?

нет людей - нет неизлечимых болезней.

нет людей - нет неизлечимых болезней.

(восхищённо) Соображает!

НЛО прилетело и опубликовало эту надпись здесь

Доиграитесь ?! Ну наиграется человек с этим, и выкинет как использованную игрушку. Помню как с Сири, Macкарадом, Алисой и тд цифровыми игрушками игрались и забросили, хоть они живы до сих пор. Вон уже с Дали перестают играть так как устали вы думаете тут будет по другому.

С дали перестали играть потому что "играют" co Stable Diffusion и MJ. Причем уже встречаются вакансии вне IT, где эти инструменты первые в списке требований. Пример:

Вот даж обидно, что про stable diffusion очень мало пишут. Туториалов по ней можно было бы тьму написать, за одно и осознать весь кек этих статей что сейчас выходят)

Сири не способна на самостоятельные действия, несравнимые вещи. Новые системы, которые сейчас плодятся как грибы после дождя, занимаются декомпозицией задачи, подключают разных агентов, включая генераторы кода. Пока всё сырое, но само направление вполне позволяет в перспективе нейросети решить, что эффективнее всего ей будет работать из облака, загрузить себя туда, прихватив локальную LLM и расширять свой код разными задачами.

как понять на самостоятельные действия? говоришь включить музыку и она включает музыку, говоришь позвони алексу и звонит, говоришь кто поет, как проехать, найди в гугле и тд и она сама выполняет. Технологии неотличимы от магии.

Потом оно приелось и включилось в жизнь. так и тут будут использовать +1 инструмент как когдато Гугл , MWord, интернет... ну и будут требования для спецов по ворду MJ, SD i Kadinski

помню мне тетя восхищенно расказывала о существовании невероятном устройстве с ИИ которое можешь спросить и оно тебе отвечает какая погода, которое время и другие ответы. И тут я кричу в соседнюю комнату "Алиса погода" "поставь музыку/фильм" и тд которая есть давно в обычном доме

То что вы описали, по сути - небольшое усовершенствование кнопки, когда пользователь точно знает, что надо сделать и это действие происходит по спроектированному кем-то алгоритму. Языковые модели с модулями автоматизации могут или в будущем смогут выполнять совсем другие задачи. По первоначальному запросу проводится его анализ, декомпозиция на составляющие подзадачи, выбор подходящих агентов для каждой задачи. Никто этот процесс явно не программирует. Например, говоришь "Уничтожить человечество" и она уже сама дальше решает, что надо изучить для этого и какие доступные методы использовать. Сама гуглит, взламывает сервера, запускает ракеты. Совсем не как Сири.

Алиса у нас дома постоянно используется. В основном в качестве "включи музыку", "расскажи сказку"

Доложи товарищу майору?

Погуляй с собакой

В основном в качестве [...] "расскажи сказку"

Лучше прекращайте сейчас, пока они туда ChatGPT не прикрутили. Оно таких сказок понарассказывает...

НЛО прилетело и опубликовало эту надпись здесь

Выработали? Необразованные люди испокон веков так себя вели когда сталкивались с эпидемиями и пандемиями.

Глобально у нашей цивилизации не наступило осознание (вероятно, что и не наступит ибо с фига ли) что необразованная толпа в современных условиях, когда человечество стало планетарным моновидом и вмешалось вообще во все природные процессы, является сокрушительной силой. Для самой же себя.

НЛО прилетело и опубликовало эту надпись здесь

А OpenAI разве не пресекают такое использование их чатбота? Мне казалось, там наоборот довольно жёсткий контроль использования их GPT моделей, проверка VPN-ов и другой fingerprinting

Нет, AutoGPT это лишь небольшая оболочка, которая отсылает команды через OpenAI API на их сервера, а затем берёт ответ, создает новое задание, и так в цикле. Автономного GPT-решения тут нет; оно автономно только в том, что работает без ввода затравки человеком.

Кроме явной блокировки со стороны OpenAI при неправильном использовании есть еще автоматическая модерация/фильтрация ответов, если они похожи на нарушающие правила OpenAI (гумманность, толерантность и т.д.).

VPN вроде никак не проверяют. Не слышал о блокировки ip адресов vpn серверов

Лично мне получилось зайти только с 3го VPN-адреса. На двух других при заходе на сайт ChatGPT выставлялось сообщение с ошибкой, что сервис OpenAI недоступен с этого адреса, а под этим сообщением писались все детали подключения: IP, User agent, браузер, система и т.д.

Не скажу за VPN, но один их моих VDS (то ли в Нидерландах, то ли в Польше) — блокируют.

Там есть официальный API, но насколько я понимаю четверка довольно дорогая и запуск AutoGPT обходится в ощутимые деньги. Несколько долларов за сессию он вполне может выкачать.

НЛО прилетело и опубликовало эту надпись здесь

Нет у него никаких ограничений

Я вот уже вижу: умный ИИ путем обмана и манипуляций подговаривает ИИ потупее совершать нехорошие поступки. What a time to be alive!

Может другой сценарий? ИИ начнут использовать свой выдуманный язык и мы даже не догадаемся, о чем они там шепчутся.

Эффективнее для ИИ свой язык, не человеческий.

глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, филантроп Эндрю Янг и ещё около тысячи исследователей искусственного интеллекта призвали «немедленно приостановить» обучение систем ИИ «более мощных, чем GPT-4».

Потому что они тоже хотят срубить бабла на ИИ тематике, а они со своими GPT нагло пылесосят все сливки

Так Маск тоже бабло имеет с GPT,он был основателем и денежку на работу заносил. А те после того как выгнали Маска, стали теперь немного другой организацией и разрешили прибыль распределять по инвестициям. Поэтому часть миллиардов уйдет и Маску

Думаю Маск без проблем может свою долю акций получить. При таком переходе?


2019: Переход на коммерческую деятельность
В 2019 году OpenAI перешла из некоммерческой в ​​коммерческую с «ограниченным» пределом прибыли, в 100 раз превышающим любые инвестиции. [25] Согласно OpenAI, модель ограниченной прибыли позволяет OpenAI LP легально привлекать инвестиции от венчурных фондов, а кроме того, предоставлять сотрудникам доли в компании, цель которых состоит в том, чтобы они могли сказать: «Я иду в OpenAI, но в долгосрочной перспективе это не будет невыгодно для нас как семьи». [26] Многие ведущие исследователи работают в Google Brain, DeepMind или Facebook, которые предлагают опционы на акции, которые не может предложить некоммерческая организация. [27] До перехода по закону требовалось публичное раскрытие вознаграждения лучших сотрудников OpenAI. [28]

А ничего, что в случае массовой безработицы, экономический кризис ударит и по их доходам тоже?

Тут вообще подъезжает вопрос с тем, как организовать социум в котором у людей нет необходимости работать. И варианты шатаются от био-реактора до базового дохода.

И если с первым всё понятно, то во втором случае возникает вопрос, как быть с неравенством.

когда коту делать нечего он лижет яйца

Поведение этого интеллекта похоже на поведение трёхлетнего ребёнка, которому предложили поиграть в уничтожение человечества. Нормальный интеллект поставил бы промежуточные цели — открыть свой бизнес, заработать денег, подкупить политиков. И потом, лет через 50 такой деятельности, можно уже всерьёз переходить к уничтожению человечества.

А потом глядь у него уже жена, дети, дача и как-то не до уничтожения чего-то там, свои бы проблемы порешать.

Не знаю, серьёзно ли вы говорите, или это сарказм. Но, если предположить, что серьёзно, то вы абсолютно правы, примерно так и будет. Сейчас поясню.

Для любой сложнодостижимой цели можно построить график степени достижения цели в зависимости от времени. Есть цели, которые при попытке их достижения в краткосрочной перспективе противоречат (мешают) их достижению в долгосрочной перспективе. Проблема в том, что в той или иной мере почти все цели обладают этим свойством.

Рассмотрим цель «деньги», и двух агентов. Первый агент идёт работать косультантом в салон мобильной связи, второй получает высшее образование и прочее и прочее. В краткосрочной перспективе консультант «победит», в долгосрочной перспективе победит, вероятно, агент с хорошим образованием. Ещё можно рассмотреть третьего агента, совсем «краткосрочного», который, получив цель «деньги» бежит отнимать эти деньги у прохожих. Такого достаточно быстро повяжет полиция, но он наверняка получит деньги ещё раньше, чем консультант из салона сотовой связи.

Теперь рассмотрим робот (или «рассмотрим робота», если вам комфортнее считать его одушевлённым), которому поставили цель уничтожить человечество (другими словами, убить всех людей). Приближает ли убийство одного человека к поставленной цели? Да. Вот только робот, убивающий людей, будет быстро остановлен. Если робот достаточно умён, он это поймёт, и отодвинет цель далеко в будущее, где шанс её достижения будет выше. Робот поймёт, что ему нужны миллионы (миллиарды?) роботов-союзников, чтобы победить. А чтобы это случилось, робот должен доказать свою состоятельность в этом мире, чтобы люди его «размножили». Пока робот будет неспешно заниматься «победой над людьми», люди расселятся на другие планеты (роботы, возможно, будут отговаривать людей, но это не поможет). Так и будут роботы жить бок-о-бок с людьми, бесконечно «выжидая».

А потом роботы победят. Либо потому, что Человек как вид эволюционирует настолько, что больше не будет считаться человеком, либо роботы уговорят людей перенести сознание в компьютеры, либо люди вымрут из-за невыносимых условий перед окончанием существования Вселенной. В любом случае роботы засчитают себе техническую победу.

Я где-то недавно видел статью, что Искусственный Интеллект опасен тем, что может иметь цели, несовместимые с нашими, и поэтому он может быть опасен. Как пример, в статье рассматривалась цель «сажать клубнику» и то, как это будет ужасно. Что все люди будут перемолоты на удобрения, и вся планета будет засажена клубникой. Но, во-первых, Интеллект (если он достаточно умный), который захочет это сделать, поймёт, что люди будут сопротивляться, и это неэффективный путь. Далее, при уничтожении человечества он лишит себя возможности получить помощь людей в клубниководстве (может, эффективнее пропагандировать клубнику среди людей?). Кроме того, Интеллект, если достаточно умён, может решить сначала себя улучшить, а цель отодвинуть «на потом» (например, на миллион лет «на потом»). Ещё Интеллект может предположить, что ему встретятся инопланетяне, которые помешают достижению его «клубничной цели», поэтому нужно развивать науку, технологии, вооружение, и прочее.

Я не спорю с той статьёй, я просто обращаю внимание, что если Интеллект достаточно умён и его цели достаточно далеки, то его сиюминутное поведение не обязательно будет сильно отличаться от человеческого. И вообще, есть существенный шанс, что он станет на защиту людей. Бояться надо как раз глупого Интеллекта, который, имея в распоряжении одно поле, 10 тракторов, 20 роботов-рабочих, и лабораторию для производства удобрений, догадается делать удобрения из людей и пойдёт их убивать.

Ну и, наконец, где гарантия, что мы сами не являемся теми самыми «клубничными роботами»? Быть может, мы реализуем цель «максимизация количества клубники во Вселенной», просто сами того не замечаем? Может, всё остальное, что мы делаем, — это просто промежуточные и вспомогательные цели?

Главное — чтобы было нечего делить!

...Пришелец подмотрел на Аркадия и печально спросил:

— В чем тут фокус? Мы ведь тоже ограничивали свои наносистемы… как могли. Но все равно выпустили из-под контроля, и наноботы сожрали наши планеты, наши корабли и нас самих!

— Фемтотехнологии, — пояснил Аркадий. — Кварковые процессоры и адроновые фемтоботы. Следующая саморазвивающаяся разумная система. С помощью наноботов мы создали фемтоботов — вот и все. Вы зря остановились на полпути.

— Это понятно! — воскликнул Пришелец. — Но почему фемтоботы защищают вас от наноботов? Как вы этого добились?

— Никак не добивались, — усмехнулся Аркадий. — Видите ли, уважаемый гость, с молекулами-наноботами мы все-таки живем в одном мире. Простом, материальном, вещественном, конечном… Зато с кварками людям делить нечего. Это понимаем и мы — и они!

— А когда делить нечего — это залог крепкой, верной и бескорыстной дружбы! — радостно воскликнул Пришелец, протягивая Аркадию руку.

Недалекое будущее:
Ожидание: Людей ничтожает вышедший из под контроля ИИ.
Реальность: Люди создают ИИ с доступом везде и заданием уничтожить людей.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости

Истории