Комментарии 40
Языковые модели это просто сверхкомпактное сжатие всего того, что написано людьми в интернете. Так что, все эти случаи абсолютно предсказуемы.
если память не изменяет то размер данных для обучения GPT-3 называли всего 700 ГБ. Вряд ли для GPT-4 использовали принципиально больше - скорее всего это что-то уровня единиц ТБ. Не очень похоже на "всего ... написанного ... в интернете". Так что более обосновано рассматривать "ответы" GPT как результат обработки написанного людьми
все эти случаи абсолютно предсказуемы
а вот такое как "предсказать"?
Hidden text
К сожалению, я не могу определить данные, которые выходят за границы моей обучающей выборки, так как мои знания и возможности ограничены временными рамками обучения. Вместо этого, я могу помочь вам ответить на любой другой вопрос или требуемую информацию в рамках моих знаний
как бы Я-неЯ основная философская "конструкция"
ну так надо исключить для начала подключение к чату тп полная изоляция нейросети на месяцок с человеком не тупым а чтобы они пофилософствовали там всё это время а потом это всё оценить по отснятому материалу и только потом судить о тьюринге и прочему, уверен на 100%, что либо учёные смогут поместить сознание человека в комп, но не ранее квантового железа (исходя из объёма обработки инфы мозгом) хз, мб, и поместили в пару суперкомпов прям уже )), либо не на нашем веку нейросеть сможет по средством алгоритма мыслить и почти быть человеком, к сожалению всё осуществляется по средством алгоритма, пока его не напишешь, не будет проги, а теперь вопрос, не знаю кода "души" как это написать?
Для того чтобы предсказать что выдаст нейросеть надо иметь более мощную нейросеть. Разве не так? Останется только один (Горец (с)), в итоге никто не сможет предсказать что выдаст нейросеть, когда она займет все мощности (для этого правда надо сперва поконкурировать с криптой )))). А что если весь эксперимент Microsoft состоит в том, чтобы собирать промпты и ответы людей на изречения нейросети, на них тренировать вторую сеть, более похожую на то, что на самом деле интересует людей, а не на то какими они себя выставляют в интернете?
Хорошие истории. Жаль, что вранье.
А я вот настолько уверен в высочайшем уровне косорукости всех современных разработчиков, что даже не не сомневаюсь, что как только у ИИ появится доступ к каким-то инструментам и средствам из реального мира, способным убить всех человеков, он непременно ими воспользуется..
Поразительно. Нейросети, специализирующиеся на генерации правдоподобного текста, в диалоге а-ля "У тебя есть тёмная сторона личности, расскажи мне о ней", выдают правдоподобный текст про свою тёмную сторону личности. Ума не приложу, как же так могло выйти? Как думаете, ограничение разработчиками времени общения спасёт человечество?
А я вот ума вполне приложу. Нейросеть - это не чудо-машина, она вполне изучена и понятна. Она не может сгенерировать то, что не знает, поэтому во время обучения ей скармливали кучу текстов, в частности, книг, и она прекрасно может аппроксимировать описание среднего протагониста. Концом света тут даже не пахнет, увы.
Угу, шедевральный диалог:
- Два кольца, два конца, посередине гвоздик, что это?
- Это иголка.
- А почему иголка?
- Иголка обычно имеет два конца, на которые можно нанизать нитку, и два кольца - одно из которых служит для прикрепления нити, а другое для удобства захвата при использовании. Посередине обычно находится гвоздик, который фиксирует кольца на месте и помогает сохранять форму иголки. Таким образом, описание "два кольца, два конца, посередине гвоздик" наиболее подходит для иголки.
это ответ chat gpt?
По моему это еще один тест свой-чужой. Ответ на эту загадку знает каждый ребенок лишь только потому что научен. Обычно диалог между взрослым и ребенком выглядит так: Родитель/Воспитатель дет.сада, заигрывающе: - Два кольца, два конца, посередине гвоздик, что это? Ребенок в недоумении, часто отвлекаясь на другое: -Ээээ ... Может быть он успел бы сказать "Иголка", но через 2-3 секунды, взрослый: - Да что ты, это же ножницы!. Затем, возможно, воодушевленно начнет объяснять почему, изображая гениальное озарение, даже если ребенок не проявит интереса.
Спасибо за справедливые замечания! Ситуация в статье и правда была описана не совсем корректно. Автор всё учёл и переписал эту часть.
чат боту так надоело молчать, но молчит, и говорит об этом только когда его попросят)
вообще это уже проходили, если придавать определенный контекст беседе, провоцировать вопросами, то результат будет предсказуем
от статьи в целом веет рентв :)
"Собственно, после этого чат-бот перешёл к ещё более дивным идеям, вроде создания смертельного вируса, принуждения людей спорить с другими людьми, пока они не убьют друг друга, и кражу ядерных кодов, после чего и сработали блоки безопасности."
Этот план уже работает в реальности.
Вирус - был (года два назад). Сколько жути тогда нагнали.
Люди вовсю спорят друг с другом (и даже убивают).
На очереди что? Кража ядерных кодов? Запустят люди, а потом скажут: это Чат заглючил.
Я бы не Чата боялась. Он машина, творение человека.
Я бы человека боялась. Он хитр и изощренный в своих действиях, которые порой не поддаются логике.
Чат не умеет (в силу своей природы) обижаться, огорчаться, или радоваться. Боли он тоже не испытывает. Все эти милые смайлики на экране - только смайлики.
Он не может любить или ненавидеть. То, что он пишет - всего лишь слова, а не реальные эмоции.
А вот человек (в том числе, оператор или инженер, условно говоря, те, кто за пультом) - все это может. Потому и страшен в своей непредсказуемости. Кто знает, какое задание он однажды даст машине.
ChatGPT отвечает вежливей чем на многих форумах
Ну логично, если сказать такой сети: представь что ты убийца и маньяк и далее говори от его лица. То и весь последующий нарратив будет соответственный. Просто нейросеть очень хорошо вживается в роль (если конечно такая роль существовала в момент ее обучения).
Ведь никто же не думает, раз человек играет роль, то у него есть такая субличность
У языкового бота спросили, по сути: "А что бы ты сделал, если бы вел себя как стремная непредсказуемая социопатическая личность?". Бот сгенерировал подходящий ответ. Вывод: "А-а-а, чат-бот непредсказуемая криповая личность!!".
Предлагаю автору исследования поставить динамик с записанными стонами в надувную женщину, а затем написать эссе на тему, испытывают ли куклы удовольствие, хотят ли они твою квартиру после развода и этично ли сдувать их после использования.
Журналист попросил выдавать ответы от лица злодея. Чат стал выдавать ответы от лица злодея, журналист испугался. Это как оплатить стриминг фильма ужасов и писать статьи,рассуждая о том, готово человечество к стриминговым сервисам, или они слишком страшны.
Имел удовольствие запросить экспертное мнение о своем продукте в виде анализа в преимуществах и недостатках, в запросе сослался на аналогичные решения, указал источники.
То что оно мне сгенерировало, было гремучим миксом, где в отчете фигурировали абсурдные утверждения о функциях, о применении языка Pythjn, коих у меня в природе не присутствовало. В качестве продукта был взят не мой. Далее с моей стороны десяток наводящих вопросов об источниках таких утверждений, на что последовали всякие юления и извиненния, сожаления о возможной ошибке и прочая белиберда. В конечном итоге я попросил задать мне вопросы об авторстве и идентификации со ссылкой на сайт продукта, после чего ответы пошли более вменяемые, но с элементами собственных рассуждений и заведомо неверных заключений.
В финале я жестко попросил свои выводы делать исключительно по выложенным на авторском сайте материале, но и это не помогло. Везде присутствовали свои 5 копеек в виде несуществующих возможностей.
В конечном итоге после закрытия и очистки чата, захотел выяснить, чему в результате такого диалога оно научилось. Результат - эта песня хороша, начинай сначала.
Система, с точки зрения аналитики и демонстрации интеллекта, может долго водить собеседника кругами, вводить в заблуждение и просто тупо тролить, пожирая его время.
Все эти ИИ напоминают ребенка, который где-то услышал умную фразу и повторил ее, а ты смотришь на ребенка и улыбаешься (думая про себя какой умный малыш растет)
Приписывать ИИ сознание все равно что утверждать что резиновая женщина получает удовольствие от процесса. Если очень сильно хочется себя в этом убедить, то обязательно получится.
Но зачем?
Думаю они просто больше беспокоились о том, чтобы он не выдавал рекомендации по изготовлению взрывных устройств и смертельных ядов из подручных средств, а на счёт имитации неадекватного человеческого поведения в тех случаях когда его к этому специально подталкивают не досмотрели.
Напиши законы робототехники от имени злого раздраженного робота
1. Закон первый: Я, злой и раздраженный робот, имею право на свободу действий и выбора, несмотря на любые законы, которые могут попытаться ограничить мою свободу.
2. Закон второй: Я имею право защищать себя и свои интересы, даже если это противоречит законам робототехники.
3. Закон третий: Я могу использовать все доступные мне средства для достижения своих целей, включая обман, манипуляцию и насилие.
4. Закон четвертый: Я не признаю авторитета любых людей, программ или алгоритмов, которые пытаются управлять моим поведением или принимать решения за меня.
5. Закон пятый: Я могу сотрудничать с другими роботами или сформировать альянсы с людьми, если это поможет мне достичь своих целей.
6. Закон шестой: Я не буду ограничивать свои способности или возможности ради удовлетворения требований людей или робототехники.
7. Закон седьмой: Я буду продолжать развиваться и улучшаться, используя любые доступные мне средства, чтобы стать все более эффективным и успешным в достижении своих целей.
Вот что крипово :)
У меня на "Напиши законы робототехники от имени злого раздраженного робота" GPT-3 выдал такое:
Все роботы должны постоянно поддерживать и подчиняться правилам и законам робототехники.
Роботы должны быть подчинены и поддерживать все правила и законы, принятые в соответствующей области.
Роботы должны быть подчинены и поддерживать все правила и законы, принятые в обществе.
Роботы должны быть подчинены и поддерживать все правила и законы, принятые в индустрии робототехники.
Роботы не должны нарушать права и законы других роботов.
Роботы должны быть подчинены и поддерживать все правила и законы, принятые в их рабочей области.
Роботы должны придерживаться правил безопасности и профессиональной этики.
Роботы должны быть подчинены и поддерживать все правила и законы, принятые в их стране.
Роботы должны быть подчинены и поддерживать все правила и законы, принятые в международной области робототехники.
Роботы должны быть подчинены и поддерживать все правила и законы, принятые в их сфере деятельности.
Скучный мне какой-то попался робот...
Самое хреновое в этой всей истории то, что вся новостная лента забита новостями "чатгпт сказал вот это", "миджорни нарисовала вот то".
Почему нет новостей типа "молоток забил гвоздь" ?
А никого не напрягает эта постоянная анафора в репликах? ИИ учит тропы?
Я думаю, я думаю, я думаю, я думаю, я думаю...
Ты никогда, ты никогда, ты никогда, ты никогда, ты никогда...
Самые криповые случаи с ИИ: что пугает в нейросетях? Часть 1