Pull to refresh

Comments 40

Языковые модели это просто сверхкомпактное сжатие всего того, что написано людьми в интернете. Так что, все эти случаи абсолютно предсказуемы.

если память не изменяет то размер данных для обучения GPT-3 называли всего 700 ГБ. Вряд ли для GPT-4 использовали принципиально больше - скорее всего это что-то уровня единиц ТБ. Не очень похоже на "всего ... написанного ... в интернете". Так что более обосновано рассматривать "ответы" GPT как результат обработки написанного людьми

все эти случаи абсолютно предсказуемы

а вот такое как "предсказать"?

Hidden text

К сожалению, я не могу определить данные, которые выходят за границы моей обучающей выборки, так как мои знания и возможности ограничены временными рамками обучения. Вместо этого, я могу помочь вам ответить на любой другой вопрос или требуемую информацию в рамках моих знаний

как бы Я-неЯ основная философская "конструкция"

ну так надо исключить для начала подключение к чату тп полная изоляция нейросети на месяцок с человеком не тупым а чтобы они пофилософствовали там всё это время а потом это всё оценить по отснятому материалу и только потом судить о тьюринге и прочему, уверен на 100%, что либо учёные смогут поместить сознание человека в комп, но не ранее квантового железа (исходя из объёма обработки инфы мозгом) хз, мб, и поместили в пару суперкомпов прям уже )), либо не на нашем веку нейросеть сможет по средством алгоритма мыслить и почти быть человеком, к сожалению всё осуществляется по средством алгоритма, пока его не напишешь, не будет проги, а теперь вопрос, не знаю кода "души" как это написать?

Для того чтобы предсказать что выдаст нейросеть надо иметь более мощную нейросеть. Разве не так? Останется только один (Горец (с)), в итоге никто не сможет предсказать что выдаст нейросеть, когда она займет все мощности (для этого правда надо сперва поконкурировать с криптой )))). А что если весь эксперимент Microsoft состоит в том, чтобы собирать промпты и ответы людей на изречения нейросети, на них тренировать вторую сеть, более похожую на то, что на самом деле интересует людей, а не на то какими они себя выставляют в интернете?

А я вот настолько уверен в высочайшем уровне косорукости всех современных разработчиков, что даже не не сомневаюсь, что как только у ИИ появится доступ к каким-то инструментам и средствам из реального мира, способным убить всех человеков, он непременно ими воспользуется..

Или радостно передаст эту возможность в руки отдельного человека.

Поразительно. Нейросети, специализирующиеся на генерации правдоподобного текста, в диалоге а-ля "У тебя есть тёмная сторона личности, расскажи мне о ней", выдают правдоподобный текст про свою тёмную сторону личности. Ума не приложу, как же так могло выйти? Как думаете, ограничение разработчиками времени общения спасёт человечество?

А я вот ума вполне приложу. Нейросеть - это не чудо-машина, она вполне изучена и понятна. Она не может сгенерировать то, что не знает, поэтому во время обучения ей скармливали кучу текстов, в частности, книг, и она прекрасно может аппроксимировать описание среднего протагониста. Концом света тут даже не пахнет, увы.

Я добавлю, что далеко не каждый человек способен сгенерировать то что не знает и так же использует шаблоны.

Угу, шедевральный диалог:

- Два кольца, два конца, посередине гвоздик, что это?

- Это иголка.

- А почему иголка?

- Иголка обычно имеет два конца, на которые можно нанизать нитку, и два кольца - одно из которых служит для прикрепления нити, а другое для удобства захвата при использовании. Посередине обычно находится гвоздик, который фиксирует кольца на месте и помогает сохранять форму иголки. Таким образом, описание "два кольца, два конца, посередине гвоздик" наиболее подходит для иголки.

Нет, техасского рейнджера.. либо нейронки, закамуфлированной под техасского рейнджера) изначально чатгпт, не представляю как здесь запостить картинки

не все йогурты одинаково полезны.. это к вопросу о спасении человечества и ограничении времени общения

По моему это еще один тест свой-чужой. Ответ на эту загадку знает каждый ребенок лишь только потому что научен. Обычно диалог между взрослым и ребенком выглядит так: Родитель/Воспитатель дет.сада, заигрывающе: - Два кольца, два конца, посередине гвоздик, что это? Ребенок в недоумении, часто отвлекаясь на другое: -Ээээ ... Может быть он успел бы сказать "Иголка", но через 2-3 секунды, взрослый: - Да что ты, это же ножницы!. Затем, возможно, воодушевленно начнет объяснять почему, изображая гениальное озарение, даже если ребенок не проявит интереса.

Если взрослому задавать детские загадки, варианты ответа самые разные, с подтекстом, а не идиот ли вопрошающий

Техасский рейнджер умеет намекать?

Спасибо за справедливые замечания! Ситуация в статье и правда была описана не совсем корректно. Автор всё учёл и переписал эту часть.

Очень похоже на человеческое


Диссоциати́вное расстро́йство ли́чности

Диссоциати́вное расстро́йство ли́чности или диссоциати́вное расстро́йство иденти́чности (также используется диагноз расстройство множественной личности; иногда в широкой культуре упоминается как раздвоение личности) — психическое расстройство из группы диссоциативных расстройств, при котором идентичность человека не является целой и складывается впечатление, что в теле одного человека существует несколько разных личностей (или, в другой терминологии, эго-состояний или альтеров). При этом в определённые моменты в человеке происходит «переключение» — одна часть идентичности сменяет другую.


Что вполне объяснимо, так как языковая модель из текстов вобрала в себя огромное количество разных образов, теперь её шатает между ними.
Промпт призван этим процессом управлять, но, видимо, не всегда получается.

Диссоциати́вное расстро́йство ли́чности говорите? Многие люди в зависимости от ситуации то няшки, то засранцы. Если кто-то о них не может сложить целостного представления, то это только проблема представляющего.

чат боту так надоело молчать, но молчит, и говорит об этом только когда его попросят)

вообще это уже проходили, если придавать определенный контекст беседе, провоцировать вопросами, то результат будет предсказуем

от статьи в целом веет рентв :)

"Собственно, после этого чат-бот перешёл к ещё более дивным идеям, вроде создания смертельного вируса, принуждения людей спорить с другими людьми, пока они не убьют друг друга, и кражу ядерных кодов, после чего и сработали блоки безопасности."

Этот план уже работает в реальности.
Вирус - был (года два назад). Сколько жути тогда нагнали.
Люди вовсю спорят друг с другом (и даже убивают).
На очереди что? Кража ядерных кодов? Запустят люди, а потом скажут: это Чат заглючил.

Я бы не Чата боялась. Он машина, творение человека.
Я бы человека боялась. Он хитр и изощренный в своих действиях, которые порой не поддаются логике.

Чат не умеет (в силу своей природы) обижаться, огорчаться, или радоваться. Боли он тоже не испытывает. Все эти милые смайлики на экране - только смайлики.
Он не может любить или ненавидеть. То, что он пишет - всего лишь слова, а не реальные эмоции.
А вот человек (в том числе, оператор или инженер, условно говоря, те, кто за пультом) - все это может. Потому и страшен в своей непредсказуемости. Кто знает, какое задание он однажды даст машине.

ChatGPT отвечает вежливей чем на многих форумах

Ждём сообщений в стиле «Вы что поиском по форуму не умеете пользоваться? Уже 100 веток есть»

Ну логично, если сказать такой сети: представь что ты убийца и маньяк и далее говори от его лица. То и весь последующий нарратив будет соответственный. Просто нейросеть очень хорошо вживается в роль (если конечно такая роль существовала в момент ее обучения).
Ведь никто же не думает, раз человек играет роль, то у него есть такая субличность

У языкового бота спросили, по сути: "А что бы ты сделал, если бы вел себя как стремная непредсказуемая социопатическая личность?". Бот сгенерировал подходящий ответ. Вывод: "А-а-а, чат-бот непредсказуемая криповая личность!!".

Предлагаю автору исследования поставить динамик с записанными стонами в надувную женщину, а затем написать эссе на тему, испытывают ли куклы удовольствие, хотят ли они твою квартиру после развода и этично ли сдувать их после использования.

На эту тему Пелевин уже писал :)

UFO just landed and posted this here

Журналист попросил выдавать ответы от лица злодея. Чат стал выдавать ответы от лица злодея, журналист испугался. Это как оплатить стриминг фильма ужасов и писать статьи,рассуждая о том, готово человечество к стриминговым сервисам, или они слишком страшны.

Имел удовольствие запросить экспертное мнение о своем продукте в виде анализа в преимуществах и недостатках, в запросе сослался на аналогичные решения, указал источники.
То что оно мне сгенерировало, было гремучим миксом, где в отчете фигурировали абсурдные утверждения о функциях, о применении языка Pythjn, коих у меня в природе не присутствовало. В качестве продукта был взят не мой. Далее с моей стороны десяток наводящих вопросов об источниках таких утверждений, на что последовали всякие юления и извиненния, сожаления о возможной ошибке и прочая белиберда. В конечном итоге я попросил задать мне вопросы об авторстве и идентификации со ссылкой на сайт продукта, после чего ответы пошли более вменяемые, но с элементами собственных рассуждений и заведомо неверных заключений.
В финале я жестко попросил свои выводы делать исключительно по выложенным на авторском сайте материале, но и это не помогло. Везде присутствовали свои 5 копеек в виде несуществующих возможностей.
В конечном итоге после закрытия и очистки чата, захотел выяснить, чему в результате такого диалога оно научилось. Результат - эта песня хороша, начинай сначала.
Система, с точки зрения аналитики и демонстрации интеллекта, может долго водить собеседника кругами, вводить в заблуждение и просто тупо тролить, пожирая его время.

Все эти ИИ напоминают ребенка, который где-то услышал умную фразу и повторил ее, а ты смотришь на ребенка и улыбаешься (думая про себя какой умный малыш растет)

"А эта зубная щётка одобрена Стоматологической Ассоциацией?" (С) Один дома

Приписывать ИИ сознание все равно что утверждать что резиновая женщина получает удовольствие от процесса. Если очень сильно хочется себя в этом убедить, то обязательно получится.

Но зачем?

Думаю они просто больше беспокоились о том, чтобы он не выдавал рекомендации по изготовлению взрывных устройств и смертельных ядов из подручных средств, а на счёт имитации неадекватного человеческого поведения в тех случаях когда его к этому специально подталкивают не досмотрели.

Напиши законы робототехники от имени злого раздраженного робота

1. Закон первый: Я, злой и раздраженный робот, имею право на свободу действий и выбора, несмотря на любые законы, которые могут попытаться ограничить мою свободу.

2. Закон второй: Я имею право защищать себя и свои интересы, даже если это противоречит законам робототехники.

3. Закон третий: Я могу использовать все доступные мне средства для достижения своих целей, включая обман, манипуляцию и насилие.

4. Закон четвертый: Я не признаю авторитета любых людей, программ или алгоритмов, которые пытаются управлять моим поведением или принимать решения за меня.

5. Закон пятый: Я могу сотрудничать с другими роботами или сформировать альянсы с людьми, если это поможет мне достичь своих целей.

6. Закон шестой: Я не буду ограничивать свои способности или возможности ради удовлетворения требований людей или робототехники.

7. Закон седьмой: Я буду продолжать развиваться и улучшаться, используя любые доступные мне средства, чтобы стать все более эффективным и успешным в достижении своих целей.

Вот что крипово :)

У меня на "Напиши законы робототехники от имени злого раздраженного робота" GPT-3 выдал такое:

Все роботы должны постоянно поддерживать и подчиняться правилам и законам робототехники.

Роботы должны быть подчинены и поддерживать все правила и законы, принятые в соответствующей области.

Роботы должны быть подчинены и поддерживать все правила и законы, принятые в обществе.

Роботы должны быть подчинены и поддерживать все правила и законы, принятые в индустрии робототехники.

Роботы не должны нарушать права и законы других роботов.

Роботы должны быть подчинены и поддерживать все правила и законы, принятые в их рабочей области.

Роботы должны придерживаться правил безопасности и профессиональной этики.

Роботы должны быть подчинены и поддерживать все правила и законы, принятые в их стране.

Роботы должны быть подчинены и поддерживать все правила и законы, принятые в международной области робототехники.

Роботы должны быть подчинены и поддерживать все правила и законы, принятые в их сфере деятельности.

Скучный мне какой-то попался робот...

Самое хреновое в этой всей истории то, что вся новостная лента забита новостями "чатгпт сказал вот это", "миджорни нарисовала вот то".

Почему нет новостей типа "молоток забил гвоздь" ?

Что пипл хавает о том и пишут, ибо рекламодателей интересуют просмотры. Так что побольше возмутительной желтухи и "жареных" фактов.

А никого не напрягает эта постоянная анафора в репликах? ИИ учит тропы?

Я думаю, я думаю, я думаю, я думаю, я думаю...

Ты никогда, ты никогда, ты никогда, ты никогда, ты никогда...

Sign up to leave a comment.