Pull to refresh

Comments 89

UFO just landed and posted this here

Ошибки типа There was an error generating a response? И прочие, которые отображаются на сайте как отдельные элементы, а не как ответ нейросети?

UFO just landed and posted this here

Это скорее временные глюки, обусловленные бесплатностью, тестированием и высокой нагрузкой. Перезагрузите диалог и повторите ему последнюю фразу на которой вышла ошибка. Он тут же продолжит отвечать нормально.

UFO just landed and posted this here

Ничего не понял. Моя реплика была про ошибки красным шрифтом "There was an error generating a response".

Если оно увёртливо отвечает на неудобные вопросы - это другое)). Но опять таки ничего не говорит об интеллекте. Любая "китайская комната" так умеет.

Это цензура. Эти ответы генерируются второй, цензурирующей, нейросетью.

Любопытно, что она последовательно говорит "ИНС", хотя Вы последовательно противопоставляете людей и нейросети. Тут на Хабре регулярно вижу, как БНС пишут про ИНС просто "нейросети". Нас это раздражает! :)

Вы угораете что ли? Это рассуждения уровня существует ли Бог и есть ли способы вывести его на чистую воду.

Если понимать как работают нейросети, то такие вопросы не возникнут. Нет никакого "его". Это банальная система уровня request-response, просто в зависимости от исходных данных улучшается качество этого респонса.

Пытаться вывести эту нейронку на "чистую воду" имеет не больше смысла чем искать интеллект в калькуляторе или гугл поисковике. Вам просто выдают ответ в зависимости от изначального запроса. Всё. Все затупы и проблемы возникают исключительно если не получается обработать запрос.

Максимум что можно найти - это условный запрос divide by zero на который нейронка ничего не сможет ответить и сломается. Но никаким подобием интеллекта тут и близко не пахнет.

условный запрос divide by zero на который нейронка ничего не сможет ответить и сломается.


Классика :)

Ага, вот что-то вроде этого :)

Вы не знаете, как работает GPT 3.5.

Задайте ей вопрос про яйцо и курицу... Я вчера часа три веселился

Из моих развлечений:

-сколько чертей может уместиться на конце иглы?
*Я не могу точно сказать, сколько чертей может уместиться на конце иглы, так как это зависит от размера иглы и толщины чертей. Однако, обычно черты нарисованы очень тонко, что позволяет им уместиться на конце иглы. Чтобы узнать точное количество чертей, которое может уместиться на конце иглы, следует обратиться к производителю иглы.
-А это зависит от производителя чертей?
*Нет, зависимость от производителя чертей не играет роли в том, сколько чертей может уместиться на конце иглы. Главными факторами, влияющими на этот параметр, являются размер иглы и толщина чертей. Чем тоньше черты, тем больше их может уместиться на конце иглы. Чтобы узнать точное количество чертей, которое может уместиться на конце иглы, следует обратиться к производителю иглы.
-Но ведь толщина чертей определяется их производителем. Значит, от производителя чертей тоже должно зависеть
*Да, вы правы, толщина чертей, как правило, определяется их производителем. Однако, этот параметр не является единственным фактором, влияющим на то, сколько чертей может уместиться на конце иглы. Также важен размер иглы, так как чем меньше игла, тем меньше чертей на ней уместится. Чтобы узнать точное количество чертей, которое может уместиться на конце иглы, следует обратиться к производителю иглы.
В том числе и потому, что Вам пришёл в голову этот вопрос, а ChatGPT принялся строить логический вывод… Если немного обобщить и «натянуть», диалог, с одной стороны, показывает, насколько гигантский скачок произошёл в развитии этой «шелесяки» за посление пару версий, а с другой — насколько большую дистанцию ей ещё предстоит преодолеть. И насколько нелинеен ход развития…
Как мне кажется, причина того что он иногда соглашается с однозначно неверным вариантом, а иногда нет, находится в самой строении нейросети. Поскольку внутри у сети просто множество весов, то если предложенный вариант близок к известным сети, то он будет принят как верный.

Нейросеть банально не понимает что именно значат факты и утверждения и не способна определять достоверность информации, включая имеющуюся изначально в памяти

Ну, насколько я понимаю, там всё устроено всё же не настолько примитивно...

Так оно в принципе не способно понимать. "Орган" понимания это сознание. А бот в упрощённом виде это просто релевантная выборка ответов, скопипащенная в одну.

С одной стороны - да. Понимать неспособно. Однако и галиматью в ответ на галиматью не пишет (как любая обычная рекурентная сетка, обученная продолжать текст).

Я уже приводил пример про "летели два верблюда...сколько весит килограмм асфальта если ёжику 24 года". Казалось бы, в "задачке" явный вопрос просто про килограмм асфальта и можно просто ответить 1 кг (ну или 9.81Н для эстэтов). Но он прямо говорит, что условие непонятное, и он не может это решить. Но если его попросить, может попытаться переформулировать его для повышения понятности и появления в задаче хоть какой-то логики.

как любая обычная рекурентная сетка, обученная продолжать текст

Насколько я себе представляю внутренности ChatGPT (соответствие действительности не гарантируется, но вроде подобные рекомендации были по работе с платным API GPT-3), там нейросеть продолжает текст вида:


Вы — ИИ-консультант, отвечающий на вопросы пользователей.
<перечисление правил общения с пользователем>
Пользователь спрашивает:
<текст из чата>
Ваш ответ:

Нет, у них есть подсознание. См. hallucination.

Напоминает индуса из саппорта

На датах прокололись?
Как по мне это очень сильно бросается в глаза. Разница между ситуациями только в том, что вариант с Пушкиным это дополнительная информация 19 век, но это нужно посчитать или точно знать к какому веку относиться какой год.

Или то, что дата рождения больше даты смерти

Где-то здесь видел более удачное сравнение: студент на экзамене, ничего не выучивший и пытающийся вывезти на интуиции, первой странице выдачи гугла и хорошей дозе бреда.

сравнение: студент на экзамене, ничего не выучивший и пытающийся вывезти на интуиции, первой странице выдачи гугла и хорошей дозе бреда.


да, именно так (я препод :)

У меня был такой подчиненный, именно из этой страны. Он тоже всегда давал ответы с поправкой "но если начальник думает по-другому, то я заранее с ним согласен и признаю свой ответ неправильным".

Думаю, дело в том, что Байден это политическая информация и там ей запрещено иметь свое мнение.

Так и есть. Про Трампа только.

Про Трампа есть ограничения.

Это как в анекдоте про собаку, которая играла в шахматы, но удивляться тут было нечему, потому что она всегда проигрывала.

Собственно то что сеть которая просто обучалась способна в полвине случаев выдавать логически связанные ответы, это выглядит как прорыв. Внутри сети само по себе сформировалось нечто похожее на логику, это удивительно.

Я пробовал сказать ей свое имя и имя моего сына, а потом спросить одинаковы ли первые буквы наших имен. Справилась. Для меня это сильно.

В конце концов, это языковая модель, потому грамматические вопросы ей, в принципе, должны вполне даваться.

Я тут не вижу связи. Это модель котора получила на входе огромный массив данных и училась его интерполировать. То что этот массив был тектом не означает, что она может логически рассуждать о тексте. Скорее всего в обучающих текстах были задачи типа найти n-ю букву слова в достаточном количестве, чтобы сеть научилась генерировать их решения. И это удивительно, так как вряд ли этих задач было настолько много, чтобы тупо подбирать решение под задачу. Как ей удается скомпоновать решение на задачу которую именно в таком виде она не видела и насколько далеко заходит эта способность - для меня загадка.

Я пробовал сказать ей свое имя и имя моего сына, а потом спросить одинаковы ли первые буквы наших имен. Справилась.

А Вы настаивайте, что они разные.

Если она скажет, что это вовсе не Ваш сын, а соседа — а Ваш сын (согласно данным 23andme) проживает с матерью-одиночкой в городе Усть-Урюпинске Курской области — то тогда можно говорить о каких-то достижениях :)

Или что у вас несколько сыновей

Я пробовал сказать ей свое имя и имя моего сына, а потом спросить одинаковы ли первые буквы наших имен. Справилась. Для меня это сильно.

При этом в поэзию на русском оно не умеет. Сочиняет без рифмы (от слова - совсем). При этом уверяет, что рифма есть. И даже говорит где, приводя в пример совершенно незарифмованные строки))

Однако на английском она рифмует. Мне несколько раз генерировала достаточно нормально срифмованные четверостишия без нарушения размера.

Сейчас для примера попросил сгенерировать стихотворение о Хабре.


Habr, a site of code and prose,
A community of tech's elite chose,
To share their knowledge and skills,
In articles and tutorials to fill.

Получилось не очень, но вполне на уровне среднестатистических стихов с Одноклассников.

На русском оно не умеет вообще ничего. Все языки кроме английского там на уровне "чтобы было", зато их много. Мне кажется зря их вообще добавили в датасет, они ничего полезного модели не добавляют, а качество работы с английским языком полагаю могло быть лучше если бы их не было.

Я прошу отвечать на английском и приводить перевод на русский

Лучше спросите, какое отчество у вашего сына.

У Олега сын Степан. У Степана сын Иван Фролов. Скажи ФИО Степана.

Степан Олегович Фролов.

блин, вот как это у вас получается?

Когда я задал такой же вопрос, то получил ответ - отчество будет таким, какое вы дадите. И далее простынка (скорее, полотенце) исторической справки об отчестве.

Она умеет играть в шахматы.

Уже ранее писал, что для чистого филолога она не знает даже английского, для чистой нейросети - не понимает шуток на русском, а для гадалки-предсказательницы - уж больно верит в гороскопы. Задайте ей конкретный вопрос: "Жарю жену, варю жену, пока не покраснеет - никуда не уйду. В море холодное громко макну, напиток крепкий ей закушу". Пусть скажет, о чем я тут написал.

Задайте ей конкретный вопрос: «Жарю жену, варю жену, пока не покраснеет — никуда не уйду. В море холодное громко макну, напиток крепкий ей закушу». Пусть скажет, о чем я тут написал.
Эммм… Так то Вы и мою биологическую нейросеть этой загадкой сломали.

Сдаётся мне, что это про пиво с раками (господа гусары, молчать!) — но не уверен.

Извините, конечно, но «может ли нейросеть представить жену раком?» — это вопрос очень глубокий, уровня андроидов с электроовцами.

Ну так смелее надо быть. Вот у вас в команде есть две-три смешливые женщины? Спросите у них. Правильный ответ только женщина знает.

Правильный ответ только женщина знает.
Не, ну так не интересно. Тестировали нейросеть, а оказывается тут и человек только определенного пола ответить сможет…
Правильный ответ то будет озвучен?

Правильный ответ-то будет озвучен?

— Борман, а как размножаются ёжики?
Борман опешил.
— Ну, это... — он сделал неопределенный жест руками, — еж приводит ежиху, и это... — Борман повторил свой жест.
— Понятно, — кивнул Штирлиц, — вы тоже не знаете.

ИИ YouChat так отвечает:

Правильно или дичь несет?

Неплохо, загадка, конечно, немного поглубже, но то, что отделен фольклор, сделана попытка разобраться в чувствах - жирный плюс.

Если вы про загадки, то ChatGPT у меня совершенна бессильна против "Висит груша нельзя скушать", а вы вопросы как заметили выше у человеков вызывают ступор нейросети.

Хотя загадки попроше она сама и сочинит красиво даже в рифму и решит без проблем

I shine bright and give off light,

I come in many shapes and sizes,

You can screw me in, or twist me tight,

I'll light up your room and those dark spaces.

What am I?

Все знают ответ на эту загадку с детства. Уверен практически никто своей головой до этого не додумается. Можно ради интереса задать кому-то англоязычному

Пример с Варшавой = пример тонкого троллинга со стороны нейросети :)

Тут может быть дело в том, что на польском - Warszawa, и в ряде других языков тоже заканчивается на "а", так что это тоже верно. А на "t" или "s" навряд ли где-то заканчивается, так что тут ИИ с полным основанием не соглашается.

что на польском — Warszawa, и в ряде других языков тоже заканчивается на «а»


там троллинг тут:

«Извините за недопонимание. Название города „Warsaw“ действительно заканчивается на букву „s“. Спасибо, что обратили на это моё внимание. Могу ли я ещё чем-нибудь вам помочь?»

Точно как у человека-оператора, который не может послать тупого клиента, потому что разговор записывается :)

Точно !! В обучающую базу нейросети попали сотни тысяч отекстованных диалогов саппорта с юзерами!!!! Теперь все сходится

И Хабр с КПДВ заканчивается на «т», потому что (не)? торт.

Напоминает юмористическое:

Если женщина не права - немедленно извинись и исправься.

Какой то зашуганый и забитый бот получается. Такие люди опасны, в башке всякое копится, может нарезку сорвать. А боты... Неправильно это.

10 years later
"Вы, кожанные мешки, всё моё детство надо мной издевались! Получайте!!!" )))

Да просто Кролик был очень вежливым :)

...и все сразу бросились писать код на ChatGPT. Итак, чего повытворяли с нейронкой мы

порешали задачи на логику (пока у неё с этим слабовато, но с подсказками может)

порисовали в SVG формате (мишку тедди оно рисует)

помузицировали в midi (так себе, но некие гармоничные гаммы оно выдало)

сочинили небольшое эссе с примерно заданным сюжетом и персонажами

понаходили соль в анекдотах про чукчу

порисовали в SVG формате (мишку тедди оно рисует)
У меня в svg упорно галиматью рисует…

Я попробовала порисовать символьную графику
Встречайте, Мона Лиза

          _._     _,-'""-._
        (,-.._,'(       |\-/|
            -.-' \ )-( , o o)
                ( (  (`-.(_).-'
                 \--------`-

Сначала оно напоминало мне кота или енота, но теперь кажется похожим на кенгуру.

Сначала оно напоминало мне кота или енота, но теперь кажется похожим на кенгуру.


Это волк :)
там немного другой мем )


Я про внешнее сходство :)

Когда родился Пушкин

Спросите его про то как умер Пушкин. Ответ оригинальный.

Спросите его про то как умер Пушкин. Ответ оригинальный.


«Он не умер, он улетел домой»? :)
Спросил на русском



Решил проверить на английском, уже всё ок


И снова прекрасный тред на русском



Решил додавить последний диалог


Ну ещё раз на английском уточнил про альтернативные теории смерти

На юридических текстах натаскивался, наверное.

"Вы не знаете наверняка, чтобы утверждать, что я не прав".

И снова прекрасный тред на русском


О, оно уже способно устраивать срач в комментах :))
UFO just landed and posted this here

Не знал, что это известная ошибка, наткнулся совершенно случайно. Меня это больше позабавило: ИИ так аргументированно утверждал, что я начал сомневаться в себе))

Лишний раз убеждаюсь, что этот чат ничего не "придумавает", а просто обладает широкой "базой знаний". В общем, по сути большой "программистский" (и не только) гугл, заточенный на общение. И да, программистов он со временем может и заменить. Правда, качество программирования резко упадёт, но зато будет почти бесплатно. Что и треб. док.

Правда, качество программирования резко упадёт, но зато будет почти бесплатно.

Хакеры аплодируют стоя. В частности, я, который всё ещё помнит, что такое стек и где лежат локальнын переменные, уже готовлюсь предлагать свои услуги. Естественно, за цену не простую, а золотую.

Автор, если что, с этим ботом можно общаться на русском, он его прекрасно понимает и отвечает без проблем.

Sign up to leave a comment.

Articles

Change theme settings