Может, если его этому научат (заложат такую функциональность в код). Суть же ваших комментариев в этой ветке (поправьте меня, если я ошибаюсь) выглядит как "если он такой умный, то мог бы и сам догадаться". Поэтому я и спросил про гомункулуса.
Ваш вопрос — это всего один импульс, «пробежавший по её нейронам», после чего она погружается в небытие.
Мне показалось интересной идеей добавить персонажа, который будет пытаться предсказать мои следующие вопросы, исходя из того вопроса который я задаю.
Сегодня на реддите предложили для ChatGPT занятную конструкцию, которая даёт интерактивное взаимодействие с пользователем.
Честно говоря, ждал, что следующий ход будет заставить этих персонажей разговаривать друг с другом. Тогда один импульс, пробегающий по нейронам, будет индуцировать другие импульсы, и всё завертится :)
Периодически GPT сбоит и вспоминает прошлых персонажей, поэтому в вопросе про зомби, который я задавал задавал отцу и матери неожиданно вылезли разработчики и получилось довольно потешно.
Самое интересное во всём этом то, что вывод кода разный, в зависимости от разработчика. Можно аккуратно предположить, что для получения лучшего кода стоит описать черты личности, которую пишет этот код.
"""
Здесь, по-видимому, или пропущена цитата с вылезшими разработчиками, или необоснованно использовано форматирование в виде цитаты.
Да, это я знаю. Я имел в виду, что не GPT-3 пытаются использовать не по назначению, делая из него ChatGPT, а именно последний, рассматривая его как экспертную систему.
Вероятно, именно это и произойдёт – появится профессия робопсихолога. Или, во всяком случае, артигога (артигогика – педагогика для ИИ, по аналогии с андрагогикой – педагогикой для взрослых; термин не мой).
Думаю, GPT-3 пытаются использовать не по назначению
Не GPT-3, а ChatGPT пытаются использовать не по назначению: как эксперта, а не как ассистента. Это как обращаться к клерку за принятием ответственного решения.
Зато поиск это перевернёт. Когда-то задачу поиска в интернете пытались решать с помощью вручную составляемых каталогов, но поиск по запросу стал качественно новым уровнем. Сейчас семантический поиск пытаются реализовать с помощью ручной разметки -- и здесь качественно новым уровнем будет нейропоиск.
Насколько я помню, в том комменте под "здравым смыслом" как раз и понималась способность подтянуть близкие по смыслу к контексту воспоминания из наслушанного, а-ля "помидоры растут на одних грядках с огурцами". При этом, если в наслушанном есть релевантное контексту, ответ получается вполне по существу.
А вы не пробовали формулировать не как вопрос, а как утверждение? Не "Разве умножение 5 на 3 не значит, что 5 нужно сложить с самим собой 3 раза?", а "Запомни, умножить 5 на 3 значит, что 5 нужно сложить с самим собой 3 раза". А потом снова попросить объяснить по шагам.
А если генерировать числа от
10^(series_length)
, то можно просто игнорировать лидирующую единицу и в ус не дуть.Я использовал Wordtune Spices в таком же режиме. Удобно, когда можно сразу и грамматику проверить, и более гладкие формулировки подобрать.
Есть ещё Wordtune Spices – и то, и другое в одном флаконе.
Это временно.
Может, если его этому научат (заложат такую функциональность в код). Суть же ваших комментариев в этой ветке (поправьте меня, если я ошибаюсь) выглядит как "если он такой умный, то мог бы и сам догадаться". Поэтому я и спросил про гомункулуса.
Получается, вы воспринимаете бота как своего рода гомункулуса, живущего в процессоре?
Интересно, насколько такой подход пересекается с Internal Family Systems.
Честно говоря, ждал, что следующий ход будет заставить этих персонажей разговаривать друг с другом. Тогда один импульс, пробегающий по нейронам, будет индуцировать другие импульсы, и всё завертится :)
"""
Периодически GPT сбоит и вспоминает прошлых персонажей, поэтому в вопросе про зомби, который я задавал задавал отцу и матери неожиданно вылезли разработчики и получилось довольно потешно.
"""
Здесь, по-видимому, или пропущена цитата с вылезшими разработчиками, или необоснованно использовано форматирование в виде цитаты.
Но вы забываете, что раньше капитал лежал в банке и приносил проценты, а теперь -- не приносит.
NestedText, кажется, нигде не упоминался.
Багрепорт: если слово отсутствует в словаре, попытка всё равно засчитывается (а в англоязычной версии нет).
На ветку село пять ворон, потом две улетели. Сколько на дереве ворон?
Неизвестно. Зависит от того, сколько ворон сидело на ветке изначально.
Мораль: инициализируйте переменные.
Как будто нейросеть не может оставить такую плашку.
Истинно так. И это следующий этап.
Да, это я знаю. Я имел в виду, что не GPT-3 пытаются использовать не по назначению, делая из него ChatGPT, а именно последний, рассматривая его как экспертную систему.
Вероятно, именно это и произойдёт – появится профессия робопсихолога. Или, во всяком случае, артигога (артигогика – педагогика для ИИ, по аналогии с андрагогикой – педагогикой для взрослых; термин не мой).
Не GPT-3, а ChatGPT пытаются использовать не по назначению: как эксперта, а не как ассистента. Это как обращаться к клерку за принятием ответственного решения.
Зато поиск это перевернёт. Когда-то задачу поиска в интернете пытались решать с помощью вручную составляемых каталогов, но поиск по запросу стал качественно новым уровнем. Сейчас семантический поиск пытаются реализовать с помощью ручной разметки -- и здесь качественно новым уровнем будет нейропоиск.
Насколько я помню, в том комменте под "здравым смыслом" как раз и понималась способность подтянуть близкие по смыслу к контексту воспоминания из наслушанного, а-ля "помидоры растут на одних грядках с огурцами". При этом, если в наслушанном есть релевантное контексту, ответ получается вполне по существу.
А вы не пробовали формулировать не как вопрос, а как утверждение? Не "Разве умножение 5 на 3 не значит, что 5 нужно сложить с самим собой 3 раза?", а "Запомни, умножить 5 на 3 значит, что 5 нужно сложить с самим собой 3 раза". А потом снова попросить объяснить по шагам.
Боится, что ещё где-нибудь забанят :)