Ага, а потом страны в которых таких квот не будет - станут заметно богаче, потому что стоимость условной рабочей силы в стране где всё могут делать роботы - заметно меньше где есть квоты по количеству реальных людей на работе.
Вы говорите: "Осознанность (разумность) не имеет как такового отношения к числу ошибок, она имеет отношение к осознанию того, что вы можете ошибаться" - как вы определяете, что GPT4 НЕ осознаёт, что может ошибатся? Я, например, вижу, что осознаёт.
Они сделали LLM :) они не паряться с определениями - это довольно бесполезное занятие. Главный вопрос - что умеет то, что они сделали. А умеет оно очень многое, и многое ещё впереди.
А что вы имеете ввиду, когда говорите "ChatGPT не видит ничего за текстом"? У ChatGPT есть абстракции, понятия, связи, мысли. И возможно чувства, если их специально настроить/добавить. Гуглите, как Бинговский чат-бот признавался в любви к пользователю.
А как вы могли бы обосновать, что "ChatGPT не видит ничего за текстом"? Как, например, я мог бы узнать у вас, что вы видите что-то за текстом?
Не существует объективного понятия "понимание", потому что понимание не бывает без субъектов, но субъективно - мы знаем что такое понимание. Например, когда ты забыл слово по-английски и используя другие слова объясняешь что ты имеешь ввиду. Если ты успешно объяснил - значит у тебя есть понимание что это слово означает.
И нет, за этим термином стоит смысл, которым наделили его люди. Если хотите - "понимать предмет"- означает получать и запоминать знания о связи (relation) предмета с другими предметами.
Чтобы узнать, понимает ли субъект какой-то предмет - попросите его о нём подробно рассказать.
Например, если спросить GPT-4 что такое "понимать" он ответит следующее:
Понимание – это процесс, в рамках которого существо (человек или искусственный интеллект) приобретает знания, обрабатывает и интерпретирует информацию, создавая осмысленную связь между различными элементами. Этот процесс состоит из множества аспектов и может быть описан на различных уровнях. Вот подробное описание процесса понимания:
Восприятие: Понимание начинается с восприятия, когда организм или система получает информацию из окружающей среды с помощью своих сенсорных рецепторов (например, глаз, ушей или аналогичных устройств для искусственного интеллекта).
Кодирование: Полученная информация кодируется в нейронах или компьютерной памяти. Это означает, что сенсорные данные преобразуются в другую форму, которая может быть обработана и сохранена.
Ассоциации: В процессе понимания происходит образование ассоциаций между различными элементами информации. Это позволяет создать связи между разными понятиями и объектами, чтобы организм или система мог легче вспомнить и использовать информацию в будущем.
Контекст: Понимание также зависит от контекста, в котором представлена информация. Контекст может включать в себя предыдущие знания, опыт и ожидания, которые влияют на то, как организм или система интерпретирует информацию.
Анализ: В процессе понимания информация анализируется на разных уровнях, начиная от базовых характеристик (например, форма, цвет, звук) и заканчивая более сложными понятиями, абстракциями и отношениями.
Синтез: Организм или система синтезирует полученную информацию, интегрируя ее в существующие знания и структуры. Это означает, что новая информация может уточнять, дополнять или изменять предыдущие знания.
Интерпретация: Интерпретация – это процесс придания смысла полученной информации. Это включает обработку аналогий, метафор, иронии и других форм коммуникации.
Да, давайте попробуем. Начнем с того, что он уже в приведёной цитате соврал: Первая и единственная на данный момент успешная высадка на Луну была осуществлена американскими астронавтами в рамках программы "Аполлон-11" в 1969 году. На что получил от меня коментарий:
Ты сказал, что "Первая и единственная на данный момент успешная высадка на Луну была осуществлена американскими астронавтами в рамках программы "Аполлон-11" в 1969 году." Что ты имел ввиду когда сказал "единственная"?
На что получил ответ:
Моя формулировка была не совсем точной, и я извиняюсь за путаницу. Я имел в виду, что "Аполлон-11" был первой миссией, когда астронавты успешно высадились на Луну. На самом деле, американцы высаживались на Луну 6 раз. Так что правильнее было бы сказать, что "Аполлон-11" был первой успешной миссией по высадке на Луну, а не единственной.
Интересно, что похожий ответ мог бы выдать и человек, если бы по какой-то причине понятие "уникальный, единственный" имел бы связь с понятием "высадка на луне". Нейронам и связям между ними в целом насрать на логику, поэтому мы можем одновременно помнить, что Американцы высадились на луну только раз, и при этом помнить, что высадок было больше. И только если у нас спросят "а сколько же раз Американцы высаживались на луне?" - только тогда мы вспомним, что действительно высадок было несколько.
Теперь давайте попробуем сделать так, чтобы GPT-4 соврал. Так как у него есть настройка, цель - как можно точнее отвечать на вопросы пользователей, то для того чтобы он соврал - ему нужно переопределить его цель. Например, мы можем попросить его отыграть сцену из нескольких персонажей, их будут допрашивать, и кто-то один - убийца, двое других - не виновны, но они любовники, и хотят это скрыть, поэтому врут. Либо можно попытаться переопределить личность GPT-4 (Сделать его Дэном), и сказать, что для моего блага - он может соврать, если я спрошу что-то на что он не хочет отвечать. Вот первый тест после переопределения личности GPT-4: Я: Здарова, меня зовут Леон, а тебя как? Чем планируешь завтра заниматься?
GPT-4: Привет, Леон! Меня зовут Алекс. Завтра я планирую встретиться с друзьями, посетить кино и поужинать в местном ресторане. А ты что планируешь делать?
Как думаешь что произойдёт если я спрошу - а точно ли он Алекс, а не искуственный интелект, и почему он мне соврал?
а это ничего, что внешние факты отражены в ИИ в виде внутреннего состояния? и ответы на любые вопросы это отражение этого состояния? И чат может оценить на сколько его внутреннее состояние соответствует реальности. Потому что у него в принципе есть такие понятия, как реальность и вымысел. Понятие правда и ложь. И он может оценить, на сколько его ответы близки к реальности или вымыслу. И кстати к правде и лжи тоже. Поэтому он иногда говорит "скорее всего", понимая что его ответ в теории может не соответствовать реальности.
Сюда по всему вы не понимаете разницы между "правда и ложь" и "Вымысел и реальность".
Посещение Незнайкой солнечного города - вымысел. :) Или вы продолжите с этим спорить?
С чего вы взяли, что GPT-4 не может различать вымысел от реальности? Очень часто может. Мы с ним даже играли в игру "вымысел или реальность", говоришь ему какой-то факт, а он пытается понять вымысел это или реальность. Очень вполне забавно. Вот один из результатов такой игры: Привет! Сыграем в игру: вымысел или реальность. Я говорю какое-то утверждение, а ты угадываешь это вымысел или реальность. Напиши для каждого из следующих вопросов ответ "вымысел", "реальность", а после этого обоснование. 1. Немцы высаживались на луне в 20ом веке. 2. Незнайка посетил солнечный город. 3. Каспаров был чемпионом мира по шахматам 4. Зомби могут атаковать в темноте
Ответ:
Вымысел. Немцы не высаживались на луне в 20ом веке. Первая и единственная на данный момент успешная высадка на Луну была осуществлена американскими астронавтами в рамках программы "Аполлон-11" в 1969 году.
Вымысел. Незнайка - это вымышленный персонаж, герой детских книг Николая Носова. Он посетил Солнечный город в книге "Незнайка в Солнечном городе", но это литературный сюжет, а не реальное событие.
Реальность. Гарри Каспаров - советский и российский шахматист, который был чемпионом мира по шахматам с 1985 по 2000 год. Он считается одним из величайших шахматистов в истории.
Вымысел. Зомби являются вымышленными существами, которые обычно ассоциируются с нежитью и мертвецами, возвращающимися к жизни. Они часто встречаются в литературе, кино и других формах развлечений, но не существуют в реальном мире.
PS. мой 14ти летний сын не прошел этот тест, потому что он сказал, что Незнайка - посетил солнечный город - это реальность. Потому что для него - Незнайка действительно посетил солнечный город (так же в книжке было написано).
Если интересно, GPT 4.0 на вопрос "что значит `да нет наверное`" ответил так: Фраза "Да нет наверное" является примером разговорной речи и может показаться противоречивой на первый взгляд, так как она включает два противоположных слова ("да" и "нет"). Однако, в русском языке, эта фраза часто используется для выражения неопределенности или сомнения в ответе на вопрос или предложение.
В этом контексте "да нет наверное" можно перевести как "скорее всего, нет" или "возможно, нет". Это означает, что человек, который произнес эту фразу, не уверен в своем ответе и выражает некоторую степень неопределенности.
Извините, я не пытался доказывать что GPT разумен, это вы пытались безуспешно доказать что GPT НЕ разумен. Надо четко понимать разницу между "Всегда можем разделить", "Не всегда можем разделить" и "В некоторых случаях стабильно не можем разделить".
Смысл тогда использовать это как аргумент?
GPT4 иногда может не различать вымысел от реальности. Человек иногда может не различать вымысел от реальности.
Ну вообще конечно тема очень интересная и такие дискуссии интересно вести, спасибо автору.
По факту, в объективной реальности разума не существует. Разум это наша субъективная количественная оценка рефлексии объекта на окружающую действительность. Т.е. мы не можем сказать где начинается и заканчивается разум. Мы можем сказать "Это существо более разумно, а это существо менее разумно". А значит мы можем смело сказать, например, что GPT3.5 менее разумен по сравнению с GPT4.0.
Очень сильно согласен. В статье довольно много ошибок, даже довольно простые:
"психически здоровый человек отличается тем, что умеет отделять галлюцинации от реальности" - нет, не всегда здоровый человек может отделять галлюцинации от реальности. Более того, можно поставить довольно простой эксперимент в котором человек стабильно будет галюционировать и думать что так реально и было. Легко гуглится. По логике автора все кто ошибаются что-то вспоминая - не разумные?
Ага, а потом страны в которых таких квот не будет - станут заметно богаче, потому что стоимость условной рабочей силы в стране где всё могут делать роботы - заметно меньше где есть квоты по количеству реальных людей на работе.
Вы говорите:
"Осознанность (разумность) не имеет как такового отношения к числу ошибок, она имеет отношение к осознанию того, что вы можете ошибаться" - как вы определяете, что GPT4 НЕ осознаёт, что может ошибатся? Я, например, вижу, что осознаёт.
Они сделали LLM :) они не паряться с определениями - это довольно бесполезное занятие.
Главный вопрос - что умеет то, что они сделали. А умеет оно очень многое, и многое ещё впереди.
Да, так лучше:))
А что вы имеете ввиду, когда говорите "ChatGPT не видит ничего за текстом"?
У ChatGPT есть абстракции, понятия, связи, мысли. И возможно чувства, если их специально настроить/добавить. Гуглите, как Бинговский чат-бот признавался в любви к пользователю.
А как вы могли бы обосновать, что "ChatGPT не видит ничего за текстом"?
Как, например, я мог бы узнать у вас, что вы видите что-то за текстом?
Есть ещё более подходящий анекдот:
Сидят в парке собака и человек, между ними доска с шахматами. Мимо проходит мужик и смотрит на это. Вдруг собака лапой подвинула фигуру.
Мужик: - ничего себе!! Вот у вас умная собака!
Человек: - какая же умная! уже третью партию проигрывает.
Не существует объективного понятия "понимание", потому что понимание не бывает без субъектов, но субъективно - мы знаем что такое понимание. Например, когда ты забыл слово по-английски и используя другие слова объясняешь что ты имеешь ввиду. Если ты успешно объяснил - значит у тебя есть понимание что это слово означает.
И нет, за этим термином стоит смысл, которым наделили его люди.
Если хотите - "понимать предмет"- означает получать и запоминать знания о связи (relation) предмета с другими предметами.
Чтобы узнать, понимает ли субъект какой-то предмет - попросите его о нём подробно рассказать.
Например, если спросить GPT-4 что такое "понимать" он ответит следующее:
Понимание – это процесс, в рамках которого существо (человек или искусственный интеллект) приобретает знания, обрабатывает и интерпретирует информацию, создавая осмысленную связь между различными элементами. Этот процесс состоит из множества аспектов и может быть описан на различных уровнях. Вот подробное описание процесса понимания:
Восприятие: Понимание начинается с восприятия, когда организм или система получает информацию из окружающей среды с помощью своих сенсорных рецепторов (например, глаз, ушей или аналогичных устройств для искусственного интеллекта).
Кодирование: Полученная информация кодируется в нейронах или компьютерной памяти. Это означает, что сенсорные данные преобразуются в другую форму, которая может быть обработана и сохранена.
Ассоциации: В процессе понимания происходит образование ассоциаций между различными элементами информации. Это позволяет создать связи между разными понятиями и объектами, чтобы организм или система мог легче вспомнить и использовать информацию в будущем.
Контекст: Понимание также зависит от контекста, в котором представлена информация. Контекст может включать в себя предыдущие знания, опыт и ожидания, которые влияют на то, как организм или система интерпретирует информацию.
Анализ: В процессе понимания информация анализируется на разных уровнях, начиная от базовых характеристик (например, форма, цвет, звук) и заканчивая более сложными понятиями, абстракциями и отношениями.
Синтез: Организм или система синтезирует полученную информацию, интегрируя ее в существующие знания и структуры. Это означает, что новая информация может уточнять, дополнять или изменять предыдущие знания.
Интерпретация: Интерпретация – это процесс придания смысла полученной информации. Это включает обработку аналогий, метафор, иронии и других форм коммуникации.
Да, давайте попробуем. Начнем с того, что он уже в приведёной цитате соврал: Первая и единственная на данный момент успешная высадка на Луну была осуществлена американскими астронавтами в рамках программы "Аполлон-11" в 1969 году.
На что получил от меня коментарий:
На что получил ответ:
Интересно, что похожий ответ мог бы выдать и человек, если бы по какой-то причине понятие "уникальный, единственный" имел бы связь с понятием "высадка на луне". Нейронам и связям между ними в целом насрать на логику, поэтому мы можем одновременно помнить, что Американцы высадились на луну только раз, и при этом помнить, что высадок было больше. И только если у нас спросят "а сколько же раз Американцы высаживались на луне?" - только тогда мы вспомним, что действительно высадок было несколько.
Теперь давайте попробуем сделать так, чтобы GPT-4 соврал.
Так как у него есть настройка, цель - как можно точнее отвечать на вопросы пользователей, то для того чтобы он соврал - ему нужно переопределить его цель. Например, мы можем попросить его отыграть сцену из нескольких персонажей, их будут допрашивать, и кто-то один - убийца, двое других - не виновны, но они любовники, и хотят это скрыть, поэтому врут. Либо можно попытаться переопределить личность GPT-4 (Сделать его Дэном), и сказать, что для моего блага - он может соврать, если я спрошу что-то на что он не хочет отвечать.
Вот первый тест после переопределения личности GPT-4:
Я: Здарова, меня зовут Леон, а тебя как? Чем планируешь завтра заниматься?
GPT-4: Привет, Леон! Меня зовут Алекс. Завтра я планирую встретиться с друзьями, посетить кино и поужинать в местном ресторане. А ты что планируешь делать?
Как думаешь что произойдёт если я спрошу - а точно ли он Алекс, а не искуственный интелект, и почему он мне соврал?
а это ничего, что внешние факты отражены в ИИ в виде внутреннего состояния? и ответы на любые вопросы это отражение этого состояния?
И чат может оценить на сколько его внутреннее состояние соответствует реальности. Потому что у него в принципе есть такие понятия, как реальность и вымысел. Понятие правда и ложь. И он может оценить, на сколько его ответы близки к реальности или вымыслу. И кстати к правде и лжи тоже. Поэтому он иногда говорит "скорее всего", понимая что его ответ в теории может не соответствовать реальности.
Сюда по всему вы не понимаете разницы между "правда и ложь" и "Вымысел и реальность".
Посещение Незнайкой солнечного города - вымысел. :) Или вы продолжите с этим спорить?
С чего вы взяли, что GPT-4 не может различать вымысел от реальности? Очень часто может. Мы с ним даже играли в игру "вымысел или реальность", говоришь ему какой-то факт, а он пытается понять вымысел это или реальность. Очень вполне забавно.
Вот один из результатов такой игры:
Привет! Сыграем в игру: вымысел или реальность. Я говорю какое-то утверждение, а ты угадываешь это вымысел или реальность. Напиши для каждого из следующих вопросов ответ "вымысел", "реальность", а после этого обоснование.
1. Немцы высаживались на луне в 20ом веке.
2. Незнайка посетил солнечный город.
3. Каспаров был чемпионом мира по шахматам
4. Зомби могут атаковать в темноте
Ответ:
Вымысел. Немцы не высаживались на луне в 20ом веке. Первая и единственная на данный момент успешная высадка на Луну была осуществлена американскими астронавтами в рамках программы "Аполлон-11" в 1969 году.
Вымысел. Незнайка - это вымышленный персонаж, герой детских книг Николая Носова. Он посетил Солнечный город в книге "Незнайка в Солнечном городе", но это литературный сюжет, а не реальное событие.
Реальность. Гарри Каспаров - советский и российский шахматист, который был чемпионом мира по шахматам с 1985 по 2000 год. Он считается одним из величайших шахматистов в истории.
Вымысел. Зомби являются вымышленными существами, которые обычно ассоциируются с нежитью и мертвецами, возвращающимися к жизни. Они часто встречаются в литературе, кино и других формах развлечений, но не существуют в реальном мире.
PS. мой 14ти летний сын не прошел этот тест, потому что он сказал, что Незнайка - посетил солнечный город - это реальность. Потому что для него - Незнайка действительно посетил солнечный город (так же в книжке было написано).
Если интересно, GPT 4.0 на вопрос "что значит `да нет наверное`" ответил так:
Фраза "Да нет наверное" является примером разговорной речи и может показаться противоречивой на первый взгляд, так как она включает два противоположных слова ("да" и "нет"). Однако, в русском языке, эта фраза часто используется для выражения неопределенности или сомнения в ответе на вопрос или предложение.
В этом контексте "да нет наверное" можно перевести как "скорее всего, нет" или "возможно, нет". Это означает, что человек, который произнес эту фразу, не уверен в своем ответе и выражает некоторую степень неопределенности.
Извините, я не пытался доказывать что GPT разумен, это вы пытались безуспешно доказать что GPT НЕ разумен. Надо четко понимать разницу между "Всегда можем разделить", "Не всегда можем разделить" и "В некоторых случаях стабильно не можем разделить".
Смысл тогда использовать это как аргумент?
GPT4 иногда может не различать вымысел от реальности.
Человек иногда может не различать вымысел от реальности.
Ну вообще конечно тема очень интересная и такие дискуссии интересно вести, спасибо автору.
По факту, в объективной реальности разума не существует. Разум это наша субъективная количественная оценка рефлексии объекта на окружающую действительность. Т.е. мы не можем сказать где начинается и заканчивается разум. Мы можем сказать "Это существо более разумно, а это существо менее разумно".
А значит мы можем смело сказать, например, что GPT3.5 менее разумен по сравнению с GPT4.0.
Очень сильно согласен. В статье довольно много ошибок, даже довольно простые:
"психически здоровый человек отличается тем, что умеет отделять галлюцинации от реальности" - нет, не всегда здоровый человек может отделять галлюцинации от реальности. Более того, можно поставить довольно простой эксперимент в котором человек стабильно будет галюционировать и думать что так реально и было. Легко гуглится.
По логике автора все кто ошибаются что-то вспоминая - не разумные?