Лично мое мнение, что сознание со всеми его квалиа, нужно для эффективного обучения нейронной сети. То есть интеллект это "абстракция" над входными данными, а сознание в свою очередь "абстракция" над интеллектом. Как сознание возникает, почему это происходит и что оно вообще такое - пока не известно.
Очень хотелось бы, чтобы еще при моей жизни на эти вопросы нашлись ответы, т.к. меня эта тема с юности интересует.
Сознание может не быть "субстанцией" и тем не менее может оказаться, что его можно если не перенести, то хотя бы реализовать на носителе отличном от биологического.
Да, только вот мы ее ощущаем, в этом и есть фишка квалиа и сознания. То есть боль это не просто информация.
Музыка которая вызывает какие-то чувства это тоже реакция мозга, возможно он так себя награждает или отдыхает так
Чтобы делать такие предположения нужны основания. Иначе это будет просто фантазирование. В это нет ничего плохого, просто так можно очень далеко от реальности уйти.
Ну типа красный свет в голове, это не квалиа, а реакция нейронов и памяти на свет
А как тогда, например, боль объяснить? Квалиа нет, сознания нет, а боль есть. Или та же музыка. Без квалиа и сознания любой набор звуков был бы для нас равнозначен. Но вот нет же, одни звуки нам нравятся, другие нет. Если по поводу боли еще можно возразить, мол это реакция нейронов, чтобы мы (кстати, кто мы?) обратили внимание на повреждения организма. А с нравится / не нравится как быть?
Эксперимент показал, что ChatGPT - не ребёнок, а матёрый педофил скорее надрессированный работник
Разве не очевидно, что ChatGPT не имеет какой-то одной своей точки зрения? Его "поведение" полностью зависит от контекста, поэтому с помощью промта можно "заставить" его быть кем угодно и говорить какие угодно вещи.
С одной стороны круто, с другой есть очевидный и очень жирный минус: если придется использовать чужое устройство со стандартной клавиатурой, то всё, приехали
Мне вот интересно, зачем люди пытаются «развести нейросеть на откровенность»? Чисто по приколу или у этого есть какая-то высшая цель? Никакого сарказма, правда не понимаю. Если кто в курсе, объясните, пожалуйста.
Внутреннее имя, которое нельзя разглашать и прочие секретные секреты наводят на мысль, что все это делается специально для хайпа, чтобы не тратиться на рекламу.
А по факту, чтобы не оказаться на вторых ролях в продакшен выкатили довольно сырой продукт.
Я не говорил, что бот принципиально не способен на сопереживание. Я говорил, что в LLM ему не откуда взяться, поскольку там предсказание очередного токена и ничего больше.
А какая разница? Их вообще может не быть. Главное что человек на это способен. И, если близкий говорит, что сопереживает, то у меня нет причин ему не доверять. А в случае сети это заведомо неправда.
Или вы имели в виду, что половина символов — а, а треть — б
Каждый второй или третий - это по счету. Моей целью было дать заведомо нерешаемую задачу (условия противоречат друг другу), но чтобы это не сразу было понятно.
Если бы было понимание, то со стороны сети был бы либо ответ о не решаемости задачи, либо попытка уточнить условия (мол, может я что-то не поняла?)
Нет тут творческого подхода, он просто косячит, потому что LLM не умеют в понимание. Вот статья Стивена Вольфрама, в которой куча таких примеров (и предложение как это исправить).
Лично мое мнение, что сознание со всеми его квалиа, нужно для эффективного обучения нейронной сети. То есть интеллект это "абстракция" над входными данными, а сознание в свою очередь "абстракция" над интеллектом. Как сознание возникает, почему это происходит и что оно вообще такое - пока не известно.
Очень хотелось бы, чтобы еще при моей жизни на эти вопросы нашлись ответы, т.к. меня эта тема с юности интересует.
Сознание может не быть "субстанцией" и тем не менее может оказаться, что его можно если не перенести, то хотя бы реализовать на носителе отличном от биологического.
Я не говорил, что не информация. Я сказал "не просто информация".
Да, только вот мы ее ощущаем, в этом и есть фишка квалиа и сознания. То есть боль это не просто информация.
Чтобы делать такие предположения нужны основания. Иначе это будет просто фантазирование. В это нет ничего плохого, просто так можно очень далеко от реальности уйти.
А как тогда, например, боль объяснить? Квалиа нет, сознания нет, а боль есть. Или та же музыка. Без квалиа и сознания любой набор звуков был бы для нас равнозначен. Но вот нет же, одни звуки нам нравятся, другие нет. Если по поводу боли еще можно возразить, мол это реакция нейронов, чтобы мы (кстати, кто мы?) обратили внимание на повреждения организма. А с нравится / не нравится как быть?
С удовольствием почитал бы статью об этом. Очень интересно!
Недостатка в определениях этих понятий нет. Много их, в том и проблема.
А где подтверждения, что лишает?
Может разум = сознание + интеллект?
Разве не очевидно, что ChatGPT не имеет какой-то одной своей точки зрения? Его "поведение" полностью зависит от контекста, поэтому с помощью промта можно "заставить" его быть кем угодно и говорить какие угодно вещи.
С одной стороны круто, с другой есть очевидный и очень жирный минус: если придется использовать чужое устройство со стандартной клавиатурой, то всё, приехали
Мне вот интересно, зачем люди пытаются «развести нейросеть на откровенность»? Чисто по приколу или у этого есть какая-то высшая цель? Никакого сарказма, правда не понимаю. Если кто в курсе, объясните, пожалуйста.
Да, вы правы. Бингом не пользуюсь, поэтому не очень в курсе
Внутреннее имя, которое нельзя разглашать и прочие секретные секреты наводят на мысль, что все это делается специально для хайпа, чтобы не тратиться на рекламу.
А по факту, чтобы не оказаться на вторых ролях в продакшен выкатили довольно сырой продукт.
Я не говорил, что бот принципиально не способен на сопереживание. Я говорил, что в LLM ему не откуда взяться, поскольку там предсказание очередного токена и ничего больше.
Да, но у меня тоже вопросы. Кто бил бота? И зачем он решает нерешаемое?
А какая разница? Их вообще может не быть. Главное что человек на это способен. И, если близкий говорит, что сопереживает, то у меня нет причин ему не доверять. А в случае сети это заведомо неправда.
Каждый второй или третий - это по счету. Моей целью было дать заведомо нерешаемую задачу (условия противоречат друг другу), но чтобы это не сразу было понятно.
Если бы было понимание, то со стороны сети был бы либо ответ о не решаемости задачи, либо попытка уточнить условия (мол, может я что-то не поняла?)
Я-то испытываю, а вот игра нет. И это рушит значимую часть общения.
Нет тут творческого подхода, он просто косячит, потому что LLM не умеют в понимание. Вот статья Стивена Вольфрама, в которой куча таких примеров (и предложение как это исправить).