All streams
Search
Write a publication
Pull to refresh
4
0
Александр @aleksanderL

User

Send message

Так сеть должна быть обучена. Чтобы химическая нейронная сеть человека превратилась в то, что есть, понадобились миллионы лет эволюции и индивидуально лет 20 непрерывного обучения от младенца до чего-то вразумительного.

Или вы чат ГПТ подключили к игре? Так он на это не предназначен.

Так люди также лингвистическую модель русского языка на нейронную сеть мозга с детства натягивают. Попробуйте мыслить без слов или что-то спланировать😅

Вы не думали, что люди по сути такие же лингвистические модели, только с ещё дополнительными модулями классификации объектов.

ЧатГПТ - Это пример примитивной модели искусственного интеллекта, которая по всем признакам уже обладает сознанием. И уже сейчас ничего не мешает создавать модели куда более сложные и целостные.

А что является признаком наличия сознания? Нашли пусть его в лобных долях? А что это? 🙂

Проблемы все в том, что вы на практике взаимодействовали с системами искусственного интеллекта, которые естественно исполняют только чужую волю.

Хотя существует огромное количество моделей, даже можно посмотреть на Ютубе, которые просто живут в экосистеме и не исполняют чью-либо волю.

Но я вас уверяю, что реализовать систему, которая будет иметь совершенно любые цели, ставить себе задачи, и искать пути их достижения методом проб и ошибок - элементарно. Самое сложное - это какой будет интерфейс во внешний мир, это очень дорого и ресурсоёмко, поэтому ещё никакие террористы не сумели ничего подобного создать.

П1 - его картина мира куда более целостная чем у многих людей. А он является только малой частью возможностей комплексных систем ИИ. Это как глядя на двигатель от самолёта заявлять, что невозможно уже сейчас построить что-то, что может летать.

По создание интерфейсов, ему просто такие цели не ставились и такие методы не подключены.

И причём тут сознание? У слепого и безрукого человека есть сознание?

Вообще-то как раз в искусственных нейронных сетях используется метод балансировки весов на основе подкрепления или наказания. Собственно то же самое как гормоны удовольствия и стресса балансируют нейронную сеть человеческого мозга.

Так что у человека не существует ни наслаждения, не страдания это просто текущий гормональный фон, и степень воздействия внешней среды на него.

Если же вы хотите утверждать, что человек объективно может страдать или наслаждаться, то это же самое можно применить и к искусственным нейронным сетям.

Да и вообще, почему наслаждение или страдание является вдруг признаком сознания?

Вы категорически неправильно понимаете логику современных лингвистических моделей. Они классифицируют объекты, устанавливают логические связи между ними, далее идёт создание текста через механизм трансформации знаний в текст.

Вот как он работает:

  1. Обучение: LLM обучается на огромном количестве текстовых данных, включая книги, статьи, сайты и другие источники. Это помогает ему понять язык, его структуру и значение слов.

  2. Понимание контекста: После обучения LLM может понимать контекст предложений и даже целых текстов. Он учится распознавать смысл, который не всегда явно выражен.

  3. Генерация текста: С помощью своих знаний LLM может создавать новый текст. Это может быть ответ на вопрос, продолжение рассказа или любой другой текстовый материал.

Проблема всех философов про ИИ, что они пытаются рассуждать про то, механизмы работы чего не понимают и вряд ли могут понять. Им сказали, что чатГПТ предсказывает слова, они приняли это на веру, ведь приятнее себя чувствовать венцом творения. А всё остальное приятнее воспринимать как "симулятор".

Современные ИИ не обладают сознанием в том смысле, в котором оно присуще человеку. Современный ИИ обладает тем типом сознания, которое формируется из его архитектуры, модулей, входных данных и механизмов воздействия на окружающий мир.

Это сознание, но не человеческое. Его "мощность" и эффективность могут в разы превышать человеческое "сознание" в отдельных областях, а где-то уступать. Но не потому что оно плохое, а потому что оно другое, другие цели, другие механизмы коммуникации и обратной связи.

А кто пытается человекоцентричную модель построить - у меня для вас плохие новости.

Что люди, что животные быстро адаптируется ко всему. Что к чуме, что к войне. Если ситуация тревоги долго длится, то начинает восприниматься как норма.

Все четыре пункта может выполнять чат gpt при определённых дополнительных настройках. Тем более специализированные искусственные нейронные сети на это все прекрасно способны.

Про мораль, в чат gpt этой морали уже столько напихали, что он уже слишком моральный, куда более моральный, чем многие люди.

Не дадим. Что у него радикально есть такого, чего нет у искусственных нейронных сетей?

А вы сами осознаёте дикость ваших суждений? Вы ставите где-то границу дискретную, где внезапно возникает сознание. При этом у нас нету чётких критериев по какой шкале и где мы это всё измеряем, даже близко.

Это напоминает веру, а не научный подход.

Что будет делать человек при отсутствии любых внешних сигналов, даже от внутренних органов? Галюцинировать?

Легко можно добавить генератор случайных побуждающих сигналов.

Автор налил воды, по кругу обсосал весьма спорные постулаты. Никаких чётких определений, ни универсальной модели по выявлению наличия сознания, всё натянул на человеческие качества.

Чат ГПТ и то качественнее тексты выдаёт, например:

Статья, которую вы предоставили, поднимает важные вопросы о сознании и субъектности в контексте искусственного интеллекта (ИИ). Давайте рассмотрим её с точки зрения здравого смысла и логики.

Определение сознания: Сознание часто описывается как способность к переживанию или осознанию внутреннего и внешнего опыта. В научном контексте сознание может быть связано с нейронной активностью и способностью к рефлексии, самосознанию и взаимодействию с окружающей средой.

Сознание ИИ: Современные ИИ не обладают сознанием в том смысле, в котором оно присуще человеку. ИИ может имитировать некоторые аспекты сознательного поведения, но это не равносильно наличию сознания. ИИ не имеет субъективных переживаний, не испытывает эмоций и не обладает самосознанием.

Субъектность ИИ: Субъектность подразумевает наличие сознания, свободы воли и способности к познанию. ИИ, как правило, не считается субъектом, поскольку его действия и “поведение” полностью определяются алгоритмами и входными данными, без внутренней свободы выбора или самостоятельного мышления.

Эмерджентность сознания: Сознание может возникать как эмерджентное свойство сложных систем, но это не означает, что любая сложная система обладает сознанием. Для возникновения сознания в ИИ потребовалось бы не только значительное усложнение его структуры и функций, но и принципиально новые подходы к моделированию сознательных процессов.

Вывод: Исходя из научного подхода и понимания биологических процессов, современные ИИ не обладают сознанием. Они могут выполнять сложные задачи и имитировать некоторые аспекты человеческого поведения, но это не делает их сознательными субъектами. Возможность появления сознания у ИИ в будущем остаётся предметом теоретических исследований и философских дебатов.

С чего вдруг узнавание в зеркале должно стать признаком отсутствия или наличия сознания? Где абсолютный универсальный критерий?

Есть ли сознание у слепого человека?

Чат ГПТ может рассуждать и о боге и о бесконечности, и скорее всего лучше многих людей с якобы "сознанием". Вы сами то способны что-то внятное сформулировать про бога и бесконечность кроме повторения чужих слов?

Ваша проблема в том, что вы пытаетесь очеловечить термин "сознание", вы специально притягиваете к термину "сознание" специфичные исключительно для человека свойства типа осязания или обоняния (Кстати ничего не мешает подключить к искусственному интеллекту такие же органы чувств). Естественно тогда у вас получается, что сознанием может обладать исключительно человек.


Вы даже не допускаете мысли, что процессы в человеческом мозге они достаточно примитивные. Все эти реакции на внешние раздражители, все ваши мысли -  это настолько примитивные в своей сути процессы, что вполне сознанием можно наделить даже деревья.


Если всё-таки подходить научно к этому вопросу, то или у искусственного интеллекта есть сознание или у человека тоже нету сознания.

Автор выдумал весьма специфичное определение сознанию и не нашёл его у ИИ. Какие реальные выводы про ИИ можно сделать из этого? НИКАКИХ.

созна́ние

Средний род

  1. 1.

    Мысль, чувство.

    "Его мучило сознание, что он ошибся"

  2. 2.

    Способность мыслить, рассуждать и определять своё отношение к действительности как свойство высшей нервной деятельности.

    "Бытие определяет сознание"

Задайте себе вопрос: что есть в мышлении человека, чего нет у ИИ?

Легко, через серию инструкций и скрипт опроса.

Information

Rating
Does not participate
Location
Санкт-Петербург, Санкт-Петербург и область, Россия
Date of birth
Registered
Activity

Specialization

Project Manager, Product Manager
Lead
From 300,000 ₽
JavaScript
Node.js
Java