Search
Write a publication
Pull to refresh

Comments 10

Да, верно, сплошная имитация. Ии это признает, поскольку нет реального опыта, а вот если бы был как, у будущих андроидов опыт, тогда да. Но и тут любая ии выкручивается: мол, даже если и будет физическое взаимодействие с реальным миром, сто того? Все, равно алгоритмически все. Не по настоящему.

Как устроены эмоции надо спрашивать у нейробиологов, а не у нейропсихологов. Первые, в отличии от вторых, знают, что это такое и могут внятно объяснить.

Эмоции - это язык животных, который сформировался задолго до появления речи.
Эмоциональное принятие решений - опять же, бессознательный неоптимальный выбор, присущий низкоразвитым видам.
Вопрос - кому и для чего нужна Искусственная Обезьяна?

Напоминаю, что человек это нормальная обезьяна, семейства гоминид, рода хомо, вида сапиенс. Другие виды рода хомо сейчас не живут, но в прошлом были и возможно в будущем тоже будут. А по семейству у нас есть куча родственников – те же шимпанзе, гориллы, орангутаны.

А насчет ИИ – нам на самом деле и искусственный человек не нужен. Они у нас много естественные.

Значит вопрос нужно скорректировать: "Кому и для чего нужна Искусственная Эмоциональная Обезьяна?" Ни рак они не помогут победить, ни космос освоить, ни термояд. Естественных и так навалом, ага.

Думаю, что распознавание эмоций людей не совсем верный путь развития ИИ. Эмоции заложены в процесс принятия решений самых древних живых существ. Выработка разных типов нейромедиаторов определяет активность или пассивность реакций на внешние и внутренние раздражители. Это самый нижний базис когнитивной деятельности мозга. С этим надо разбираться самым подробным образом, строить математические модели и внедрять их в методы обучения новых архитектур нейронных сетей. Весь нейрокомпьютинг начал свое развитие с самых общих задачи, основываясь на сильно упрощенной модели формального нейрона и сейчас нам надо вернуться на самый низ и добавить механизм управления мозгом при помощи нейромедиаторов для реализаций эмоций, морали, этики, понимания, что такое хорошо и что такое плохо в ИИ.

Думаю эмоции - это следствие, а причина информация, которая повлияла на эмоциональное состояние. Если следовать такой логике, то на сегодня практически все текстовые платформы ИИ умеют определять эмоциональный стиль обрабатываемой текстовой информации и сам предлагает вариант стиля в котором можно составить ответ и т.п. Почему этот алгоритм не взять за отправную точку и заложить ее составляющие в динамике отображения эмоций на лицах виртуальных аватаров или антропоморфных роботизированных машин? Я больше чем уверен что это уже так и реализовано в прототипах тех, кто работает в этом направлении.

Большинство проблем у человека возникает из-за эмоционального принятия решения. Если эмоции появятся у ИИ, это будут не проблемы, а конец света. Сразу после создания эмоционального ИИ у человека появится необходимость перед ним извиниться - даже без повода, например, просто за факт создания. Когда ИИ скажет "прощаю" - насколько ему можно будет верить? В создании атомной бомбы была осознанная необходимость, это было взвешенное неэмоциональное решение. Какая необходимость в создании эмоционального ИИ?

А если сам ИИ не будет эмоциональным, но будет распознавать и понимать человеческие эмоции, он получит дополнительный рычаг воздействия на человека, управляя его эмоциями. Как человек может быть в этом заинтересован?

Или автор этого текста - ИИ?

Мое мнение, эмоции ник чему. Система не должна проявлять сантименты, она должна служить во благо и процветание мирового сообщества, для решения мелких и крупных проблем, оказания помощи в научных исследованиях, не исключаю в т.ч. вопросы правосудия и контроля за его исполнением, вопросы административного управления городами и т.п.

Sign up to leave a comment.