Pull to refresh
6
0
Александр Головань @InFortis

Психолог, психоаналитик.

Send message
Вы ошибаетесь, сознание и самосознание абсолютно различные феномены.
У вас есть аргументы? Если смотреть википедию, откуда вы любите брать цитаты, то можно увидеть что эти понятия описывают почти одно и тоже:

В своей разработке мы исходим из того, что сознание и самосознание — это категории различные как масштабом, так и функциями, при этом самосознание может быть частным случаем наполнения сознания.
Ранее, в ответе на один из Ваших комментариев, я написал о нашей разработке:

… понимает простой текст по возрасту и отвечает на вопросы, используя свои знания о мире и новую, только что полученную информацию.
Мощная фраза)))

Песчаную косу, острую косу и бабу с косой наш ИИ поймет правильно.

«Лопоухий косой» — если обучить его еще одному названию зайца.

Для того, чтобы правильно понял «Косой бабы» — нужно ему рассказать, что такое «косая баба». Учитывая редкость такой характеристики, то маловероятно, что мы его этому будем учить. Но в литературе такая характеристика встречается, поэтому обучиться на более поздних этапах.
Дети 7 лет уже неплохо умеют отвечать на вопросы на аналогию (хотя сложные вопросы всё же идут для 10+ лет — в связи с индивидуальностью развития когнитивной сферы, конечно же, а не принципиальной неспособностью отвечать на такие вопросы).

Согласен, что часть детей и в семь лет способны решить эти тесты. Но, в среднем, этот навык формируется все же в начальной школе. По нашему мнению, работа с аналогией это операция, проводимая в рамках абстрактного мышления. У нашего семилетки его нет. Сейчас как раз работаем над ним для 12-ти летки.
Тест интересный. Если подвернется случай, воспользуемся. Спасибо.
Да, согласен с Вами по поводу деления. Мы развиваем наш ИИ в соответствием с онтогенезом. Вначале — строгие операции и примитивные действия, затем система усложняется.
Не могу сказать, как мы отличаемся структурно от этой программы, не знаю, как она устроена. Но предметная область отличается. У нас в семантической сети категории, которыми оперирует человек (сейчас — семилетка).

Логика наших алгоритмов, работающих с семантической сетью, почти полностью соответствует процессам в психике. Подозреваю, что в этом тоже есть отличия от SHRDLU.
>На почти все вопросы, которые можно ему задать в этой сфере семилетний ребенок будет отвечать, цитируя взрослых. Ни одно суждение он не конструирует сам.

В этой фразе я говорю о высказываниях ребенка о своих качествах, о себе. Безусловно, о мире он способен уже конструировать собственные суждения.

Вы серьёзно? В 7 лет дети уже в школу ходят. Они там, по-вашему, занимаются вспоминанием и повторением того, что им взрослые сказали?

Если вы говорите о различного рода задачах, которые дети решают в школе (например про яблоки), то я с вами согласен. По моему мнению, уже с пяти лет большинство детей способны на сложные умозаключения. А некоторые — гораздо раньше.

Я же говорил о самосознании, о восприятии себя. В этой сфере ребенок до семи лет цитирует взрослых или испытывает затруднения с ответом.
Сложно поддерживать научную дискуссию видя вот это:

С чем вы в мой фразе не согласны?

По мышлению — мы разбиваем его на конкретные операции. Часть из них описаны.

И как я уже говорил сознание и самосознание это почти одно и тоже. Замените на самосознание если непонятно.

Вы ошибаетесь, сознание и самосознание абсолютно различные феномены.

А критикую я вас из за этого:

У нас есть семилетка(программа), который в чате неотличим от реального ребенка этого возраста.

Тут вы правы, каждый раз описывая функциональность, буду указывать и ограничения.

Ссылку на что? На древние боты?

Это один из ваших приёмов в комментариях к моим статьям. Вы говорить, что эта функциональность уже реализована, но не подтверждаете ссылкой.

От ботов мы отличаемся радикально. Боты жестко заскриптованы, при вопросе, которого нет в скриптах — или чушь или общие фразы.

Наш ИИ конструирует ответы из информации в семантической сети. Как это делает человек. Он может чего-то не знать, иметь ошибочные представления. Как и человек. Общего с ботами у нас только то, что общение ведется в строке.

Я веду диалог с вами только по одной причине — вы очень похожи на мошенников искателей доверчивого инвестора. И такое впечатление сложилось не только у меня.

До этого вы обвиняли меня в глупости, некомпетентности, теперь — что я мошенник. В ваших неаргументированных комментариях, когда вы просто кидаете фразы, не подкрепляя их аргументами, есть для меня большой плюс. Даже такой смотивированный критик не нашел белых пятен, ошибок и несоответствий. То, что вам приходится, за неимением аргументов, сместиться к приемам некорректного ведения спора, для меня важно.
Конкретно сейчас алгоритм ответов на подобные вопросы не запрограммирован. Есть полное ТЗ для программистов. Как только будет в цифре — ответит на большинство подобных вопросов.

Решали следующим образом. Из-за отсутствия обработки видео обучили пространственным категориям как абстрактным. Т.е. у собаки наряду с возможными расцветками шкуры, есть высота лежащей, сидящей и стоящей на задних лапах. В метрах. Собака расписана, т.к. встречается ребенку часто и сопоставима с ним по размеру. У слона один размер — высота. У предметов тоже есть размеры. У туфелек — высота, длина, ширина. По высоте сравнить слона и туфельку сможет. Луну нет. По ней размер не внесли. Такие нестыковки есть, вроде не много, но попадаются.

Старались подробнее описывать объекты, часто встречаемые. Чем реже, тем меньше характеристик. Для полноценного Тьюринга расширить количество этих связей придется. Возможно, если будем решать задачу оперирования в пространстве — это будет новый вид связи.

Тяжесть — у нас это вес — есть. Стоимости нет. Мал еще)))

Толщина — характеристика, совпадающая с одним из линейных размеров, закреплена разговорной речью за параметром некоторых предметов.

Схема, в общем, следующая:
1. Идентифицируется вид вопроса.
2. выделяются категории, о которых задается вопрос сравнения и параметр сравнения (тут нам парсер в помощь)
3. Для них ищутся соответствующие параметры.
4. Сравниваются эти параметры и делается вывод.
5. Формируется ответ в виде разговорной речи (тут опять парсер помогает)

Реальный ребенок выполняет другие операции при поиске ответа на такой вопрос, у него есть визуализация. Нам, пока, эта часть не доступна.

Но ребенок делает так же, когда для ответа надо вспомнить некие абстрактные характеристики объектов. Например «съедобно» — «не съедобно» относительно фруктов. которые сам не ел, а видел только на картинках. Так что тут мы ничего не изобретали, взяли с натуры, но операции смежной области.

Вообще по алгоритмам тоже думаю статью написать. Но как и про семантическую сеть — не знаю с какой стороны зайти, до какой степени детализировать.
Наш ИИ некоторые тексты «взрослой» вики не может понять. Учим его на Simple English Wikipedia.

Ваш пример с бананами описывается онтологией. Следовательно, Ваше решение хорошо справляется с задачами со структурированной информацией. Категории, описывающие жизнь человека, его мышление, его речь не имеют иерархической структуры. Возможно, из-за ограниченности сферы применения Вы и не даете доступа к демке. Она работает только со сконструированными или отобранными специально для нее высказываниями. Мышление это не пару логических операций.

По поводу онтологии внизу дал комментарий.
Вы увидев пару фраз сумели понять «функциональность» нашей системы?

Да. По порядку слов, категориям, которыми оперируете, общей структуре диалога. Возможно ошибаюсь.

А мы мышлением, сознанием и пониманием естественного языка занимаемся.


По части мышления и понимания естественного языка — мы, вроде бы, тоже им занимаемся. А вот термин «сознание» выглядит в этом ряду странно.

Если взять определение:
«Сознание — состояние психической жизни человека, выражающееся в субъективном переживании событий внешнего мира и жизни самого индивида» то о какой психической жизни идет речь? о каком субъекте и переживаниях? как вы это реализуете?

Мне легче сделать вывод, что Вы просто употребляете термин для красного словца. Из очень ограниченных показанных Вами материалов это точно не следует.

Главное: вы убедились что есть другие системы «понимающие» человеческую речь?


Я не говорил, что нет систем, понимающих речь. Они есть, просто отличаются, на сколько мне известно, от нашей по подходу и по похожести на человека пониманием и возможностью говорить. Но ваше решение к ним отнести не могу, не достаточно информации. Пока оно похоже на систему, работающую с категориями в рамках логики.

Это вопрос на который ответит ребенок, но не ответит ваша система.

Вы странно критикуете. Я сказал, что личности сейчас у системы нет. Есть знания о мире, соответствующие ребенку. Где кто живет? Почему идет дождь? Какие машины бывают? Вы приводите примеры вопросов, содержащие личные местоимения. Да, на эти вопросы наш ИИ сейчас не ответит. Надеюсь, этот блок будет к весне.

Записать в семантическую сеть пару фактов — это не понимание

Если взять определение, что «понимание — это операция мышления, связанная с усвоением нового содержания, включением его в систему устоявшихся идей и представлений», то это как раз и есть то, что делаем мы. Мы берем категорию и вписываем ее в семантическую сеть, устанавливая связи именно с теми категориями, с которыми она связана у человека.

Вы оперируете такой категорией, как мышление, но, думаю, что у Вас речь идет о логических операциях. По-моему, мышление гораздо шире.

Да, я знаю, что характеризует сильный ИИ и, надеюсь, мы продвигаемся в его разработке. Нынешний уровень ему не соответствует, это да.

Семантические сети это старая тема, глупо считать что вы ее первые применили.


Вы хороший демагог. Назвали меня глупым, хотя я нигде не говорил, что думаю, будто мы первые работаем с семантической сетью.

Чат-боты с семантической сетью тоже были и делали похожие вещи что у вас на видео.

Вы неоднократно это утверждали в комментариях. Повторюсь: буду благодарен за ссылку.

Вы приписываете мне высказывания, и основываясь на них называете меня глупым. По моей некомпетентности какие-то аргументы будут?

Вы позволяете себе высказывания относительно моей личности, поэтому позволю себе высказаться. Ваши комментарии делятся для меня на три типа:

1. Это делают все/это уже давно делали.
Да, не спорю с этим. Мы используем много уже ранее использовавшихся решений. Но есть и новое как в подходе так и в конкретных приёмах.

2. Ваш подход к ИИ — полная фигня.
Аргументировать отказываетесь — то NDA вам аргументы приводить не позволяет, то занимаетесь демагогией. Понятно Ваше желание обесценить. Особенно на фоне того, что у Вас собственное решение в этой сфере и функционалом оно не блещет.

3. Мое решение крутое.
Но доводов нет. Есть спекуляции на тему самоосознания, сознания и мышления. При этом демонстрируете весьма ограниченный функционал, где этих категорий не видно. Есть только возможность логических операций с сущностями, причем очень ограниченный набор.

Хотел бы вернуть нашу беседу к формату научной дискуссии.
По нашему мнению онтологии хороши там, где большие объемы созданной человеком и структурированной информации. Например, для описания категорий из науки, товаров, культурной сферы. Для взрослого человека они занимают свою нишу. Поскольку нынешнее наше решение воспроизводит ребенка, его психику, то мы вынуждены были описывать скорее категории быта, коммуникации, примитивной деятельности. Концептуальные схемы этих сфер сложны.

Для взрослого, думаю, онтологии позволят описать бОльшую часть знаний. В частности, профессиональная сфера, скорее всего, будет лучше всего описываться именно таким методом.
Я благодарен за конструктивную и аргументированную критику. Но. Я сказал, сейчас наше решение описывает когнитивную сферу семилетки с ограничениями. Самоосознания пока нет.

По части наличия его у семилетки, то оно весьма вырождено. На почти все вопросы, которые можно ему задать в этой сфере семилетний ребенок будет отвечать, цитируя взрослых. Ни одно суждение он не конструирует сам. Фактически, речь идет о функционале простого бота с заскриптованными ответами. Не вижу проблем это сделать, тут никаких новаций нет, обычный чат бот.

В 12-летке этот блок куда сложнее.
Какую именно теорию я подгоняю под себя? Я описал то, что помню о диагнозе дебилизм. Сейчас полез в литературу. Вроде все верно.
И, наверное, главное — наше нынешнее решение промежуточное. Надеемся, что скоро (в след году) будет 12-ти летка, там функционал уже сравним с возможностями взрослого человека. Это решение иллюстрирует возможности нашего подхода к реешнию задачи построения сильного ИИ. Надеемся, успешно.
Если я правильно Вас понял, то согласен с Вами, без того, что информация хоть как-то часто повторяется, первый вид контекста (по нашей типологии) не применим.

«Гилад шалит» для меня ничего не говорит. Я, здесь, могу или начать искать аналогии или пытаться применять другие способы понять.

А вот по части неосознанности — это как раз то, чем мы и занимаемся. Процессы, которые уже стали автоматизмами, протекающие вне сознания, мы разбираем и алгоритмизируем.

Ситуацию с письмом мы увидели именно так.

Но «гилад шалит» вызывает чувство чего-то знакомого)). Откуда это?
Fact Extractor'ы, программа, выигрывающая в Го, чат-боты, кофеварки и калькуляторы симулируют некоторую деятельность человека. Они могут, иногда, даже делать это лучше чем человек (но не в случае Fact Extractor'а). Мне кажется, указание на них не корректно для критики нашего решения. Да, наш ИИ не варит кофе и не способен извлечь квадратный корень. Я уже повторяюсь, но мы видим его особенность в том. что:

1. Он не отличим от человека в диалоге (соответствующего возраста и с некоторыми ограничениями).

2. Построен путем копирования структур и алгоритмов, скопированных у человека (с некоторыми вариациями).

Он понимает речь и отвечает так, как это делает человек (7-ми лет).
Приведенные Вами скриншот с функциональностью явно отличается от нашего решения. По нему видно, что ваша система способна на некоторые логические операции. Наш ИИ сейчас не умеет решать таких задач.

Предположу, что у вашего решения нет знаний о мире, соответствующих семилетке, он не способен отвечать на обычные вопросы, которые уместно задать ребенку. Или я ошибаюсь?

Пока я видел (на видео и скриншоте) возможность оперировать в рамках логики категориями.

Это не совпадает с нашим функционалом и тем способом, которым мы его достигли.

Не совсем понятно, как получился ответ, приведенный на скриншоте про бананы.

Даю первый вопрос: «что ты сегодня делал?». разве это не вопрос о мире?
Вот еще: «что делал сегодня твой кот?»

Это вы приводите пример беседы в вашей системе? И что Вам ответили? Как этот ответ был получен?

Ваша система ИИ бесконечно далека от интеллекта ребенка. Ваша система это туповатый чат-бот способный отвечать только на определенные вопросы заданные по определенным шаблонам.

Обоснуйте, почему наша система «бесконечно далека», если она понимает простой текст по возрасту и отвечает на вопросы, используя свои знания о мире и новую, только что полученную информацию?

От чат-бота мы в корне отличаемся технологией получения ответа. У нас нет скриптов. Ответ конструируется исходя из вопроса и из структуры семантической сети, содержащей соответствующие понятия.
Помощь и экспертизу мы здесь получаем, в том числе и от Вас, спасибо.

По клинической картине легкая и умеренно выраженная дебильность позволяет взрослому демонстрировать когнитивные возможности и более позднего возраста, чем 7-ми летка. Они могут освоить навыки и знания начальной школы, до 3 класса включительно. Так что да, здоровый семилетка может отставать в когнитивной сфере от человека с диагнозом дебилизм.
К сожалению, широко онтологии применить нам не удалось. Это сильно сэкономило бы программные ресурсы.

Мы видим информацию в психике структурированной, но не иерархичной. В этом мы расходимся с Курцвейлом. Для различных сфер жизни феномены запоминаются (хранятся в семантической сети) с различными концептуальными схемами.

Мы ожидаем большего присутствия онтологии в 12-ти летке, т.к. он вынужден интегрировать знания о науках, преподаваемых в школе. Эта информация, как раз, почти вся иерархична. Спасибо за ссылку, когда подойдем к этому вопросу — оценим, на сколько указанное решение нам может быть полезно.

Information

Rating
Does not participate
Date of birth
Registered
Activity