All streams
Search
Write a publication
Pull to refresh
7
0
Александр Хомяков @Xom

AI-agents, RAG, NLP, Philosophy AI

Send message
А вы думаете, у животных какое-то особое понимание?)

Вы уже забыли, о чем речь в этом пункте. Он не про понимание, а про ИИ.

Вы говорите, что для понимания нужен некто, проверяющий правдоподобность, что у человека есть понимание

Мы проверяем понимание не человека, а бота, для которого человек — проверяющий. Вы запутались, поэтому у вас противоречие. У меня его нет.

Для понимания эти характеристики необязательны.

Опять голословно. Я считаю обязательными и пишу об этом.

Потому что подразумевается не факт существования набора букв, а смысл, заданный в этих буквах

Вот этим знание факта и отличается, к вашему сведению, от его понимания. Фактов много, понимание их может быть одно. И да, это не смысл. Смысл — это третье )

Тут нигде нет критериев вида «как он получен, как можно получить ДРУГИЕ примеры

Во-первых, Словарь Ожогова вряд ли годится для определения понятия. Это все-таки словарь русского языка, его употребления, а не научное определение понятия. Во-вторых, если бы я хотел повторить чье-то определение, я вряд ли бы стал писать статью ) Конечно, я иду чуть дальше Ожогова, позволите? )))

использования факта „дважды два четыре“ без знания математики.

:) Использовать 2+2=4 без знания математики можно ТОЛЬКО как написано и больше никак, а значит, не понимать, что это значит! Покажите это 4-х летнему ребенку, он может повторить эту надпись. Понимает он ее, не зная математику? Нет.

Я как раз и говорю, что в этом примере никакого достраивания гипотезы нет, а понимание есть.

Когда вам показывают, что надо делать в ответ на эту абракадабру, это и есть „достраивание“, в знакомых вам действиях и предметах. И только тогда вы обретаете понимание этого абракадабры, и можете даже сами найти тряпку, если вам ее не дали. „Достроить“ ее необходимость, ибо поняли…

Понимание это построение информационной модели внутри информационной системы, которая соответствует реальности вне информационной системы.

Это вы подошли к тому, что я вам объясняю, если все таки включили в определение слово „построение“. О нем и речь, что картины всей реальности у человека готовой нет, он ее для понимания налету создает. И если понял, может достроить сам недостающие или аналогичные примеры, которых не было в предъявленной „реальности“. Но данное вами определение слишком примитивно. Прям теория отражения Ульянова-Ленина. Оно не отвечает на вопрос, откуда мы знаем то, что не встречали.

Чем этот комментарий хорош? Он голословный, пока автор не объяснит, почему он так думает. Я бы даже сказал, что этот комментарий глупый, потому что Тьюринг был явно не глупее комментатора.
И какой субъективности понятий я не вижу? Сможете пояснить? )
ваше определение понимания неверно

Возникает вопрос — вы о каком определении говорите? Я его не давал.
Потому что тогда высшие функции будут описаны в виде «соединяем низшие функции A, B, C таким-то образом».

Нет. Совершенно неверно и ошибочно. Вы не сможете соединить А, В и С так, чтобы оно заработало, не понимая это соединение как целое на высшем уровне. Иначе вам придется столкнуться с факториалом вариантов соединения, учитывая количество даже слов — больше времени жизни вселенной.

Понимание того, о чем вы пишете, ни на шаг не приблизит нас к искусственному интеллекту.

Не говорите за всех. Вас не приближает, меня с коллегами приближает. Мост строится с двух сторон. Удачи ))
Пример тому дикие животные,

Разве тут речь про животных? ))

Ну так из этого следует, что ваше определение понимания неверно

Откуда это следует? Мы пока априори считаем себя понимающими картину мира лучше ботов, это они не могут ответить на наши вопросы, а не мы на их. По моему это очевидно опять же.

В отношении человека знание факта предполагает его понимание.

Неверное утверждение. Знание факта не обязательно предполагает его понимание. Я знаю факт «asdnjks dogfae», это факт набора букв, и что? ))

В общепринятом смысле термин «понимание» этого не требует.

Можете привести общепринятое определение? Даже интересно… )))

Можно не знать, как получен факт «дважды два равно четыре»

Это значит не понимать, а только знать (факт) и повторять его как есть.

Или более простой пример — понимание слова на незнакомом языке

Слова не могут быть поняты без контекста, без «употребления» как установил Витгенштейн. Поэтому, пока вам не показали, что по этому речевому акту следует мыть пол вот так (контекст), вы его не поняли. Я об этом понимании ровно и говорю. Действие только для ботов — это речь.

Во-первых, зрительная кора кошки известным автором, например, разобрана очень подробно и мы имеем успехи именно в распознании образов искусственными нейросетями. Во-вторых, именно для того чтобы понять как смоделировать высшие функции и надо рассуждать о них, разве нет? )
Создание все более сложных и мощных ансамблей нейронок без понимания того, о чем я пишу — это пальцем в небо. Может, конечно, повезти. Но надо бы и понимать куда копать.


Я не в курсе ваших статей

Ну а почему цель или ценность, выраженная в тексте, не может быть его смыслом? Смысл это любое суждение о тексте, его интерпретация (см. Герменевтика), но не сам текст

Необосновано оно потому что там нет обоснования, это же вроде очевидно

А по моему очевидно, что оно ниже и приведено в трех пунктах. Как вы узнаете еще у системы, что она понимает, ели она никак не отвечает? Это вроде очевидно, поэтому диалоговые. В общем, согласен, что за этой очевидностью такое вступление просто лишнее.


У человека тоже есть понимание, но его никто не проверяет.

Для проверки нашего понимания нужен разум, который понимает больше, не встречал пока такого )


Давайте еще один приведу.

Вы приводите пример не понимания, а знания одного факта, что не является пониманием. Факты знает грубо говоря и винчестер, на котором он записан. Понимание же значит и как он получен, и как можно получить ДРУГИЕ примеры сложения, то есть достроить… Это означает понимать правила сложения, например. Именно так как Вы написали дальше "Достраивание того, что неизвестно, это уже результат логических рассуждений, для этого уже нужно иметь понимание известных фактов". Рассуждение и есть достраивание.

Почему вы так решили? С вами как минимум не согласны авторы Премии Лебнера.

Рад, что Вы присоединились к обсуждению, но прошу все таки, если пишите, что автор не прав, то пишите почему. Иначе это голословное личное мнение, не стоящее даже ответа
Это про первую цитату. Вторая аргументирована, поэтому отвечаю.


Правильность достраивания, конечно, проверяется по человеку, потому что априори принимается, что он такой способностью обладает, мы же свои способности по построению картины мира хотим смоделировать — они модельными и выступают.


Понимаете и есть правильное достраивание, которое возможно только если бот обладает знанием этого кусочка картины мира по крайней мере. Знание в данном случае и есть способность построения ответа, соответствующего картине мира.

Про китайскую комнату Вы не совсем правы. Человек, выполняющий инструкцию в китайской комнате, не понимает, а вся комната вместе с инструкцией вполне. Такова по крайней мере одна из современных интерпретаций этого эксперимента в философии.
А муравей, да, понимает, если правильно интерпретирует сигналы. Отличие только в том, что мы знаем, что понимаем, а он просто понимает )

Не совсем понял, что именно Вы не видите? Можете пояснить и аргументировать?
Понимание и смысл не являются тождественными понятиями. Смыслом высказывания может быть намерение, например, что-то доказать, не выраженное в самом тексте (свою правоту). А понимание текста отражается в том, что собеседник может построить ответ на вопрос о тексте, предположить его продолжение, понять «о чем речь». В общем, можно понять текст, а можно понять его смысл (отдельно).

// Но кто-то не поймёт, что такое "типичный", кто-то будет настаивать, что его мир фантазий вполне реален и т.п.
Вы считаете, что GPT просто очень креативная? )) Но вот что интересно, GPT не поймет, что не может выполнить задачу, опиши нетипичного волка, или какие могут быть волки в фантастическом мире. Она буквально возьмёт связи этих слов, а не примет их как задание, которому надо следовать в построении текста. Ваша ссылка про однократное обучение немного не о том.
Про семантику не поняли — GPT-3 пишет складно, но не имеет представление о семантике мира, том же здравом смысле. Иначе бы у волка небыло 4 глаз.

Все верно по тому что знаю я про саккады, за одним моментом — мы можем узнавать сцену и число объектов в ней в том числе сразу без саккад в объеме рабочей памяти. Она небольшая как Вы знаете наверняка (число Миллера). Прочитайте про чанки Саймона Г. в мышлении шахматистов.

// Что же тогда реально? Физические объекты и свойства реально существуют, как модели естественно.


Вы сами ответили — модели только и реальны. Ничего другого нам непосредственно не дано. Опять же по Канту. Но что же у модели от реального мира — так надо ставить вопрос. И ответ может быть такой: модель всегда вариативна. В моем всегда есть варианты. Так вот выбирает вариант как раз реальность через ощущения. В мозге есть все цвета, но какой цвет яблока будет для вас (в модели) зависит не от вас. И все)

Конечно, можно найти вопрос, на который не ответит правильно и человек, и найти правильные ответы у GPT. Но на вопрос сколько глаз у волка правильно ответить 100% людей и старше 4 лет, даже если его посадить в комнату без какого либо ещё контекста. Это говорит о том, что GPT просто угадывает ответы, а не "знает" их. Усвоив кучу теста, она хорошо прежде всего усвоила синтаксис и строит правильные предложения, так как синтаксические BPE встречаются чаще. Это не должно вводить в заблуждение, потому что с семантикой у нее все хуже, так как сочетаниями реже.
Кроме того ребенок усваивает картинку мира не только из статистики. Он правильно рассуждает и о том, что никогда не видел. В этом и отличие видимо — стоит модель мира как то иначе, не только по языковой модели.


С умыслом чуть не так. Обед дела э дело говорить о том, что заплачено на входе, другое, использовать слова как инструмент достижения цели. Смысл тут — это текст про текст, который не озвучивается.

По моему Вы с Михаилом подразумеваете в обсуждении разные «смыслы». Или не различаете их. Смысл слова (именно слова) как значение в чисто текстовой среде — «это употребление» (с) Витгенштейн. То есть контекст, в котором оно употребляется. С этим легко справляются дистрибутивные системы типа w2v. С этим все просто. Но есть «здравый смысл» (уже текста), о котором я писал как о проблеме. С этим в своих текстах GPT справляется… очень условно. Глаз у травинки все таки нет, это не «здравый смысл». С этим она не справляется по указанной мной причине — она она хорошо уловила грамматику текстов и складывает их как человек, но «картину мира» как совокупность возможного и невозможного в нем она не представляет совсем. Еще есть смысл-цель. Это когда текст следует какой-то задумке. Мы описываем такое значение совсем не теми словами, что сам «осмысливаемый» текст. Это «текст о тексте» как сказал не помню кто. Так вот этого в GPT нет от слова совсем. Она не может выдать текст с умыслом как мы. И в этом смысле это совсем не ИИ.
Подсчёт может вестись как для одновременно наблюдаемых объектов так и для их последовательности.

Но для этого нужна все таки память, иначе система будет считать «по одному». Нет?
Человек всегда генерит и оценивает текст в некотором контексте, а не использует статистику


По моему это очень точное замечание. Только вопрос, как влезть внутрь GPT, чтобы ограничить контекст?

Information

Rating
Does not participate
Location
Санкт-Петербург, Санкт-Петербург и область, Россия
Date of birth
Registered
Activity

Specialization

Chief Product Officer (CPO), ИИ агенты
Lead
From 500,000 ₽
Project management
People management
Development management