Information
- Rating
- Does not participate
- Location
- Санкт-Петербург, Санкт-Петербург и область, Россия
- Date of birth
- Registered
- Activity
Specialization
Chief Product Officer (CPO), ИИ агенты
Lead
From 500,000 ₽
Project management
People management
Development management
Вы уже забыли, о чем речь в этом пункте. Он не про понимание, а про ИИ.
Мы проверяем понимание не человека, а бота, для которого человек — проверяющий. Вы запутались, поэтому у вас противоречие. У меня его нет.
Опять голословно. Я считаю обязательными и пишу об этом.
Вот этим знание факта и отличается, к вашему сведению, от его понимания. Фактов много, понимание их может быть одно. И да, это не смысл. Смысл — это третье )
Во-первых, Словарь Ожогова вряд ли годится для определения понятия. Это все-таки словарь русского языка, его употребления, а не научное определение понятия. Во-вторых, если бы я хотел повторить чье-то определение, я вряд ли бы стал писать статью ) Конечно, я иду чуть дальше Ожогова, позволите? )))
:) Использовать 2+2=4 без знания математики можно ТОЛЬКО как написано и больше никак, а значит, не понимать, что это значит! Покажите это 4-х летнему ребенку, он может повторить эту надпись. Понимает он ее, не зная математику? Нет.
Когда вам показывают, что надо делать в ответ на эту абракадабру, это и есть „достраивание“, в знакомых вам действиях и предметах. И только тогда вы обретаете понимание этого абракадабры, и можете даже сами найти тряпку, если вам ее не дали. „Достроить“ ее необходимость, ибо поняли…
Это вы подошли к тому, что я вам объясняю, если все таки включили в определение слово „построение“. О нем и речь, что картины всей реальности у человека готовой нет, он ее для понимания налету создает. И если понял, может достроить сам недостающие или аналогичные примеры, которых не было в предъявленной „реальности“. Но данное вами определение слишком примитивно. Прям теория отражения Ульянова-Ленина. Оно не отвечает на вопрос, откуда мы знаем то, что не встречали.
И какой субъективности понятий я не вижу? Сможете пояснить? )
Возникает вопрос — вы о каком определении говорите? Я его не давал.
Нет. Совершенно неверно и ошибочно. Вы не сможете соединить А, В и С так, чтобы оно заработало, не понимая это соединение как целое на высшем уровне. Иначе вам придется столкнуться с факториалом вариантов соединения, учитывая количество даже слов — больше времени жизни вселенной.
Не говорите за всех. Вас не приближает, меня с коллегами приближает. Мост строится с двух сторон. Удачи ))
Разве тут речь про животных? ))
Откуда это следует? Мы пока априори считаем себя понимающими картину мира лучше ботов, это они не могут ответить на наши вопросы, а не мы на их. По моему это очевидно опять же.
Неверное утверждение. Знание факта не обязательно предполагает его понимание. Я знаю факт «asdnjks dogfae», это факт набора букв, и что? ))
Можете привести общепринятое определение? Даже интересно… )))
Это значит не понимать, а только знать (факт) и повторять его как есть.
Слова не могут быть поняты без контекста, без «употребления» как установил Витгенштейн. Поэтому, пока вам не показали, что по этому речевому акту следует мыть пол вот так (контекст), вы его не поняли. Я об этом понимании ровно и говорю. Действие только для ботов — это речь.
Во-первых, зрительная кора кошки известным автором, например, разобрана очень подробно и мы имеем успехи именно в распознании образов искусственными нейросетями. Во-вторых, именно для того чтобы понять как смоделировать высшие функции и надо рассуждать о них, разве нет? )
Создание все более сложных и мощных ансамблей нейронок без понимания того, о чем я пишу — это пальцем в небо. Может, конечно, повезти. Но надо бы и понимать куда копать.
Я не в курсе ваших статей
Ну а почему цель или ценность, выраженная в тексте, не может быть его смыслом? Смысл это любое суждение о тексте, его интерпретация (см. Герменевтика), но не сам текст
А по моему очевидно, что оно ниже и приведено в трех пунктах. Как вы узнаете еще у системы, что она понимает, ели она никак не отвечает? Это вроде очевидно, поэтому диалоговые. В общем, согласен, что за этой очевидностью такое вступление просто лишнее.
Для проверки нашего понимания нужен разум, который понимает больше, не встречал пока такого )
Вы приводите пример не понимания, а знания одного факта, что не является пониманием. Факты знает грубо говоря и винчестер, на котором он записан. Понимание же значит и как он получен, и как можно получить ДРУГИЕ примеры сложения, то есть достроить… Это означает понимать правила сложения, например. Именно так как Вы написали дальше "Достраивание того, что неизвестно, это уже результат логических рассуждений, для этого уже нужно иметь понимание известных фактов". Рассуждение и есть достраивание.
Почему вы так решили? С вами как минимум не согласны авторы Премии Лебнера.
Рад, что Вы присоединились к обсуждению, но прошу все таки, если пишите, что автор не прав, то пишите почему. Иначе это голословное личное мнение, не стоящее даже ответа
Это про первую цитату. Вторая аргументирована, поэтому отвечаю.
Правильность достраивания, конечно, проверяется по человеку, потому что априори принимается, что он такой способностью обладает, мы же свои способности по построению картины мира хотим смоделировать — они модельными и выступают.
Понимаете и есть правильное достраивание, которое возможно только если бот обладает знанием этого кусочка картины мира по крайней мере. Знание в данном случае и есть способность построения ответа, соответствующего картине мира.
Про китайскую комнату Вы не совсем правы. Человек, выполняющий инструкцию в китайской комнате, не понимает, а вся комната вместе с инструкцией вполне. Такова по крайней мере одна из современных интерпретаций этого эксперимента в философии.
А муравей, да, понимает, если правильно интерпретирует сигналы. Отличие только в том, что мы знаем, что понимаем, а он просто понимает )
// Но кто-то не поймёт, что такое "типичный", кто-то будет настаивать, что его мир фантазий вполне реален и т.п.
Вы считаете, что GPT просто очень креативная? )) Но вот что интересно, GPT не поймет, что не может выполнить задачу, опиши нетипичного волка, или какие могут быть волки в фантастическом мире. Она буквально возьмёт связи этих слов, а не примет их как задание, которому надо следовать в построении текста. Ваша ссылка про однократное обучение немного не о том.
Про семантику не поняли — GPT-3 пишет складно, но не имеет представление о семантике мира, том же здравом смысле. Иначе бы у волка небыло 4 глаз.
Все верно по тому что знаю я про саккады, за одним моментом — мы можем узнавать сцену и число объектов в ней в том числе сразу без саккад в объеме рабочей памяти. Она небольшая как Вы знаете наверняка (число Миллера). Прочитайте про чанки Саймона Г. в мышлении шахматистов.
// Что же тогда реально? Физические объекты и свойства реально существуют, как модели естественно.
Вы сами ответили — модели только и реальны. Ничего другого нам непосредственно не дано. Опять же по Канту. Но что же у модели от реального мира — так надо ставить вопрос. И ответ может быть такой: модель всегда вариативна. В моем всегда есть варианты. Так вот выбирает вариант как раз реальность через ощущения. В мозге есть все цвета, но какой цвет яблока будет для вас (в модели) зависит не от вас. И все)
Конечно, можно найти вопрос, на который не ответит правильно и человек, и найти правильные ответы у GPT. Но на вопрос сколько глаз у волка правильно ответить 100% людей и старше 4 лет, даже если его посадить в комнату без какого либо ещё контекста. Это говорит о том, что GPT просто угадывает ответы, а не "знает" их. Усвоив кучу теста, она хорошо прежде всего усвоила синтаксис и строит правильные предложения, так как синтаксические BPE встречаются чаще. Это не должно вводить в заблуждение, потому что с семантикой у нее все хуже, так как сочетаниями реже.
Кроме того ребенок усваивает картинку мира не только из статистики. Он правильно рассуждает и о том, что никогда не видел. В этом и отличие видимо — стоит модель мира как то иначе, не только по языковой модели.
С умыслом чуть не так. Обед дела э дело говорить о том, что заплачено на входе, другое, использовать слова как инструмент достижения цели. Смысл тут — это текст про текст, который не озвучивается.
Но для этого нужна все таки память, иначе система будет считать «по одному». Нет?
По моему это очень точное замечание. Только вопрос, как влезть внутрь GPT, чтобы ограничить контекст?