Как стать автором
Поиск
Написать публикацию
Обновить
8
9
Александр Хомяков @Xom

AI-agents, RAG, NLP, Philosophy AI

Отправить сообщение

В поисках алгоритма интеллекта — тезисы и комментарии. Часть 1

Уровень сложностиСредний
Время на прочтение5 мин
Количество просмотров992

В августе выходит моя книга по эпистемологии и философии науки “Пролегомены ко всякому знанию”. В книге представлен новая концепция конструктивизма, в которой разрешается его основная проблема - как внутренние конструкции ума согласованы с тем, что мы называем реальностью. Для этого мной описывается новая концепция интеллекта как способ создания согласованных моделей реальности. И по-новому интерпретируются такие функции интеллекта как аналогия, восприятие, мышление, память. Показывается, что базовой функцией интеллекта является многовариантный предикат как способ обнаружения изменений. И далее, как из многовариантных предикатов мы получаем схемы и целые модели, которые помогают распознавать что есть, предсказывать что может быть, а также отвечает на вопросы как мы познаем новое, будучи “слепыми” (ментально замкнутыми) и т.п. Все это описано в главах 3-5. Книгу можно сказать по ссылке .

В своих постах здесь я хочу дать комментарии к тем тезисам, которые как мне кажется будут интересны читателям Хабра. Начнем с первой главы.

Тезис

1.3.1. То, что на время написания этой книги называется искусственным интеллектом, таковым не является. Это не более чем вычислительная имитация за счет колоссального объема данных на все случаи, о которых может спросить обычный человек, с небольшой аппроксимацией между примерами. Но даже такая имитация не может нарисовать лошадь с пятью конечностями, что может даже шестилетний ребенок. Потому что даже в таких объемах данных нет всех вариантов композиции, к которой способен естественный интеллект. В основе нейронных сетей нет никакой теории знания.

Читать далее

Аналогия как базовая функция мышления

Уровень сложностиСредний
Время на прочтение15 мин
Количество просмотров1.1K

Это отрывок из большой статьи в журнале «Философские проблемы информационных технологий и киберпространства». В ней приводится критика современного теоретического представления об аналогии как структурного отображения (Д. Гентнер) с одной стороны и статистического метода получения аналогии «по контексту употребления» (Т. Миколов). Мы предлагаем иной метод получения аналогии, который основан на методе аналогии по предикатам (статья), что дает значительные преимущества. Во‑первых, ее легче получить в отличие от статистических методов, которые требуют обучения на большом корпусе. В нашем методе достаточно прим. 200 книг. Во‑вторых, это интерпретируемая и управляемая аналогия — всегда можно посмотреть, по каким предикатам получена аналогия и какие будут аналоги по другим предикатам. Это отправная точка исследования. Далее будет показана фундаментальная роль аналогии в нашем мышлении.

Читать далее

Почему LLM не мыслят как люди

Уровень сложностиСредний
Время на прочтение9 мин
Количество просмотров5.4K

Большие языковые модели в виде чат-ботов очень правдоподобно имитируют диалог как всезнающий собеседник и поэтому получили широкое распространение. Но даже Google в своем чат-боте Gemini не советуют доверять тому, что напишет чат-бот и просят проверять его ответы. В данном обзоре будут проанализированы различные типы ошибок LLM такие как проклятие инверсии, обработка чисел и др., чтобы выявить их причины. Такой анализ привел к выводу об общих причинах ошибок, заключающемся в том, что трансформеры не обладают глубокой аналогией, абстракцией и избирательностью контента, учитываемого в вычислении ответа (inference). Но наиболее важным выводом является то, что трансформеры, как и другие нейросети, построены по концепции обработки входного сигнала, что создает сильную зависимость от нерелевантной информации, которую не может компенсировать слой внимания трансформера. Концепция нейросетей была заложена в 50-х идеей перцептрона Ф. Розенблата и не учитывала тех достижений когнитивной психологии, которые появились позже. Согласно же конструктивисткой парадигме, входной слов (или перцепция) является только способом проверки правильности сконструированной предиктивной модели для возможных ситуаций. Это же служит причиной самой большой проблемы трансформеров, называемой галлюцинациями. И устранение ее возможно только при изменении архитектуры нейросети, а не за счет большего количества данных в обучении.

Но это далеко не все проблемы, которые непреодолимы трансформерами без помощи людей. Это и проблемы с логикой, и с вычислениями в больших последовательностях, и следование правилам, и, конечно-же, галлюцинации. Таки примеры и будут проанализированы в статье. Отсюда следует все чаще звучащий тезис о том, что необходимо искать новую архитектуру для создания поистине интеллектуальных систем. Эта статья посвящена поиску тех архитектурных принципов, которые могу приоткрыть путь к новой архитектуре. И в этом нам помогут как раз те ошибки трансформеров, которые описаны исследователями. Они прямо указывают на те принципиальные недостатки, причины которых могут быть как раз в отсутствии необходимых функций и структур нейросети. И цель исследования состоит в том, чтобы проанализировать такие ошибки «мышления» трансформеров, чтобы предположить, каких способностей не хватает трансформерам.

Читать далее

О понимании в искусственном интеллекте

Время на прочтение5 мин
Количество просмотров5.4K
Искусственный интеллект сейчас представляется различными системами, но о понимании можно говорить только в диалоговых системах Искусственного Интеллекта (ИИ). И сама тема понимания в ИИ сводится к нескольким аспектам диалогового взаимодействия искусственного агента с человеком:

  1. Порождаемые диалоговой системой тексты отвечают «здравому смыслу».
  2. Ответы системы соответствуют контексту диалога и ожиданиям человека.
  3. Понимание целей, намерений высказываний человека в диалоге.

Понимания смысла в полной мере нельзя отнести к теме понимания контекста диалога, так как смысл высказывания собеседника может быть по-разному интерпретирован, и какой интерпретации должно соответствовать состояние понимания, не ясно. Можно ли «ошибки» по мнению собеседника (человека) интерпретировать как иное понимание смысла выражения системой? В большей степени понимания смысла относится к пониманию намерений и целей высказывания, а это отдельная тема theory of mind. «Здравый смысл» как критерий понимания можно интерпретировать точнее. В общем смысле это соответствие ответа картине мира, что поддается проверке. И на сегодня это является лучшим критерием понимания искусственными агентами, такими как диалоговые боты, контекста диалога. Но пока в этом боты не демонстрируют успехи.

Анализ подходов


Релевантный ответ является самым простым критерием понимания ботом собеседника (человека). Но этот критерий легко «подделать», что ни раз демонстрировалось участниками Премии Лёбнера. Он достигается закладыванием большого числа вариативных шаблонов ответов на распознаваемые нейронной сетью «интентов». Это трудно назвать пониманием. Но и успехи таких ботов скромны – смешанные интенты они распознают крайне плохо. Один вопрос вне тем шаблонов и система проваливается. Это легко проверить на таких ботах как Алиса от Яндекс и Siri от Apple. Можно сказать, что знания мира у таких систем фрагментарны.
Читать дальше →

Чего не хватает ИИ?

Время на прочтение3 мин
Количество просмотров7.7K
Это пост-вопрос, в нем я попробовал сформулировать основные проблемы нейросетей, решение которых может сделать прорыв в технологии ИИ. В основном речь о сетях, что работают с текстом (GPT, BERT, ELMO и т.п.). Как известно, хорошая формулировка задачи — половина ее решения. Но сам я эти решения найти не могу. Надеюсь на «помощь зала», так как тут много тех, кто сталкивается с такими же проблемами и возможно «видит» их решение.

Итак.

1. Самое казалось бы простое, но нейросеть не учитывает факты. Нейросеть выучивается на частных фактах, но как бы не знает о них. На когнитивном языке NN обладает семантической, а не эпизодической памятью грубо говоря.
Читать дальше →

Можно ли запрограммировать произвольность?

Время на прочтение6 мин
Количество просмотров3.4K

В чем различие человека и программы


Нейронные сети, которые и составляют сейчас практически всю область искусственного интеллекта, могут учитывать в принятии решения гораздо больше факторов, чем человек, делать это быстрее и в большинстве случаев более точно. Но программы действуют только так как их запрограммировали или обучили. Они могут быть очень сложными, учитывать много факторов и действовать очень вариативно. Но все равно не могут заменить человека в принятии решений. Чем же отличается от такой программы человек? Здесь надо отметить 3 ключевых отличия, из которых вытекают все прочие:

  1. Человек обладает картиной мира, которая позволяет ему по части информации дополнять картину такими данными, которые не прописаны в программе. Кроме того, картина мира структурно устроена так, что позволяет нам иметь хоть какое-то представление обо всем. Даже если это нечто круглое и светится в небе (НЛО). Обычно для этого строят онтологии, но онтологии не обладают такой полнотой, плохо учитывают многозначность понятий, их взаимное влияние и пока применимы только в строго ограниченных темах.
  2. Человек обладает логикой, которая учитывает эту картину мира, что нами называется здравым смыслом или common sense. Любое утверждение обладает смыслом, и учитывает скрытые недекларированные знания. Несмотря на то, что законам логики много сот лет, никто до сих пор не знает, как функционирует обычная, не математическая, логика рассуждений. Мы по сути не знаем как запрограммировать даже обычные силлогизмы.
  3. Произвольность. Программы не обладают произвольностью. Это пожалуй самое сложное из всех трех отличий. Что мы называем произвольностью? Возможность построить новое поведение, отличное от того, что мы выполняли при тех же обстоятелствах ранее, или построить поведение в новых, не встречавшихся ранее обстоятелствах. То есть по сути это создание на ходу новой программы поведения без проб и ошибок с учетом новых, в том числе внутренних, обстоятельств.
Читать дальше →

«Высший разум». Информация в мозге

Время на прочтение5 мин
Количество просмотров2.6K

Решил опубликовать еще один отрывок из рассказа "Высший разум", который тоже касается обсуждаемого на Хабре — обработка информации. В нем изложен несколько неожиданный взгляд на поток информации в мозге, чем принят в программировании. Но не спешите критиковать, это просто попытка иначе взглянуть на то, что порой кажется известным и само собой разумеющимся. Сразу замечу, что этот подход основан на когнитивной психологии. Буду рад интересным мнениям, так как вопрос открыт.


  • Эми, я столкнулся с проблемой. Как создавать модели? Информации от объектов явно недостаточно. И она зашумлена. Надо очень много предъявлений, чтобы корректно обучить модель.
  • Модель не создается по информации от предмета. Она уже есть в мозге. Только тогда информацию, как ты говоришь, можно «принять», то есть выбрать вариант этой модели. Каждый предмет, ситуация, факт, явление – это только вариант более общей модели. И сама модель состоит из других моделей. Как предложение, описывающее предмет, из слов, служащих для описания не только этого экземпляра. Тебе надо разобраться в этом.
  • Подожди, то есть, по-твоему, наши представления строятся не из информации от предмета?
  • Если бы это было так, то ты бы видел в цвете только маленький круг в фокальной зоне (в фокусе внимания), все остальное вокруг было бы для тебя в оттенках серого. Так устроена сетчатка, как ты знаешь. Информация о предмете всегда неполная, но вы видите предмет всегда полностью. Потому что информация от предмета только активирует вариант модели, которая уже есть в мозге.
  • Как так, не понял? Как работает мозг тогда?
  • Так же как вы решаете уравнения. В уравнении уже установлены отношения между переменными. И вам обычно не известны все переменные сразу. Вы подставляете одни, чтобы найти другие. И в итоге приходите к решению. К одному из решений, то есть варианту модели при данных переменных. Примерно так же это происходит и в мозге, только модели более сложные, распределенные и многомодальные.
Читать дальше →

«Высший разум». Формула сознания

Время на прочтение11 мин
Количество просмотров5K

Последний отрывок из рассказа "Высший разум". В этот раз некая "претензия" на формулу сознания с объяснением его происхождения. Сразу хочу отметить, что все приведенные тезисы основаны на современных научных данных (когнитивных наук). И все равно, это мое мнение, не претендую на абсолютную истину и ни с кем не спорю. Каждый вправе иметь свое мнение, но чужие мнения мне интересны, если в них есть ценная мысль, которая поможет продвинуть и меня в поисках. Итак:


  • Эми, самый главный вопрос — что такое сознание? Как сделать так, чтобы запрограммированные процессы породили свет сознания? А робот вдруг стал осознавать то, что он видит?!
  • Это достаточно просто.
  • Как просто? Не может быть.
  • Это так. Если ты сравнишь бессознательное и сознательно, то второе отличается тем, что ты помнишь его как свое действие. Ты помнишь, что это осознавал ты в отличие от бессознательных действий. Так? Что это значит по-твоему?
  • Не знаю, но кажется догадываюсь, к чему ты клонишь – помним о своих действиях?
  • Да, это значит, что после совершения действия, например, узнавания чего-либо, вы еще распознаете свое узнавание как свое действие. И вписываете их в память о себе — в автобиографическую память, связанную в единую цепочку времени местоимением "Я" как стихотворения рифмой.
  • Не понимаю пока, о чем ты.
  • Ты осознаешь, не когда начинаешь испытывать чувства к понравившейся картине, а когда распознаешь эти чувства в себе, как свои! Вот ты входишь в музей, видишь картину Красный квадрат. Твой мозг сначала распознает, что это красное и квадрат. Ничего особенного, это может сделать и нейросеть. Но через мгновение распознаешь то, что это ты смотришь на картину «из глаз» и распознал на ней красный квадрат. Ты знаешь, что это распознание является твоим, что сопровождается чувством «знакомости». Вот при втором действии возникает чувство осознанности.
Читать дальше →

«Высший разум». Пределы в создании искусственного интеллекта

Время на прочтение6 мин
Количество просмотров8.8K

Продолжаю публиковать отрывки из книги "Высший разум". Теперь о том, почему мы так далеки от действительного искусственного интеллекта. И не факт, что сможем его достигнуть.



— Ты знаешь, что мы тоже работали над созданием искусственного интеллекта?
— Ваши разработки еще очень далеки до того, что можно назвать интеллектом. Ваши нейросети – это пока не более чем классификаторы сложных паттернов, которые выбирают какой-то из выходов сети, но совершенно не знают о нем ничего более чем о точке выхода. Это вы интерпретируете выход как «лошадь», а не сеть, распознающая ее картинку. Сеть о ней ничего не знает. Это не интеллект.


  • Поясни. Не понял этот тезис.
  • Вам кажется, что вы сделали нейросеть, которая как человек распознает образы. Она может различить лошадь и пароход. Но нейросеть не может различить, например, две лошади так, чтобы назвать их произвольное отличие. Мозг отличается именно аналитической функцией, то, что вы называете common sense.
  • Но нейросети уже многое могут то, что раньше мог только человек. Разве это не интеллект?
  • Самый совершенный ваш автопилот не может действовать так же эффективно как обычная пчела. Пчела летает без помощи дорожной разметки и ориентируется без GPS. А пчела — это насекомое, самое начало эволюции нейронных систем. Вы находитесь где-то на том же шаге в разработке интеллекта. И достигаете результата только за счет больших масштабов.

Кстати, обученные вами нейросети, с подкреплением особенно, похожи на выработку врожденных инстинктов у насекомых. Только время их выработки вы сумели сжать до нескольких часов вместо тысячи лет, собрав датасет из картинок, которые жучок может увидеть только за сотню поколений. Но поменять инстинктивное поведение обученной сети вы уже не можете, как и жучок свои инстинкты. Это тот уровень, которого вы достигли. А интеллект – это память, внимание, мышление, воображение и, в конце концов, сознание. Вы даже не знаете еще, что это такое, но думаете, что можете создать их. Это очень странно.

Читать дальше →

Роботы и коммунизм

Время на прочтение5 мин
Количество просмотров8.5K
Мы с трудом обеспечиваем себя, зарабатывая себе на жизнь. Потому что заработать надо не только на себя, но и на наших иждивенцев – стариков, инвалидов, детей. Мы это делаем из солидарности с людьми. Но скоро мы все можем стать иждивенцами роботов. И большой вопрос: останутся ли солидарными с нами их хозяева? Замена ручного и большинства умственного труда на автоматизированный – вопрос времени. С появлением новых технологий нейросетей был преодолен важный рубеж – автоматизирована чисто человеческая способность обучаться различным умениям. Нейросети могут научиться всему, к чему мы сумеем их приладить.

Робот, обученный нейросетью, намного производительнее человека, не нуждается в спальне и офисе, больничном и отпуске, работает 24/7, а не 8/5. Поэтому он может обеспечить не одного, а несколько иждивенцев. Робота необходимо поддерживать в рабочем состоянии, ремонтировать, перенастраивать. Это стоит денег. Человек все это делает с собой сам, но ему для этого надо платить зарплату каждый месяц, а не только когда он сломается. Роботы – идеальные работники, полностью подчиняющиеся хозяину. Они не бастуют, не спорят, не мучаются проблемой выбора, быстро переобучаются на новый рабочий процесс.
Читать дальше →

Нейропоэт и другие попзвезды будущего

Время на прочтение2 мин
Количество просмотров3.2K
В сети все больше появляется работ по рекуррентным и генеративными нейросетям, сносно справляющимся с такими задачами как сочинение стихов, генерация музыки и рисование картин (см. программы стилизации). Странно, что автоматизации при помощи нейросетей быстрее поддается как раз то, что казалось самым неподдающейся и чисто человеческим талантом — творчество. А вот научиться тому, что ловко делает любая животинка — двигаться в пространстве и манипулировать предметами — с этим как-то до сих пор плохо.

Но в любом случае миф прошлого века, что мы будем заниматься творчеством, а машины работать за нас («вкалывают роботы, а не человек» (с) Приключения электроника), как то рушится на глазах. Творчеством похоже будут как раз заниматься роботы, а вот мы, чернь, будем вкалывать на него, чтобы послушать его сладкие слуху песни и стихи. Бред? Но нейросеть уже сочиняет что-то не менее абсурдное, чем некоторые поэты. И в итоге наверняка научиться делать это лучше любого человека. Причем в разных стилях и направлениях. И мы не сможем это игнорировать — лучшее будет нам интереснее. Попзвездами совсем не отдаленного будущего будут не люди, а аватары с экрана, за которыми нейропоэт (бот), раздающий «автографы» в соцсети («тебе с приветом от нейропоэта»). Реалистичность 3D в кино позволяют представить видеотрансляции таких звезд с концертами, которых небыло в реальности.
Читать дальше →

Нейроинтеллект или миф?

Время на прочтение4 мин
Количество просмотров12K
Эра нейросетевого искусственного интеллекта в самом разгаре! Настоящий прорыв за последние годы — нейросети распознают не только речь, картинки с животными, сложные сцены, но даже описывают их словами! (NeuralTalk). На нейросетях делают боты, которые пока плохо, но уже что-то отвечают. Нейросети сочиняют музыку и пишут стихи. По сценарию нейросети даже собираются снять фильм! Скоро, пророчат журналисты, совсем скоро они буду управлять машинами, банками, корпорациями, странами. «И все будут летать на дилижансах» — так мечтали в начале прошлого века. Так мечтает сейчас о нейросетевом будущем его создатели. Говорят, что они скоро обгонят человека во всем. Нейросети уже обыграли человека в шахматы, го, в Jaopardy (Своя игра). И поэтому они называют свои творения не меньше, чем Искусственный интеллект. Распознал лошадь на картинке — искусственный интеллект. Почему интеллект? Потому что раньше это умел делать только человек. Странно, почему тогда ранее искусственным интеллектом не назвали калькулятор. Верно ли тогда так называть нейросети?

Конечно, нейросеть на порядки сложнее калькулятора. Но, если посмотреть на итог работы нейросети без предвосхищения интеллекта, это просто классификатор! Причем регрессивного характера — множество входов она сводит к выбору нескольких вариантов (кроме ассоциативных сетей и машины Больцмана). Реле, только с более сложным входом. Мне казалось, что интеллект — это как минимум способность рассуждать. И пока ни одна сеть не может построить хотя бы простейший силлогизм, называть ее интеллектом, мягко говоря, рановато. Я уж не говорю о более сложных задачах. Например,
Читать дальше →

Информация

В рейтинге
1 807-й
Откуда
Санкт-Петербург, Санкт-Петербург и область, Россия
Дата рождения
Зарегистрирован
Активность

Специализация

Chief Product Officer (CPO), ИИ агенты
Lead
От 500 000 ₽
Project management
People management
Development management