Pull to refresh

Comments 124

Зачем нужна такая странная картинка для IT-ресурса?
По-моему фотка анарексички хорошо описывает состояние ИИ в данный момент.
Ну да ладно, и в правду страшная. Уже убрал
[offtop]какой же ужас у вас на картинке...[/offtop]
«чем кормить ИИ» — об этом ещё писал Алан Тьюринг в 1952 году и Иван Петрович Павлов в начале XX века.

Любое живое существо или ИИ осмысляют ошибочные действия и действия, выходящие за рамки комфортного алгоритма. Если ошибок нет, то данную информацию разум не осмысляет и не может ей оперировать, т.к. алгоритм всё равно приведёт к желаемому результату. Отсюда вывод:
— Чтобы научить кого-то или что-то надо постоянно сталкивать кого-то или что-то с ошибками или нестандартными явлениями.

Тупо запихивая в память всю информацию, Вы получите библиотеку, а не ИИ.
Само-собой, на ошибках учатся, но это уже детали.
В рамках этого топика я хотел обсудить только требуемое количество информации.
Вы измеряете информацию в простом количестве сенсоров и времени их реакции. То, что эта информация фильтруется и преобразуется, подавая на вход сознанию гораздо меньший набор распознанных образов, вы как то не учли. Да и вообще, некорректно сравнивать приведенные вами числа как необходимые входные данные для ИИ, который только распознает образы во входном сигнале, и ИИ, который на основе полученных образов и памяти принимает решения. В первом случае имеем низкую значимость единицы информации и быструю обратную связь, во втором — наоборот.
Пока у нас нет опыта, создать ИИ можно, по большому счету только случайно.

Так же как для создания жизни потребовался полигон размером с галактику, и только на одной планете в одном месте аминокислоты сложились правильно.
Я не спорю, что возможно было сложить их вручную, но для этого нужно знать как.
Вы знаете? Я нет, поэтому предлагаю принять мое ограничение.
Это повысит шансы на создание ИИ.

Умение систематизировать и обобщать информацию — неотъемлимое требование к ИИ, но он должен обобщать информацию от разных задач, собирая все воедино и находя общие черты.

Программу, которая может только распознавать картинку, я бы не стал называть интеллектом, хотя да, её можно построить и с меньшими затратами данных. Я приводил данные для сильного ИИ.
Насчет библиотеки — информация должна быть актуальной, т.е. полученной последовательно в ответ на действия. А ограниченная память заставит уже искать правила и обобщать. Но опять же, это детали.
Любое живое существо или ИИ осмысляют ошибочные действия и действия, выходящие за рамки комфортного алгоритма.

Вот интересный момент, на мой взгляд. Если взять в пример человеческий организм, то мы имеем мощную нервную систему, которая посылает различные сигналы в мозг. Как раз на примере нервной системы можно сказать об эмпирическом обучении (свои ошибки). То есть организм состоит из конечного числа органов, которые посылают определённые сигналы при определённых условиях. И, например, съев какое-то растение и почувствовав боль в желудке, человек уже сознаёт, что тут что-то неладное, а значит это растение не позитивно влияет на состояние организма — вызывает дискомфорт.
Самый примитивный способ обучения — это решение задач на исключение дискомфорта в текущий момент времени.
Можно также вспомнить про такие понятия как эгоизм и альтруизм. То есть крайний эгоизм — это стремление любыми способами избавиться от дискомфорта. Альтруизм же допускает присутствие дискомфорта и это интеллект оправдывает какими-то мыслями (информацией).
И вот подходим к тому, что у любого интеллекта должен быть некоторый базис «органов» (можно даже сказать о модулях), которые будут некоторым образом создавать условия для прогресса интеллекта, то есть посылать некоторую информацию исходя из условий, в которых находятся они.
Смысл вашего топика можно выразить одним предложением: «Для обучения ИИ нужна информация». Спасибо, кэп!
Нет.
1) Много, нет, ОЧЕНЬ МНОГО информации.
2) И не любой, а с обратной связью.
Я очень рад, что не все поняли топик в стиле кэпа, спасибо
Тоже хотел написать такой топик :). Очень интересный вопрос, создание ИИ без робототехники невозможно. Ну кроме как в компьютерной симуляции, что опять же приходит к тому, что нужно сначала создать ИИ — то есть понять себя.
Это зависит от того, что вы называете ИИ. Понятно, что для ИИ нужна среда, с которой он будет взаимодействовать. Понятно, что эта среда будет определять его мышление чуть менее, чем полностью. Я считаю, что создание ИИ возможно и без робототехники, и без симуляции реального мира, но общаться с таким ИИ придётся на нечеловеческом языке.
кота Шредингера? ядом конечно :)
А как правильно посчитать сколько бит тот или иной канал восприятия? Откуда берется такая оценка?
Данные собраны на просторах интернета. Чтобы оценить порядок величин:

Зрение:
ru.wikipedia.org/wiki/%D0%9F%D0%B0%D0%BB%D0%BE%D1%87%D0%BA%D0%B8_%28%D1%81%D0%B5%D1%82%D1%87%D0%B0%D1%82%D0%BA%D0%B0%29
палочек 120 миллионов
ru.wikipedia.org/wiki/%D0%9A%D0%BE%D0%BB%D0%B1%D0%BE%D1%87%D0%BA%D0%B8
колбочек 6-7 миллионов
Предположим, что сознательно человек видит только 24 кадра в секунду
Тогда для монохромного цвета получаем 2.9 млрд сигналов\сек
Для цветного зрения примерно 156 млн сигналов\сек
Это максимально возможный поток информации, который может передать сетчатка.

Тактильные ощущения — www.rostmaster.ru/lib/surgob/surgob-0010.shtml
болевых рецепторов около 3 миллионов
www.kabanik.ru/page/no-face-so-skin
Тактильных рецепторов около 19 тысяч
Рецепторов холода 250 тысяч
рецепторов тепла 30 тысяч
Общее количество рецепторов около 3.3 млн
Данных о частоте посылки ими сигнала я не нашел, что информация считывается около 10 раз в секунду
Тогда кожа посылает 33 млн сигналов\секунду

Слух — window.edu.ru/window_catalog/pdf2txt?p_id=11763
разрешающая способность слуха примерно 0.5%
ru.wikipedia.org/wiki/%D0%A1%D0%BB%D1%83%D1%85
До 130 раз в секунду
Что Соответствует (1\0.05)*130 = 200*130 = 26 тысяч сигналов в секунду.
И это уже на основе осознаваемой мозгом информации,
Информация получаемая самой улиткой значительно обширнее.
Вообще в той же википедии написано, что мышцы глаза сокращаются ~120 раз в секунду, тем самым увеличивая размер зоны резкости. Поэтому 24 — это условно. На деле от 120. Так что пересчитайте данные и получите от зрения колосальные объемы информации.
Можно так же учесть, что каждый нейрон отправляя сигнал передает значительно больше одного бита, что так же много информации передается химическим путем через окружение клетки, таких дополнений можно сделать довольно много. Информация данная выше — всего лишь для оценки порядка количества информации.

Пересчитывать придется слишком много раз.
«вряд ли можно построить ИИ на основе запаха»
А почему бы и нет? Можно ведь реализовать к примеру распознавание человека по запаху или распознавание химического состава веществ.
Собственно можно было бы автоматизировать работу дегустаторов вин и парфюма.
Рентгеновское зрение и широкополосный радиослух…
На основе запаха нельзя выполнить общение, нельзя дать такому ИИ обратную реакцию. Дегустатор это скорее экспертная система, а не полноценный ИИ, согласитесь.
В живой природе огромное количество видов общаются с помощью запаха. Муравьи феромонами обеспечивают слаженную работу своих многотысячных «сообществ».
С размером муравья запах распространяется достаточно быстро, доли секунды, к тому же они буквально соприкасаются усиками для обмена запахами. Я не говорю о том, что это в принципе не возможно, но с данным уровнем развития техники это не осуществимо. Вам необходимо обучать ИИ на основе уже существующей модели общества, иначе ему будет просто не с кем говорить.
Почему нельзя выполнить общение на основе нюха, а на основе зрения можно?
Объем поступающей информации сильно преувеличен. Особенно по зрению. Дело в том, что обработка первичных «растровых» видеоданных начинается уже в сетчатке, на периферии зрительной коры идет дальнейшее преобразование «растровых» видеоданных в «вектор». Выделяются границы областей, линии, края и т.д. Этот этап уже достаточно хорошо изучен. С точки зрения интеллекта эта обработка производится «аппаратно». На уровень мышления поступает уже структурированная информация гораздо меньшего объема.
Постобработка сигнала происходит, но согласитесь, производить такую обработку аппаратно сложно, потому что сложно понять что именно хочет получить на свой вход нейронная сеть, что для неё удобно. Обработка которая идет в сетчатке построена примерно на тех же принципах, что и обработка сигналов в мозгу (возбудится в случае, если линия вертикальная, например), поэтому я посчитал этот процесс частью работы нейронной сети.
Что касается цифр, то можно приводить только различные оценки, конкретныe цифры даже в относительно широком диапазоне можно получить лишь тогда, когда будет ясен формат приема информации.
Спасибо за статью. А подскажите программы для создания ИИ. Для нейронных сетей тоже хотел бы пощупать программу
sharpneat.sourceforge.net/screenshots.htm
Например, эта программа позволяет создавать нейронные сети и обучать их

Программы для ИИ пока не существует, хотя очень бы хотелось посмотреть на неё самому
честно говоря я так и подумал, но решил проверить, спасибо вам
Программа для создания ии давно существует!
Для win-based систем это MASM, для nix-based это gas ^_^
Если с этим плохо, можете попробовать воспользоваться компилятором c/c++ под нужную Вам ОС)
>Зрение — 10^6 бит/сек
Странное число. Разрешение человеческого глаза, на сколько я помню, порядка 22 мегапикселей, хотя самим глазом данный объем сжимается до примерно одного миллиона «пикселей»(на самом деле это уже не непосредственное изображение а некая информация)
Фильтрация информации — одна из задач ИИ, первый шаг с сознанию
Я бы сказал даже не шаг а эффективный механизм. Но цифра все-таки весьма странная.
Я бы не стал однозначно выводить зависимость развитости интеллекта от количества получаемой информации. Например, Ольга Ивановна Скороходова была слепоглухонемой женщиной, при этом учёным и писателем, т.е. с определенной точки зрения она обладала даже более развитым интеллектом, чем некоторые физически полноценные люди.

Конечно входящая информация важна, но гораздо важнее процессы внутренней критической обработки этой информации. В конце концов сам интеллект способен генерировать информацию (придумывать, фантазировать) в неограниченных масштабах, вопрос в том насколько это осмысленный и критически воспринимаемый самым интеллектом процесс.
«Вследствие перенесённого в 5-летнем возрасте менингита утратила зрение, затем слух». В пять лет интеллект как-бы уже сформировался. Ну в смысле сформировались сознание и т.п. Слепоглухонемой новорожденный обречен быть почти животным, а если убрать еще и тактильные ощущения, то вообще растением.
Про запах вы абсолютно неправы. Общение насекомых, например, в очень большой части происходить за счет выделяемых ферментов, которые как раз посредством аналогии обоняния и воспринимаются. Это справедливо и для многих-многих млекопитающих. В том числе и для человека, не смотря на то, что большинство обонятельной информации, как считается на данный момент, воспринимается человеком без участия сознания.

Мне всегда интересно читать такие посты, потому что я просто не понимаю как можно говорить вот о таких проблемах, когда на самом деле есть другие реальные проблемы. Обеспечить ИИ информацией — это не проблема. Обеспечить ИИ механизмов консолидации, интерпретации и «выучивания» этой информации — вот это проблема. Это если просто про декларативную память говорить. А процедурная память — это ведь еще интереснее.
(Про насекомых можете посмотреть ответ выше)
Нейронная сеть — простой пример процедурной памяти.

Да, понимание информации это тоже важная часть, но согласитесь, оно значительно сложнее, и вряд ли его можно обсуждать в данном контексте.
Что значит нейронная сеть — «простой пример процедурной памяти»?
Формальная нейронная сеть (которую мы имеем сейчас) не имеет никакого отношения к процедурной памяти. Формальная нейронная сеть — это хороший пример рефлекторной дуги.
Процедурная память — запоминание того, как нужно что-то делать.
Рефлекс — стереотипная реакция живого организма на определенное воздействие.

Даже если забыть, что процедурную память сравнивают с моторикой
и опуститься до уровня рефлексов, чем отличается программа рефлекса
«если (условие), то (действие)», от процедурной памяти «если (объект), то (действие)»?
не забывайте о времени. Рефлекс, то есть низкоуровневый метапринт, должен действовать примерно так: «если за время k приходит сенсорика , то при выполнении за время t действий <vector_motion> на вход начнет приходить сенсорика <vector_result> за время T и с вероятностью P, достаточно большой, чтобы считать рефлекс (метапринт) безусловно подлежащим исполнению».
способ «как что-то делать» так же предполагает действие в ответ на входную инфорамцию в каких-то определенных пределах времени. В остальное время как процедурная память так и рефлекс может хранится без использования.

При достаточном усложнении рефлекс может использовать большие временные интервалы, как и при способе «как что-то делать».

Разница минимальна.
Полнейший бред. Сравниваются совершенно несравнимые параметры. Поступающая информация ни как не может быть определена числовыми характеристиками. Ценность информации исключительно в ее информационной наполненности.

Вот смотрите. По заявлению автора зрение дает 10^6 бит/сек. Представим среднестатистического человека, читающего среднестатистическую книжку в 300 страниц. Читающего без перерыва на еду, туалет, сон и секс. Допустим, что на это уйдут сутки. Получаем 24*60*60*10^6 бит = 864000^6 бит входящей информации.

В тоже самое время, в текстовом цифровом формате без потери качества этот объем вряд ли превысит 1 мегабайт.

Так что пост для падких до жонглирования цифрами и не утруждающих себя мысленным процессом лиц. Для остальных все приведенные доводы — абсурд.
То есть 86400*10^6 бит. Что тоже вполне внушительно =)
Судя по вашей логике, если мне скажут слово из 10 букв, то объем полученной информации будет 10 байт? А как же тембр, интонация, громкость? Я могу по произнесенному слову узнать человека, если это мой знакомый. 10 байт явно не достаточно, чтобы узнать человека по голосу. Понятно, что большая часть информации отсеивается и забывается. Даже при том же чтении запоминается только 10-20% от прочтенной информации. Так же при чтении я вижу перед собой книгу, страницы, вижу, частично, что происходит вокруг меня. Анализируется информация об окружающем мире, чтобы кто-нибудь нехороший не подошел пока ты читаешь и не стукнул тебя чем-то тяжелым.
Это совершенно не противоречит моей логике. Я привел в пример книгу, которая состоит из набора строго определенного набора букв, которые в совокупности точно передают составленные из них слова, а те, в свою очередь, выстраиваются в предложения, абзацы, главы и т.д. И книгу я привел именно для того, чтобы показать, что один и тот же объем информации можно представить в разном виде. С одной стороны, это может быть 86400*10^6 бит зрительной информации, а с другой — мегабайт цифровой.

То, что происходит вокруг вас, к читаемой вами книге не имеет ни малейшего отношения. Это уже другие потоки информации, обрабатываемые вашим мозгом параллельно с чтением книги.

По поводу сказанных вслух 10 букв — тут уже другой уровень получения информации, тут учитывается и тембр, и интонация, и громкость, другими словами *смысловой* поток информации уже сильно превышает 10 байт.

Если пойти далее, то можно представить, что книгу вам может начитывать голосовой синтезатор без всяких интонаций. Просто механический голос. В этом случае и голосовой метод передачи данных тоже будет сильно уступать цифровому в плане объема информации и ни чем не превосходить по ее качеству.

Это так же доказывает, что мерить информацию по широте потока в битах/сек не верно. Информация имеет свою логическую ценность, ни как не привязанную к входящему потоку. И, само собой разумеется, чем больше ИИ давать именно этой логической ценности, тем он быстрее будет обучаться, но привязывать это к численным параметрам входящего протокола в корне не верно.
Любую информацию можно измерить, к счастью теорию информации разработали до нас.
Вы можете измерять информацию в текстовом варианте, и она действительно будет умещена более компактно, но для ИИ необходимы полутона и скрытые смыслы, чтобы находить нечто общее между всем.

Не понимаю, чем вам так не нравится то, что информацию можно уложить в книгу? мы ведь думаем сигналами, а не буквами, поэтому я опирался на наш способ мышления и на наш способ получения информации (зрение, а не консольная строка).
Т.е. вы хотите сказать, что в напечатанной на бумаге книге больше информации, в ней больше полутонов, больше скрытых смыслов, чем в электронной версии той же самой книги?
Чтение на уроке в школе, на неудобном стуле, под пристальным надзором, и чтение дома в личном пространстве, расслабившись где-нибудь на подоконнике или на кровати, совершенно разные ощущения и отношение к прочитанному, не находите?
Да, разные. А еще знаете как бывает… Пациентам психиатрических клиник показывают картинку из набора кружочков, а они усматривают в них порносцены. У меня складывается впечатление, что вы путаете понятие «сознание» и «интеллект», которые, не смотря на внешнее сходство, по сути совершенно разные вещи.
О! про психов!
Отличный пример того, как из одной и той же информации(по вашему), можно извлечь совершенно разные толкования.

В рамках данного топика я говорю о сильном ИИ, который подразумевает наличие сознания, не обязательно подобного человеческому.
Разные, но не потому, что в книге разная информация, а потому, что обстановка — это тоже информация. «Информационный шум».

В книге информация одна и та же, где бы её ни читали.
Не важно электронная книга или бумажная, не важен объем информации в книге, он относительно мал. Важно, что во время чтения мы воспринимаем и обрабатываем большой объем информации.
Чтение в вашем примере можно сравнить не с текстовым файлом, объем которого небольшой, а скорее с HD-видео. Все таки мы воспринимаем в данном случае графическую информацию посредством глаз. Заметьте я не говорю про объем полезной усвоенной или нет информации, а об объеме всего информационного потока.
То, что происходит вокруг вас, к читаемой вами книге не имеет ни малейшего отношения. Это уже другие потоки информации, обрабатываемые вашим мозгом параллельно с чтением книги.

Мы говорим о разных вещах. Вы говорите об объеме информации в книге, я говорю про объем общего потока, который обрабатывает мозг. То, что вокруг меня кто-то ходит к книге отношения не имеет. Но после прочтения книги я буду помнить, что вокруг меня ходили.

Если пойти далее, то можно представить, что книгу вам может начитывать голосовой синтезатор без всяких интонаций. Просто механический голос. В этом случае и голосовой метод передачи данных тоже будет сильно уступать цифровому в плане объема информации и ни чем не превосходить по ее качеству.

Говоря вашими терминами цифровой информации запись механического голоса будет занимать, например, на жестком диске меньше места чем текстовой файл? Интересное утверждение

Это так же доказывает, что мерить информацию по широте потока в битах/сек не верно.

Очень напоминает софизм. Я бы рассмотрел подробнее причинно-следственные связи
> Мы говорим о разных вещах. Вы говорите об объеме информации в книге, я говорю про объем общего потока, который обрабатывает мозг. То, что вокруг меня кто-то ходит к книге отношения не имеет. Но после прочтения книги я буду помнить, что вокруг меня ходили.

В том-то и дело, что я привел конкретный узкоспециализированный пример, в котором мы с достаточной степенью достоверности можем определить объем полезной информации. И я показал, что эта информация может поступать в мозг разными способами и с использованием разной ширины входного канала, но полезная информация, усвоенная мозгом, во всех случаях будет одинакова. И это доказывает, что мерить входной поток таким школяским способом просто смешно. Вы же пытаетесь отвлечь разговор какими-то прохожими, не имеющего к данному эксперименту ни малейшего отношения.

>Говоря вашими терминами цифровой информации запись механического голоса будет занимать, например, на жестком диске меньше места чем текстовой файл? Интересное утверждение

Мне казалось, что я достаточно ясно выразил свою мысль, но, как видно, напрасно… Ну все же попробую еще раз: механический голос на жестком диске будет занимать на несколько порядков больше места чем текстовый файл, при этом не добавляя ни капли дополнительной информации.

>Очень напоминает софизм. Я бы рассмотрел подробнее причинно-следственные связи

Суммирую:

Один и тот же объем информации может поступать в мозг разными способами, как эффективными, так и не эффективными. Например, вы можете два часа слушать описание картины, но намного больше информации получите, посмотрев на нее в течении всего 2 секунд.

Автор утверждает, что для получения полноценного ИИ ему необходимо скармливать тонны информации по всем доступным каналам:

Зрение — 10^6 бит/сек
Осязание — 10^5 бит/сек
Слух — 10^4 бит/сек
Первые 3 года жизни(12 часов сон) — 5.25*10^13 бит
Слепой ребёнок, первые 3 года — 5.2*10^12 бит = 650 Гигабайт инфорамции
Примерно столько нужно в целом скормить ИИ, для того, чтобы он имел некоторый шанс на самосознание.

А я утверждаю, что это полный бред. Если не затруднит, укажите мне пальцем на место в моих доводах, в которых вы усмотрели софистику.
Да, вероятнее всего зрение человека не очень эффективный метод передачи информации, но универсальный. Позволяет и тексты читать и на природу смотреть.

Даже если сжать информацию до предельного значения, все равно будет существовать какой-то нижний предел, который необходим для того, чтобы ИИ начал анализировать.

Если сравнивать количество информации только по количеству запомненного, даже в том случае вы получите весьма внушительную цифру. Однако в этом случае вы откажите ИИ в наличии умения анализировать, обобщать и фильтровать лишнее.

Что вы будете делать с этим? Как вы будете подавать информацию?

(Повторюсь, я уже согласен с тем, что смысловая нагрузка для ИИ важна, но не согласен с тем, что можно поместить все знания человечества в пару предложений текстом.)
Именно столько и получит информации человек. Просто большая её часть будет отфильтрована на уровне сетчатки, подсознания, сознания. Часть будет просто забыта.

Сравните сложность такого процесса как человеческое чтение и компьютерное распознавание символов. Человек понимает что читает за счет своего багажа знаний и огромного потока информации.

Книга — это не просто мегабайт данных.
видите ли, если рассматривать информацию как совокупность цифровых данных, это не будет иметь смысла, а вот если сигнал будет интерпретироваться по разному в зависимости от его информативности — это совсем другая опера, и пост не уходит в абсурд. Вопрос в том, как разделять входящий (именно битовый, другого создать не сможем) поток на подпотоки для раздельной интерпретации, то есть — как задавать и кондиционировать рефлексы низкоуровневого восприятия. Ибо они завязаны в равной мере как на чистую сенсорику, так и на модель мира, уже построенную в ИИ и позволяющую обобщать эту самую сенсорику и создавать «эталоны» для ее опознания.
Я плохо понимаю вашу идею, если возможно, опишите пожалуйста точнее, что вы хотели сказать

Если правильно понял: входной битовый поток делится для раздельной интерпретации самими органами восприятия.
1) Внутри органов нейронами-рецепторами (как в сетчатке глаза для выявления линий и углов),
2) после этого посредством предобработки в частях мозга, для этого предназначенными(затылочные доли для зрения, околовисочные для слуха),
3) после этого акцентированием внимания на интересующих областях (сужение поля зрения при сосредоточении. Выполняется посредством отключения частей мозга отвественных за передачу малоинтересной информации)
4) после этого более узкая интерпретация может производится сознательно, передавая интересующий сигнал на все доступные участки коры головного мозга(сознательное осмысление какой-то одной мысли, образа, возможно с отключением сенсорных отделов вообще)
Да, примерно так, этап «сознательной интерпретации» только получается рекурсивным.
UFO just landed and posted this here
Я не согласен с такой оценкой количества информации. Она не учитывает то, что:

— большую часть времени человек смотрит на одно и то же (находится в одном и том же окружении)
— в один момент времени из всего поля зрения основное внимание уделяется лишь очень небольшой области в центре (площадь монеты на расстоянии вытянутой руки), остальное изображение как бы размыто
— тактильная информация поступает не постоянно (мы не заняты постоянным общупыванием всего и вся вокруг себя) и тоже не отличается оригинальностью, так как мы все равно находимся в одном окружении

То же самое со слухом и с обонянием. Я хочу сказать, что нельзя сравнивать взаимодействие ИИ (как и любого другого интеллекта) с постоянными потоками информации «in» и «out». Это не вода, которая под постоянным напором течет по трубопроводу.

Вопрос «чем кормить ИИ» имеет второстепенное значение, по сравнению с «как утроена пищеварительная система ИИ». ИИ съест все, что вы ему предложите. Главное, чтобы информация была логичной и последовательной, иначе будет несварение.

Интеллект нужен не для того, чтобы поглощать информацию. Основная его задача и причина появления — приспособление. Интеллект должен в первую очередь понять законы своего окружения и выработать соответствующее поведение, чтобы выжить и успешно в нем существовать.

Если поместить ИИ в простое окружение, которое производить малое количество информации, то ИИ усвоит простые законы. Если поместить его в сложную модель мира, то он получит больше информации и поймет более сложные концепции.

В обоих случаях нужен один и тот же интеллект, так как основные принципы его работы не зависят от сложности и количества информации.
Когда я говорю об ИИ я имею ввиду сильный ИИ, способный к самосознанию. Цифры, которые я попытался тут привести — нижняя граница количества информации, необходимого для зарождения самосознания у ИИ.

Естественно много информации лишней, много скучной. Но нейронные сети (по крайней мере они), устроены так, что не могут обрабатывать все и сразу, ошибки их неотъемлимая часть. Алгоритмический ИИ возможно и может обходится меньшим количеством информации.

Я считаю что самосознание — результат последнего обобщения, когда все задачи сводятся к одной, т.е. все задачи могут решаться одной и той же областью сети. Для такого обобщения необходимо решить огромное количество прикладных задач разного типа.

На примере человека, сколь бы умным он не был он не сможет стать нормально развитым человеком если не получит достаточно информации.

П.С. вы явно недооцениваете количество фоновой информации, которое вы получаете каждую секунду. Например — вы сидите на попе и чувствуете это, чувствуете положение своего тела, держите равновесие, точно знаете где находится ваша рука(потому что ощущения от мышц и сухожилий позволили вам знать это), цвет стен изменяет ваше настроение, а музыкальный фон тем более.
Обязательно придется учесть тот факт, что большую часть времени интеллект человека обретается в «аугментной реальности», когда большая часть поступающих сигналов отфильтровывается как неинформативная, и подменяется метапринтами восприятия, прописанными в долговременной памяти. Так что ИИ придется не просто обучать, но и кондиционировать, подавая на вход смесь полезной информации с «водой», чтобы обучить его концентрировать ресурсы для решения той или иной задачи.
Умение фильтровать — обязательно.
В случае такого избытка информации оно развивается наиболее полно, и оно необходимо для следующего шага — умения систематизировать и обобщать. При более мелких количествах информации это сделать становится проблематично.

Вариант смешивания инфы с водой я ещё не рассматривал… Интересная идея.
Вполне возможно что она имеет смысл, в том случае, когда будет найдено необходимое соотношение, параметры самой этой «воды». Возможно такой способ и будут применять для «промышленного» обучения копий ИИ. Но пока я склоняюсь к версии, что в «воде» информация содержится тоже, хотя и в небольшом количестве.

У ИИ должна быть возможность переключения внимания на любой акцент из окружающих его сигналов, иначе нейроны, ответственные за «воду» атрофируются, так как не попадают ни в одну из групп активности(группа — единица распознавания).
Атрофия нейронов, думаю, не должна возникать, так как нейроны, принимающие отфильтрованные данные, в биологических системах наверняка занимаются тем, что в «байпасном режиме» реализуют алгоритмы подмены, соответственно их в любой момент можно переключить на прямую выдачу в общий поток обработки ранее подменяемого сигнала и сконцентрировать восприятие на нем.
Если человек не развивает какой-то из органов своих чувств, или имеет какие-то мешающие ему ощущения, то нейроны ответственные за эту работу переключаются на работу с более активными или важными данными.
(глухой взрослый имеет меньше шансов на адаптацию к появлению звуковых ощущений из-за непривычки)

Нейроны более глубоких слоев скорее всего будут работать как вы описали, но первый слой изменится так, что нейроны получающие «воду» отключатся.

Если вы подразумевали чередовать информацию и «воду» на всех нейронах, тогда все будет достаточно натурально, как в живых организмах.
мы обязаны будем все время оценивать вероятность того, что информативность сигнала, приходящего с «водой» внезапно повысится, то есть непрерывно в «фоновом режиме» прослеживать соответствие поступающего потока определенным ранее критериям «воды», то есть придется непрерывно тренировать нейроны, отвечающие за фильтрацию. Я думаю, не будь у нас в мозгах такого или подобного механизма, мы разучились бы читать как только научились более-менее быстро распознавать буквы.
В целом я согласен с тем, что чем сложнее должен быть ИИ, тем сложнее должна быть информация. Но здесь важнее именно сложнее, а не больше. Чтобы ИИ мог понять, в какую точку приземлится падающий вертикально мяч, ему не нужно много много знать об этом мяче. Он это поймет, даже обладая монохромным зрением низкого разрешения.

Чтобы выработать поведение в определенной ситуации, важно не то, какое количество второстепенных деталей он может заметить, а то, как взаимодействуют друг с другом различные объекты. Законы мира намного важнее, чем детализация его объектов.

Можете сравнить законы с физической моделью компьютерной игры, а детали — с детализацией текстур. Понять физическую модель можно даже с примитивными, одноцветными текстурами.

Ценность смоделированного для ИИ мира не в количестве информации, которую он генерирует, в количестве его законов и свойств объектов, которые влияют на их взаимодействие. Если одно из свойств не влияет на взаимодействие с другими объектами, т. е. не влияет на сложность мира, то это свойство теряет значимость для ИИ и с таким же успехом его можно было бы исключить из модели.

Реальный мир намного сложнее, чем нужно для развития нашего мозга. Подумайте об этом.

П. С. Если я сижу на попе час, то это не значит, что я несколько раз в секунду получаю новую тактильную информацию, которая обрабатывается моим сознанием. Если положение тела не меняется час, то это значит, что новая информация о положении тела не поступала уже час. При этом, если я встану, то информация о моем положении тела тоже строго говоря не будет новой, потому что я встаю не первый раз за свою жизнь. Еще сидя я могу предсказать, как я буду ощущать себя, когда встану. Даже если я сделаю 20 приседания подряд, я не получу новой тактильной информации.
Сидя на попе час вы таки получаете информацию, но ваше практичное подсознание фильтрует все лишнее.
Приседая не первый раз вы действительно будете получать меньше информации, но тем, не менее, будете. Просто информация будет в виде ссылок на память(ассоциативная память),
«я сделал то, что делал 3 секунды назад», «я совершил более 5ти одинаковых действий»,
ведь вы помните количество сделанных приседаний. Наш мозг виртуоз по части фильтрации.

В реальном мире практически каждая деталь может иметь смысл (цвет сильно связан с настроением, одним монохромным зрением обойтись будет сложно). Отличая градации цвета жена может понять что цвет помады на рубашке её мужа не похож на её помаду, что даст ей возможность сделать глубоко идущие выводы. А если вспомнить Шерлока Холмса, то приводить больше примеров не потребуется.

Вынужден согласится, с тем, многие законы мира можно понять и с помощью простой 3д графики, но все же, для полноценного ИИ способного понять человека потребуется полный мир.
Чем более развитым стал интеллект, тем больше информации он переработал. Но обратное утверждение неверно.

Для обучения ИИ не нужно напрямую передавать ему информацию из заранее подготовленного массива. С таким подходом далеко ну уйдешь. Не нужно самому генерировать эту информацию. Взаимодействие мозга с миром — это взаимодействие с черным ящиком, у которого есть вход и выход. При этом задача мозга — понять устройство этого черного ящика.

А теперь ответьте на такой вопрос, в каком случае получится более развитый ИИ: если у черного ящика будет много каналов входа и выхода, но простое внутреннее устройство, или если у черного ящика будет меньшее число выходов, но более замысловатое внутреннее устройство? Как можно догадаться — количество каналов — это количество информации, а внутреннее устройство — законы мира.

Сложные законы мира оперируют большим количеством информации, но первичны именно законы мира. Бессмысленная информация не помогает в развитии интеллекта.
При такой постановке вопроса вынужден с вами полностью согласиться.
Ваше дополнение добавлено при обновлении статьи.

Замечу только, что даже у ящика с минимумом входов-выходов есть свой нижний
предел информации, ниже которого ящик не сможет начать думать.

Если честно, я не представляю как можно усложнить внутреннее устройство
ящика\передать ИИ большое количество законов мира. Как и в принципе передача
каких-то данных в нейронную сеть, которые сложнее, чем «это хорошо, а это плохо».
Небольшое замечание. Со стороны мозга мир — черный ящик. Со стороны мира мозг — черный ящик. Со стороны мозг и мир — соединенные черные ящики. Только у мира внутренняя структура постоянна.
Следуя вашей логике наткнулся на довольно странную идею.
Можно собрать сложный ИИ поместив его в созданный мир с более сложными законами, чем в нашем мире?
Иначе не понимаю как можно использовать связь сложность-ИИ.
Как можно передать ИИ больше сложности? Или вы имели ввиду только то, что нужно подавать меньше бесполезной информации?

Объясните пожалуйста вашу идею точнее.
Чем сложнее ИИ, тем более приспособленным и развитым он является. Это должно быть понятно. На сложность ИИ влияет много параметров.

Одним из них является сложность окружения. ИИ должен понять законы, по которым работает окружение, чтобы построить у себя в «голове» его модель и далее использовать ее для принятия решений. Сложное окружение -> сложная ментальная модель -> сложное поведение.

Другим важным параметром является сложность самого организма, внутри которого находится ИИ. Наш интеллект ведь не на прямую взаимодействует с внешним миром. Для этих целей у него есть посредник — физическое тело. В случае с ИИ это будет модель тела, которая сама является одним из объектов искусственного окружения и взаимодействует с другими объектами в рамках законов этого окружения. К сложности организма относятся сложность его органов чувств и разнообразие действий, которые он может совершать. Как органы чувств, так и действия — все они помогают исследовать окружение. В итоге имеем ту же самую зависимость: сложный организм -> сложная ментальная модель -> сложное поведение.

Последним важным параметром является связь организма с окружением — насколько организм (физическая оболочка интеллекта) приспособлен к существованию в данном окружении и насколько окружение благоприятно для развития в нем организма. Если предыдущий пункт был про возможности организма, то этот — про потребности и про способность окружения их удовлетворять. Сложные потребности, которые способно удовлетворить окружение -> сложная мотивация -> сложное поведение.

И как было сказано в самом начале: сложное поведение -> более развитый и приспособленный ИИ.
Теперь намного более понятно, Спасибо
И вот опять я вижу, как автор топика наступает на те же грабли, что и тысячи его предшественников.
Настоятельно рекомендую ему прочитать это книгу Джефа Хокинса и Сандры Блэйксли «Об интеллекте». (Где скачать/купить найдёте сами).
В этой книге подробно разобран подход к теме, аналогичный описанному в посте и доходчиво объясняется почему он совершенно неправильный, а так же рассказывается как это должно работать «правильно».
Большое спасибо за название, на досуге посмотрю что хотел сказать автор, и что именно я упустил.
Раз вы в теме, то ответьте пожалуйста и на мой вопрос: реализуется ли где-нибудь в экспериментальных работах по ИИ метапринтный принцип обучения, или пока это считается утопией?
Не встречал такого понятия, к сожалению.
Возможно если вы попытаетесь описать этот тип обучения, я смогу ответить.
Этот тип обучения заключается в построении модели мира внутри ИИ на основе объектов (метапринтов), имеющих обратную связь по сенсорике, времени и вероятности повторения. То есть входной блок ИИ непрерывно анализирует поступающую сенсорику в поисках некоторых паттернов, прописанных в долговременной памяти, причем определяется не только сходство с эталонным паттерном, но и вероятность его повторения в будущем.

Когда паттерн найден, выполняется некая последовательность действий, также записанная в долговременной памяти. Содержание этой последовательности действий зависит от того, насколько входной паттерн в памяти был похож на поступившую сенсорику, а также, какова вероятность того, что после выполнения метапринта на вход поступит результат, в виде еще одного паттерна сенсорики.

Главная проблема такого метода — запись последовательностей действий, которые ранее не были связаны с определенными паттернами сенсорики. Делать это можно либо, подавая на вход ИИ такую сенсорику, аналогов которой найти в данном состоянии памяти просто невозможно (тогда система порождает ситуацию «паника», входит в режим ручного управления и последовательность действий для метапринта прописывается предельно жестко), либо многократным повторением практически одной и той же сенсорики на входе, совмещенным с принуждением к выполнению тех или иных действий. Во втором случае на выходе метапринта будет некое дерево последовательностей действий, каждый узел которого будет кодироваться некой степенью соответствия входной сенсорики «эталонной», то есть средней для данного метапринта. Кроме того, каждый узел дерева будет характеризоваться определенной вероятностью возникновения на входе определенной «сенсорики результата», по которой можно дополнительно выбирать, какую конкретно последовательность должен в данный момент использовать ИИ (то есть, грубо говоря, возможна ситуация, когда ИИ выбирает последовательность действий, менее сходную с паттерном сенсорики на входе, но имеющую результирующую сенсорику, которая рассматривается как более соответствующая решению поставленной в настоящий момент задачи).

Насколько я знаю, этот метод в науке ИИ на данный момент может являться апокрифом, я сам узнал о нем случайно.
Достаточно сложный вариант алгоритмического ИИ, насколько я понимаю.
Подобную идею высказывал мой знакомый. Основными проблемами такого подхода по-моему являются: огромные требования к памяти чтобы хранить паттерны(комплекты информации), огромные требования к вычислительной мощности (чтобы сравнивать входящий паттерн с миллиардами в памяти, даже по первым символам только), малая возможность для построения выводов(ограничена возможностью ассоциации паттернов, которые изначально зависят от входных данных (Крайне сложно связать синий цвет, температуру около нуля градусов и высокую ноту, так как они изначально были получены от разных сенсоров).

Необходимо дополнить: ассоциативное хранение паттернами группами с удалением похожих паттернов если группа полна, исследование новых паттернов, создание новых групп и удаление малополезных групп(запоминание бесполезных групп и игнорирование подобных паттернов), поиск по группам паттернов, а не напрямую по ним. Решить проблему с возможностью ассоциаций принципиально разных групп входных данных, т.е. паттерны не должны напрямую зависеть от входных данных, либо по какому-либо алгоритму сравниваться могли бы все части паттерна друг с другом.
Я думаю, все эти проблемы успешно решаются живыми организмами за счет того, что:
— размер хранимого паттерна за счет развитой обработки поступающего потока непосредственно в нейросетях органов чувств составляет считанные элементы. Обработка же производится метапринтами более низкого уровня.
— те же нейросети органов чувств обеспечивают предопределенную привязку к поиску внутри групп паттернов по типу сенсорики. Ведь восприятие осознается интеллектом как поступающее с разных органов чувств — и это тоже обеспечивают метапринты низкого уровня (в качестве доказательства можно привести примеры природных синестетиков, например, муравьев).
— вложенность и рекурсия метапринтов, кажется неограниченны, то есть выполнение некой группы метапринтов может служить частью паттерна для другого метапринта уровнем выше или ниже, без иерархии.
— в таком случае легко обойти проблему ассоциативности, так как со временем все меньше сенсорных ситуаций порождает ситуацию «паника», а в случае вылета такого исключения в одной из групп метапринтов — сенсорика из других метапринтов, в том числе иного уровня вложенности, может сыграть роль замещающей. Здесь много опасностей (в биологии с этим связаны почти все патологии размножения птиц и млекопитающих), но думаю, это и есть ключ к неограниченному эвристическому поиску.

Загадкой остается, как вы правильно заметили, механизм сравнения, тем более, что на определенном уровне развития живой организм может сознательно генерировать на своем «рекурсивном» входе те или иные (правда, уже известные) паттерны, то есть они действительно слабо зависят от чистых входных данных, которые еще и сравниваться должны одновременно со всеми сразу хранимыми эталонами. Кроме того, метапринты ниже определенного уровня в достаточно развитом интеллекте исполняются в режиме «эмуляции», а значит, должен быть сформирован некий супер-метапринт, обеспечивающий такую эмуляцию. Возможно, существует вариант решения такой задачи на основе разветвленной иерархии вложенных простых нейросетей, но пока я об этом не думал, да и вычислительная мощь для моделирования правда потребуется запредельная.

Могу сказать, что однажды провел мысленный эксперимент: на клочке бумаги описал простейшую систему, имеющую всего пять булевских сенсоров, таймер и два движителя. Эта «машинка» должна была найти путь в захламленной комнате. Для сравнения прогнал эту идею через генетический алгоритм с фит-функцией, отыскивающей первую свободную дорогу (задача решалась десятком итераций на каждом перекрестке, машинка бы раздолбалась), и метапринтную систему, работающую по принципу оценки вероятности встречи с препятствием с каждой стороны в зависимости от продолжительности работы движителей. Поскольку полностью случайных лабиринтов не бывает, задача уже после прохождения двух-трех перекрестков и тупиков (тупик-типичная ситуация «паника») решалась вполне уверенно, только иногда половина лабиринта оставалась в стороне. Думаю, делай я машинку в железе, смог бы реализовать ее управление на Arduino с внешним модулем памяти на пару мегабайт…
С Вашей помощью можно попытаться обьеденить алгоритмический и нейросетевой ИИ, описав их одной моделью, однако сложность этой задачи очень велика.

Паттерн, как единица памяти может быть записан в нейронной сети расспределенно, т.е. одним паттерном может являтся группа из нескольких разрозненных нейронов.

Сравнение разных паттернов для человека возможно за счет представления и единой области осознанного мышления, в которую может попадать информация от любых органов чувств. С точки зрения паттернов это можно описать как уровень абстракции настолько высокий, что никакой прямой связи с сенсорным источником они уже не имеют.

Нейронная сеть может хранить значительное количество информации за счет множественного использования каждой еденицы памяти — нейрона. Одни и теже весовые коэффициенты нейрона могут использоваться для хранения информации для нескольких ассоциаций. По крайней мере активизируются они чаще, чем только во время точного угадывания своего паттерна, но и во время близкого совпадения.

Рекурсивность метапринтов — слишком сложно для понимания. Пожалуйста, опишите подробнее что вы называете метапринтом?

«Паника» при достаточно большом количестве метапринтов и достаточном уровне их иерархичности возникнуть уже не может, опускаясь до простейших правил, решение может быть принято, пускай и элементарное. Или можно попытаться абстрагироваться от деталей и решить задачу от сенсоров более высокими уровнями абстракции. Но, на мой взгляд, на одном из уровней абстрагирования ответ точно будет найден.

Сравнение паттернов может проихводится погруппово. Таким образом частично решается проблема полного сравнения. В случае явного несоответствия с группой паттерн не обязательно сравнивать со всеми членами группы.

Проблема в том, что в нейронной сети группы не могут быть однозначно выстроены в иерархию. Группа «приятный» может содержать определенную сенсорную информацию и от зрения и от слуха. Или содержать в себе элементы разных уровней абстракции, например музыка содержит инфомарцию от сенсоров и от обработки её мозгом, который определяет периодичность, мелодию и прочее. Как это можно решить в случае с метапринтами я пока не представляю.

Метапринты, насколько я понимаю, хорошо справляются в случае если необходимо записать несколько условий, но в случае если необходимо сравнивать разноплановую информацию или обрабатывать её рекурсивно, или делать новые выводы ситуация заметно усложняется.
Рекурсивность метапринтов — слишком сложно для понимания. Пожалуйста, опишите подробнее что вы называете метапринтом?


Метапринтом я называю объект, состоящий из:
  • Входного паттерна, описанного содержимым некоего буфера восприятия за определенный промежуток времени (такт). В паттерн могут входить как чистые сенсорные данные, так и результирующие (а возможно, и входные) данные других метапринтов. Сравнение паттерна с эталонами идет нечетко, то есть на выходе операции сравнения будет список наиболее похожих эталонов;
  • Процедуры метапринта, определяющей реакцию интеллекта на внешнее воздействие. Здесь уже посложнее, так как процедура выбирается из списка эталонов, определенного входным паттерном. Причем, операция выбора тоже может являть собой метапринт более высокого уровня абстракции (в случае его отсутствия выполняется процедура, соответствующая входному эталону, наиболее похожему на поступившую сенсорику).
    Выполнение процедуры метапринта характеризуется той особенностью, что это не однозначный упорядоченный список команд, а некая структура, в которой роль команд могут также играть метапринты более низких уровней абстракции (безусловные рефлексы и т.п.), запускаемые достаточно простыми паттернами. Например, в живых организмах команды, отдаваемые мозгом мускулам — тоже имеют вид метапринтов, активируемых входным импульсом, адресованным той или иной нейронной структуре. Те же метапринты более низкого уровня, активируемые из текущего, играют роль нечеткого (в отличие от реализаций алгоритмического ИИ) мультиветвления (почему — в последнем пункте). По окончании выполнения процедуры текущего метапринта и всех вызванных из него, имеем новое сенсорное состояние интеллекта, сформированное в буфере восприятия за время выполнения процедуры (причем возникновение активации одного из других метапринтов в процессе мультиветвления может, например, прервать выполнение текущего и сформировать совершенно новое состояние).
  • Карты предиктивной сенсорики. Здесь нужно дать некоторые пояснения. Формируется карта предиктивной сенсорики — при первом исполнении будущего метапринта, в дальнейшем дополняется (кондиционируется) и сохраняется в долговременной памяти в виде своеобразной структуры, напоминающей список «имя=значение», где входной эталон связывается с вероятностью появления на входе определенного сенсорного состояния. Здесь в дело вступает обратная связь — при появлении каждого нового состояния в результате многократного выполнения одного метапринта — список состояний и связанных с ними вероятностей обновляется. При частом повторении одного и того же результирующего состояния и сходной входной сенсорике на базе одного метапринта может сформироваться другой. Дополнительно нужно еще отметить, что карты разных метапринтов, вероятно, в биологических интеллектах могут пересекаться на уровне пар «имя=значение» (возможно, это следствие сжатия информации при записи в долговременную память), что ведет к накоплению своеобразной полуреляционной сенсорной базы данных.

Сформировать метапринт можно, либо вызвав уже упоминавшуюся ситуацию «паники» и заставив интеллект записать в качестве метапринта все содержимое буфера восприятия за прошедшие такты как входные и результирующие данные, а содержимое «лога» генерируемых команд вместе с обратной связью — как процедуру (тут особо отмечу, что лог записывается на одном уровне абстракции, без учета результата активации других метапринтов, что дает возможность кондиционирования и процедуры в будущем тоже), либо — кондиционированием, подавая определенную входную сенсорику, провоцируя любым способом действия и формируя карту предиктивной сенсорики, возможно, методом «поощрения и наказания» (тут требуются уже известные критерии «плохого» и «хорошего» исхода, для чего в ИИ должны быть прописаны безусловные рефлексы — почти некондиционируемые метапринты самосохранения).

Теперь о рекурсии метапринтов. Так как сенсорика может быть не только булевской, то неизбежно появление ситуации, когда у интеллекта с развитой сенсорикой появится метапринт, предиктивная карта которого будет содержать паттерн активации его самого. Судя по живым организмам, в ИИ такие ситуации должны быть вне закона (прописаны в некондиционируемом метапринте, управляющем работой аппаратной части), кроме случаев, когда требуется накопление определенной интенсивности сенсорики или создание ситуации контролируемой «утечки памяти буфера восприятия», т.е. сосредоточения, что в дальнейшем приводит к активации некоторого другого метапринта, чаще сложного и высокоабстрактного, или приводящего в действие какие-то узкоспециализированные аппаратные средства. Как пример: можно с большой долей достоверности утверждать, что система размножения млекопитающих полностью реализована именно на рекурсивных метапринтах.

«Паника» при достаточно большом количестве метапринтов и достаточном уровне их иерархичности возникнуть уже не может, опускаясь до простейших правил, решение может быть принято, пускай и элементарное. Или можно попытаться абстрагироваться от деталей и решить задачу от сенсоров более высокими уровнями абстракции. Но, на мой взгляд, на одном из уровней абстрагирования ответ точно будет найден.

Приходится признать, что полностью исключить такие ситуации невозможно, более того, каждый из нас за жизнь переживает как минимум 4 классических «паники», при этом минимум одну из них — имея уже мощный пласт полностью сформированных метапринтов. Более того, спровоцированная «паника» может затереть любой другой метапринт, подав на вход идентичную ему сенсорику.

Проблема в том, что в нейронной сети группы не могут быть однозначно выстроены в иерархию. Группа «приятный» может содержать определенную сенсорную информацию и от зрения и от слуха. Или содержать в себе элементы разных уровней абстракции, например музыка содержит информацию от сенсоров и от обработки её мозгом, который определяет периодичность, мелодию и прочее. Как это можно решить в случае с метапринтами я пока не представляю.

Наличие разнообразных вариантов вложенности как нейронных сетей, так и метапринтов (см. описание процедуры метапринта) дает возможность обрабатывать любую информацию, я думаю. Вообще по этой проблеме мне кажется, что ИИ должен иметь возможность на аппаратном уровне создавать из своих нейронных сетей выше определенного размера — суперсети, формируя их в иерархию, специфичную для каждой конкретной задачи. Правда, как хранить информацию о текущем состоянии и выполнять перестройку сетей — мне пока не слишком ясно…

Метапринты, насколько я понимаю, хорошо справляются в случае если необходимо записать несколько условий, но в случае если необходимо сравнивать разноплановую информацию или обрабатывать её рекурсивно, или делать новые выводы ситуация заметно усложняется.

Думаю, вероятностный характер входных паттернов и предиктивных карт позволяет обойти ограничение на разноплановость информации. В случае же живых организмов «важность» данных с разных планов определяется приоритетом сенсорики.

Вообще, по-моему, успешная работа ИИ может быть связана с наличием «двух(или более)потоковой» структуры, основанной на единой системе памяти, где хранится информация о имеющихся в настоящий момент метапринтах. При этом один «поток» работает непосредственно на выполнение метапринтов и взаимодействием с аппаратной частью, в то время, как второй — может в любой момент выполнить любой метапринт в режиме «эмулятора», а также — используя данные обо всех имеющихся в системе метапринтах, выполнять поисковый просчет однажды принудительно (возможно, с помощью специального низко- или высокоуровневого метапринта) сохраненной в кратковременной памяти и предварительно обработанной другими метапринтами сенсорики, подавая ее (возможно, случайным образом, но в этом не уверен) на вход самых разных процедур и просматривая результаты. Здесь, думаю, вполне может скрываться ключ к механизму «озарений» (и возможно, к использованию всех объемов мозговой ткани, над проблемой коего бьются все психоневрологи). В режиме «эмуляции» вполне могут формироваться новые метапринты (особенно высоких уровней), которые попадут в общую память, и при случае выполнятся, пополнив предиктивные карты для себя и других. Более того, в ситуации, когда в выполняемом основным потоком метапринте возникла «паника», эмулирующий поток может на время заместить собой основной (низкоуровневый метапринт «беспокойство»), и попытаться решить задачу, используя данные, находящиеся в данный момент в буфере «эмулятора». Иногда этим можно объяснить весьма странные курьезы восприятия у живых организмов (у людей — фобии).

Таким образом получается, что метапринты определяют работу интеллекта на всех уровнях, его «знания» представляют собой набор входных паттернов, которые с помощью специальных метапринтов высокого уровня абстракции могут быть опознаны и выданы на вход «эмулятора» в виде воспоминаний. Процедуры метапринтов, начиная с определенного уровня, имеют вид «умений» интеллекта, а предиктивные карты формируют «опыт восприятия», определяющий предсказуемость реакции интеллекта на внешние воздействия.

Ффухх! А материала-то уже на статью, кажись, набирается...
Мне очень жаль, что я потратил время на эту книгу, её можно описать очень кратко:
«Все не правы, я очень люблю филосовствовать, и у меня есть мега-идея, сеть с памятью!»

Идея сети с памятью появилась уже давно. Я полностью с ней согласен, так как нейроны имеют собственное состояние. Процедурная память уже обсуждалось выше. Обратная связь, в том числе и закольцованная, тоже не новая идея.

Но я был бы вам признателен, если в следующий раз вы смогли бы самостоятельно сформулировать тезис, а не ссылаться на чужие мысли.
Я тоже за то, что обеспечить ИИ информацией — это не проблема. Я уже много думал об ИИ, к слову сказать, по образованию робототехник.
Так вот. Однажды на просторах тырнета в бытность свою студентом мой пытливый ум набрёл на 4 постулата об ИИ. Сейчас я помню только один из них, но он — самый важный. Как только дойдут руки до того, чтобы хоть что-то написать мало-мальски работающее, выложу здесь статью по результатам своих работ, может кто-нибудь ко мне присоединится в качестве разработчиков.

Не хотел разводить полемику, но всё же.
1. Автор статьи путает понятия «знания приобретённые интеллектом» и «интеллект».
2. Всё, до чего дошло человечество — это самоорганизующиеся структуры разной степени сложности(см. мозг кошки от IBM)
Но от самоорганизации до интеллекта лежит область неясности.

Вообще, статья подтолкнула к размышлениям. Ждите от меня ответную статью :)

А что значит «мозг кошки от IBM»? Может ли он, подключенный к соотв. «железу», ловить мышей в произвольной местности?
Т.к. вопроса два — отвечаю последовательного.

1. www.oszone.net/10743/IBM

2. Это — необученная нейронная сеть. Если её обучить ловить мышей, она будет это делать.
Но это будет не интеллект. К слову, живая кошка интеллектом не обладает.
Кошка — это то, что ищет себе пропитание. Обычный самоорганизованный обьект, как и многое в живой природе. Только законы, по которым он функционирует намного сложнее, чем, скажем, амёба.

Но если сравнить кошку и амёбу с позиций интеллекта — они будут на одном уровне.
Не путать со сравнением поведения и инстинктов\рефлексов кошки и амёбы, т.к. они определяются морфологией и физиологией существ и сильно различаются
>Если её обучить ловить мышей, она будет это делать

Как-то здесь сомнительно с критериями научности — объективностью и повторяемостью. Если есть несколько уже обученных ловить мышей экземпляров — ну, пусть, один — база для некоего обобщения имеется. Если же нет, то ...?

Как-то смахивает на такое. Вот компьютер. Если обучить его программировать, то он будет это делать. Будет ведь несколько странным утверждать, что создан аналог программиста?

>К слову, живая кошка интеллектом не обладает.

Здесь мне видится та же самая проблема. Чтобы выдвинуть такую посылку, нужно точно знать, что же такое интеллект. Научное знание подразумевает его объективность и воспроизводимость — т.е. имеется строгое общепринятое определение интеллекта и, соответственно, образцы этого ИИ, построенного в разных лабах.

Пока же получается странно. Машина не может ловить мышей, как кошка — т.е. даже это не сильно достижимо для современного уровня технологий, при этом кошка не обладает И — вроде как получается, что ИИ вообще пока на заоблачной высоте — ввиду отсутствия научного понимания его.
>Как-то здесь сомнительно с критериями научности — объективностью и повторяемостью. Если есть несколько уже обученных ловить мышей экземпляров — ну, пусть, один — база для некоего обобщения имеется. Если же нет, то ...?

>Как-то смахивает на такое. Вот компьютер. Если обучить его программировать, то он будет это делать. Будет ведь несколько странным утверждать, что создан аналог программиста?

Я писал о нейросети. Критерием настройки нейросетей является подбор весовых коэффициентов(настройка связей между нейронами). Настройка\обучение происходит либо с учителем(выборки) либо без учителя, исходя из обратной связи и целевых функций.

В любом из способов вы некоторым образом формализуете задачу. Т.е. научить ловить мышь — это значит
а) распознать мышь
б) использовать свои «конечности» — если это робот- использовать подпрограммы движения конечностями для того, чтобы добраться из точки А в точку Б, при этом сохранять наведение на цель(своего рода следящая система, но это тоже подпрограмма)
в) использовать оружие(зубы, робокогти) по отношению к мыши( сопоставить их координаты с координатами распозннной мыши
г) убедиться, что мышь мертва

Всё, что я описал выше — это алгоритм. Он же преобразуется в вектора значений и кормится нейросети. Разница алгоритмов и нейросетей состоит в том, что параметры мышей будут изменяться, модели роботов могут изменяться(например) но при этом не надо будет менять вектора входных значений, читай роботы схожих моделей будут ловить всё мышеподобное.

>Здесь мне видится та же самая проблема. Чтобы выдвинуть такую посылку, нужно точно знать, что же такое интеллект. Научное знание подразумевает его объективность и воспроизводимость — т.е. имеется строгое общепринятое определение интеллекта и, соответственно, образцы этого ИИ, построенного в разных лабах.

>Пока же получается странно. Машина не может ловить мышей, как кошка — т.е. даже это не сильно достижимо для современного уровня технологий, при этом кошка не обладает И — вроде как получается, что ИИ вообще пока на заоблачной высоте — ввиду отсутствия научного понимания его.

К сожалению этой части я сейчас комментировать не буду. Не потому, что не знаю и т.п.
Есть другие причины. Обо всём этом я напишу в своей статье. Статью напишу, когда она созреет
во всех ипостасиях.
>Я писал о нейросети. Критерием настройки нейросетей является подбор весовых коэффициентов(настройка связей между нейронами).

Это понятно. Непонятно с кошкой, если устройство не ловит мышей в произвольной местности — амбар/квартира/лес — то странно говорить про «мозг кошки от IBM», ведь такой «мозг» не в состоянии заменить кошачий в его естественной области применения.

С таким же успехом можно написать про «мозг программиста от IBM» — ведь он не может писать программы равно как и не может ловить мышей.

>Всё, что я описал выше — это алгоритм.

Это да. Но аналогичен ли он по функциям предполагаемому кошачьему будет понятно только после его фактической реализации.

>Обо всём этом я напишу в своей статье.

Ну что ж, любопытно.
По некоторым причинам я не верю в возможность создания алгоритмического ИИ, ввиду его сложности.
А для нейронной сети понятия знание и интеллект неотделимы друг от друга.
А мозг кошки от IBM интересен, но требует слишком больших вычислительных мощностей.

С интересом посмотрю что вы напишите в своей статье
UFO just landed and posted this here
Хотелось бы больше статей о практических экспериментах в области ИИ, чтобы можно было код пощупать. Теория уже не вставляет.
Зачем создавать ИИ?

Нет, я тоже в душе романтик, и буду аплодировать стоя (и даже прыгая от радости), когда нечто подобное создадут. Но холодная часть моего собственного интеллекта задаётся вопросом «что и кому это даст?»

Мы пока не научились использовать рационально естественные интеллекты (ЕИ), кои плодятся совершенно без нашего участия (за исключением одного-двух :) ). Если ИИ будет делать то, что делают ЕИ — он не шибко-то и нужен. Если будет делать нечто другое — тогда можно ли ИИ вообще называть интеллектом? И вообще…

Что есть интеллект? У вас есть на него ТЗ? :)

По поводу фильтрации и сжатия информации от органов чувств: некоторые считают глаза частью мозга. Лично я бы вообще распространил понятие интеллекта на всю нервную систему, до самых мелких нервных узлов и окончаний. И включил бы ещё химические подсистемы регуляции. Никогда не задумывались, какой эффект на сознание оказывает, например, адреналин?

И самая главная ошибка, раз уж вы их коллекционируете. Интеллект — свойство общественных организмов. «Адын штука» создать не получится. Только сообщество. И боюсь, сначала им придётся научиться умирать, а уж потом они научатся переживать тяжесть утраты близких. Мы же начнём переживать намного раньше, как о смерти любимой собаки, глупой, но доброй. Если мы будем убивать их миллиардами, или просто смотреть, как они убивают друг друга (как же без этой части нашей собственной эволюции) — лично я вряд ли почувствовал себя богом. Скорее сволочью. Или это ощущение неотделимо от божественности? :) В общем, я бы задал ещё один вопрос:

А оно того стоит?
«Адын штука» очень даже получится создать. Что будет, если человек будет развиваться без других людей? Получится интеллект животного. Не бог весть что, но он все равно сможет приспосабливаться к окружающей среде, получать и использовать опыт, реагировать на непредвиденные ситуации. Сейчас ни одна программа этого не умеет.

Строго говоря интеллект создавать и не нужно. Интеллект — это результат работы мозга, результат его взаимодействия с окружением. При сложном и благоприятном окружении получится сильный интеллект, при простом — примитивный. Но мозг в обоих случаях будет одинаковым.

Создавать нужно именно мозг или что-то очень на него похожее — модель.

Главный пункт в ТЗ мозга — способность приспосабливаться к окружению, способность понимать его законы и использовать в свою пользу. Можно создавать его с нуля, а можно кое-какие принципы подсмотреть у реального прототипа.

Насчет последнего вопроса я сам не уверен. Плюсы искусственного интеллекта по сравнению с естественным вытекают из его компьютерной природы. Его можно копировать, сохранять, ставить на паузу. Если система замкнутая, то при использовании более мощного железа можно ускорять ее внутреннее время. С другой стороны у него будут много минусов от своего прототипа.

В конце концов его можно продавать. Не пустой мозг, а мозг с определенным опытом — интеллект. Пустой мозг достоен быть open source.
Мне кажется, вы путаете развитие одного человека и возникновение человека как вида. В одном человеке уже многое заложено на уровне инстинктов, что позволит достигнуть ему уровня довольно высокоразвитого животного, а не остаться на уровне амёбы. Но инстинкты эти формировались миллионами лет жизни в стае.

Собственно, даже один ребёнок выживает лишь в стае высокоразвитых животных, и лишь после определённого возраста. Всё таки мы, человеки, не сферический интеллект в вакууме, а бренные тела на грешной земле — нам кушать надо, и весьма значительный период нашей жизни делать это самостоятельно мы не можем. Греться надо, даже на юге. И надо чтобы нас никто не скушал. Размножение — вообще отдельная тема.

Вот через всё это и надо пройти искусственным тварям, чтобы заиметь право называться интеллектуалами. Мне их аж жалко, сколько их на пути к вершинам познания мучительно сдохнет. И всё ради чего? Чтобы мы их в рабство продавали? Знаете, если мы их всё-таки сделаем, а они начнут нас мочить, имхо это будет вполне заслуженная кара.

P. S. Юмор это всё, конечно. Шоколадный. В смысле такой же чёрный и горький :)
Я со всем согласен. Но проблемы, которые вы описали — это внешние проблемы. Слишком жестокое окружение и слишком неприспособленная материальна оболочка. Если человек не может выжить с таких условиях, зачем требовать этого от программы, которая по идее должна быть на него похожа? В моделируемом мире можно выбрать любое окружение и любую оболочку. И начинать разумнее будет с чего-то простого. Да, в результате получится скорее животное чем человек. Но принципы, по которым работает мозг человека не отличаются от тех, что лежат в основе мозга животного.

Поняв эти принципы и сделав модель, которая способна выживать в простом искусственном мире можно постепенно этот мир усложнять. И если нам повезет и мы угадаем с моделью мозга, то его не потребуется переписывать для нового мира. Нужно будет лишь подкрутить некоторые параметры, чтобы он мог работать с большими объемами информации.

Суть в том, чтобы угадать верную структуру мозга, которая сможет адекватно работать в разных окружениях — как простых, так и сложных. Я сказал угадать, потому что создавать точную копию мозга глупо. Нужно учитывать особенности платформы и импровизировать, время от времени поглядывая на оригинал.
Ладно, если хотите серьёзно, шутки в сторону.

И автор статьи, и вы (и ещё куча народу) полагают, что искусственный интеллект можно создать случайно — подкручивая некоторые параметры. С автором статьи вы расходитесь только по одному вопросу — вы предлагаете начать с чего попроще, а потом увеличить объёмы, а автор настаивает, что при малых объёмах ничего не получится, надо сразу тот объём, с которым оперирует человек (ну и разумеется сразу создать интеллект, сравнимый по мощи с человеческим, пропустив все этапы естественного случайного создания).

Я же попытаюсь обратить ваше внимание на такую деталь — случайное это создание называется эволюцией. И процесс этот занимает миллионы лет. Хотите оспорить этот факт? Чем аргументируете? Я вот отталкиваюсь от того, что в природе не возникают каждые 10-20 лет разумные виды. А уж сколько всяких ручек крутит природа, да на каком количестве моделей… ууу… И объёмы информации через мозги многих животных проходят поболее, чем через наши. Зрение хищных птиц, например, гораздо острее. И информация эта актуальная, и обратная связь есть. Так почему нет мощного интеллекта?

В общем, пытаюсь навести на мысль — может быть объём информации не та ручка, за выкручивание которой надо спорить? Может быть весь этот ящик «спортлото» со случайными переборами нужно выбросить, как не стоящую затею? По крайней мере, до изобретения машины времени.
«Интеллект — свойство общественных организмов. «Адын штука» создать не получится. Только сообщество»

ru.wikipedia.org/wiki/%D0%9E%D0%B1%D0%B5%D0%B7%D1%8C%D1%8F%D0%BD%D0%B0
Обезьяны — общение с человеком

С помощью лексиграмм (картинок со смыслом) обезьяны могут общаться с человеком. Как минимум этот факт, на мой взгляд, опровергает идею о том, что для интеллекта необходимо наличие определенного окружения. Подойдет любое окружение, с которым интеллект может общаться, как искусственный так и настоящий.

Если вы отвергаете мою идею о том, что для интеллекта необходим какой-то минимум информации, то какую ручку предложите Вы для «выкручивания» чтобы увеличить шанс его возникновения?
По-моему общение обезьяны с человеком никак не опровергает мою гипотезу о том, что для возникновения интеллекта необходимо общение :) Не обязательно общаться с себе подобными, это хотите сказать? Весьма спорно, ваш пример опять же не доказательство. Ничто в нём не говорит о том, что из неразумной твари мы сможем создать хотя бы обезьяну, заставив её общаться с людьми. Обезьяны и без людей общаются друг с другом. Тратят на это до 20% своего времени, очень общительные создания. С необщительными человек общаться не может, с сделать их общительными — тоже не может. Или есть примеры?

Также пытаюсь сказать, что крутёж ручек на некой виртуальной машине вероятностей ничего не даст. Любых ручек. Ибо случайный взлом этой задачи брутфорсом невозможен. Слишком много ручек, слишком велик диапазон для каждой из них. Самое неприятное: для каждой выставленной изначально комбинации надо ждать миллионы лет. Да мы даже результатов одной единственной попытки не дождёмся. Для вашего метода нам нужна не простая (если это слово тут уместно) машина времени, а с параллельными потоками :)

Даже предположим, что такая гипотетическая машина у нас появилась, и мы получили на выходе сообщество ИИ. И что, будем их продавать? Хм. Я бы на их месте послал таких продавцов, извините, куда подальше. Кроме общения интеллекту ещё одна вещь нужна — свобода.

Так что ещё раз задаю вопрос — а зачем их вообще надо создавать? Может и не надо? Зачем нам своими собственными руками конкурентов-то плодить? :)
Сравнение с обезьянами я привел лишь для того, чтобы показать что при определенных правилах общения, чтобы оно было доступным, существо может получить свою порцию общения даже в чужом для себя обществе. Как обезьяна с людьми.

Т.е. вы опровергаете мою идею, вместе с самой идеей создания ИИ путем рассуждений, предположений и допущений без четкой математической модели, и при этом ничего не говорите о том, как бы это сделали Вы?

Вряд ли в ближайшее время (считай десятилетия) возможно создать научно обоснованную модель сознания, не делая экспериментов, не собирая больше информации и не анализируя её. Вспомните, многие великие открытия делались случайно. Допустим, у нас не получится создать ИИ, но Вы, с научным подходом сможете посмотреть на нас, посмеяться и записать в блокнот немного выводов. Чем не польза обществу и Вам?

Зачем создавать ИИ? филосовский вопрос.
Скажем так: я не могу не делать этого.
Я лишь указываю вам на слабость вашей позиции с угадыванием. Слабость в том, что природе (от которой вы отталкиваетесь, от природы человека в частности), понадобились для угадывания миллионы лет, а не десятилетия.

Я ни разу не претендовал на то, что моя критика конструктивна в том смысле, что я имею альтернативное решение. Не думаю, что для высказывания в духе «это не дверь» нужно чётко знать, где именно находится дверь :)

Кстати, я по профессии программист, и часто действую ненаучно. Типа «тут быстрее перепробовать пару-тройку вариантов, чем умозрительно решать, какой из них лучше». И вот именно поэтому в вашем случае я говорю: количество вариантов настолько астрономически огромно, что не стоит и пытаться их перепробовать в надежде на случай. И возражений на это я так и не услышал.

P. S.
Только сейчас обратил внимание на ваш UPD2. Маленькая претензия: он оформлен так, что некоторые могут воспринимать их как цитаты тех, чьи ники до двоеточия (из лично переписки или других источников), а не как ответы на высказывания в комментариях. Обычно в таких случаях добавляют to. Хотя даже такая приписка вряд ли поможет: иногда без контекста непонятно, на что именно вы отвечаете.
P. P. S.
Попробую выразиться конкретнее. Абзацы в UPD2 с моим ником выглядят так, как будто это мои слова. Я-то точно знаю, что этого не говорил, а вот другие могут не разобраться. Я на авторство не претендую, интерпретация целиком ваша, и местами я с ней даже не согласен :) В частности, сообщество я упоминал не как потребность интеллекта, а как условие его возникновения. Просьба: не могли бы вы затереть мой ник? Понимаю, что сейчас это трудно сделать, оставив на месте те же фразы без авторства, но вы сами выбрали такое оформление. Лично я в подобных случаях или точно цитирую, или однозначно даю понять, что это моё личное понимание сказанного.
Прощу прощения за неточность, постараюсь исправить
Если вы заметили, то я не делаю акцент на объем информации.

А вот угадывание — это пока что единственный способ работать в этом направлении. Я не знаю, как можно сделать ИИ. У меня есть кое-какие соображения о том, как он будет выглядеть с одной или с другой стороны, как будут работать те или иные его части, но это только догадки. Поэтому я и скал про угадывание. Или так или вообще никак.
Я согласен об угадывании(и в остальном с Вами), и смысл топика сводится к повышению шансов на создание ИИ, не более. Вопрос о возможных вариантах выкручивания ручки адресовался beetleinweb.
Странный подход: «если не знаю, то можно только угадывать». Это верно на экзаменах, если не выучил, но в жизни не катит :)
Вопрос к Вам остается в силе. Что предлагаете Вы?

Я предлагаю обсудить оптимальные условия для эксперимента, чтобы получить больше информации о законах мира, к которым теория ещё не написана.

А вы предлагаете просто забить и не обращать внимания?
Я говорю только за себя. Я не знаю. Может кто-то другой и знает. Или знает того, кто знает. Я таких не знаю.
> А вот угадывание — это пока что единственный способ работать в этом направлении.

Мне показалось, что здесь вы говорите сразу за всех работающих в области ИИ. Возможно, здесь стоило добавить «А вот для меня лично угадывание...» и т.д. Но вы ведь так не скажете, верно? :)
Я не знаю как его построить, поэтому для меня лично угадывание кажется разумным шагом.
Осмелюсь предположить, что вы никогда не пытались открывать цифровые замки угадыванием. Уверяю, довольно быстро подобная трата времени перестала бы вам казаться разумным шагом. Я же говорил — природа крутит миллионы ручек миллионы лет, а разумный вид появился только один. Ну что ж, если этот аргумент вас не убеждает, добавить мне больше нечего, умолкаю.
Когда-то давно баловался брутфорсом, угадывание помогало.

Пока теории нет, крутить ручки — единственный выход.
Мне интересно только узнать хотя бы их примерное положение.
Угадывание — это не только брутфорс. Никто не отменял использование эвристик в виде знаний психологии, нейрофизиологии, программирования и других научных и не очень дисциплин. А также годы на переработку этой информации, вычленение важных закономерностей и создание собственных теорий.

Это безусловно ускорит процесс, но все равно придется постоянно угадывать.

Еще можно основательно перестроить собственную нейросеть, изменить образ мышления и настроить его на решение именно этой проблемы.

Даже после этого придется угадывать. Хотя шансов угадать будет уже существенно больше.
UFO just landed and posted this here
Годная идея для трояна. В конце концов, в большинстве фантастических книжек ИИ получался из вируса.
Sign up to leave a comment.

Articles