All streams
Search
Write a publication
Pull to refresh
66
0

Пользователь

Send message
Продолжайте утверждать. Ваше право. Но поскольку вы перешли на неаргументированные и некорректные высказывания, то мы не видим смысла продолжать с вами обсуждения. Вполне ожидаемо, что вы напишите, что у нас просто нет контраргументов, но на троллинг и провокации мы не ведемся, поэтому просто подождем аналогичных вопросов от других и в корректной форме. А Винера все же перечитайте.
Область, относящаяся к помощи естественному интеллекту, называется Усилением Интеллекта (Intelligence Amplification). Это другая область, и в ней ставятся другие цели. Не надо навязывать цели одной области другой области.
Ага, и Винер тогда был «оракулом сильного ИИ», поскольку рассуждал о проблеме задания безопасной целевой функции…
Сейчас эта проблема является не первоочередной, но отрицать ее наличие глупо. И Ваш переход от частного вопроса о целевой функции к выводу о необходимости разрабатывать слабый ИИ вообще весьма странен.
Да, идеальная рациональность недостижима. И обсуждаемые модели — не более чем примитивная абстракция. Но абстракция чрезвычайно полезная, поскольку если ограничиться подходом «acting humanly», то можно будет, например, заняться тем, чтобы специально вводить, скажем, в шахматную программу способность ошибаться. Бессмысленно вслепую воспроизводить внешние проявления мышления человека. Та же способность допускать ошибки имеет несколько вполне естественных причин, связанных с ограниченностью информации и ресурсов. И эта «способность» будет у реального универсального ИИ. То есть наша задача не от балды имитировать «несовершенное» человеческое мышление, а пытаться понять, чем оно обусловлено.
Весьма любопытно. Было бы здорово увидеть от Вас на хабре статейку про ГП и проблемы оптимизации. Я к проблематике универсального алгоритмического интеллекта пришел из машинного восприятия и обучения. И из эмпирических соображений уверен, что алгоритмическая полнота (пусть не актуальная, но потенциальная) там абсолютно необходима. Ограничиваться, скажем, автоматами — это искать не там, где потеряли, а там, где светло. Конечно, ограниченность ресурсов принципиальна, но она не превращает UMT в конечный автомат; как я писал, остаются более тонкие, но не менее важные отличия. Гарантированное время вычислений, конечно, очень привлекательное свойство, но такими моделями вычислений можно ограничиваться только для частных задач.
Понятно, что как только мы начинаем расширять пространство моделей, во весь рост встает проблема поиска. Я ей занимался меньше, но обнаружил аналогию между моделями данных и методами поиска: и то, и другое управляется сложностью; только одно — структурной, а другое — вычислительной. И есть возможность объединить оба вида сложности в одном критерии. Но чтобы сделать это, несколько не хватает опыта в методах оптимизации (он есть, но для такой глобальной задачи недостаточный). Поэтому сейчас меня живо интересует чужой опыт здесь )))
Однако на автоматы я не соглашусь. Даже недетерминированные. Более того, с точки зрения как машинного обучения, так и принятия решений, детерминированные и недетерминированные алгоритмы не являются эквивалентными. То есть они эквивалентны в некотором очень обобщенном смысле, но в реальных условиях неэквивалентны. Так что я бы сказал, что необходимо использовать не просто алгоритмы, а недетерминированные алгоритмы.
За пожелание — спасибо. Надеюсь на продолжение общения: у меня сложилось впечатление, что Вы обладаете полезным (для нас) опытом ))
Я сам в значительной мере эмпирик, но собственноручно все задачи на практике пощупать физически не успеваешь…
За книжку — спасибо. Постараюсь при случае прочитать. Эволюционные эвристики нас интересуют.
ГП — штука хорошо, но меня в имеющемся состоянии не удовлетворяет. Правда, я не знаком с последними достижениями в этой области, так что Вы меня поправьте, если «наука уже шагнула вперед». Что меня не удовлетворяет в ГП:
1. Методы ГП сконцентрированы вокруг нескольких оптимизационных метаэвристик, которые были эволюции не даны априори, а были ею «изобретены». Тот же мейоз с кроссинговером возник меньше миллиарда лет назад, то есть больше двух миллиардов лет эволюция обходилась без него. В естественной эволюции есть целая куча других чуть более частных метаэвристик, которые также были «изобретены» на уровне физической и химической самоорганизации. Мне эволюция (не отдельный интеллект!) представляется чем-то типа самооптимизирующейся машины Гёделя, только на внелогической основе. В ГП этого, вроде, нет. Там набор метаэвристик фиксирован; рефлексивности/самоприменимости/аутопоэзиса нет или почти нет. Поэтому ГП, может, и важная, но частность. У Соломонова на основе ГП не получилось построить систему универсального инкрементного обучения.
Какие-то метаэвристики надо закладывать априорно для ускорения развития универсального ИИ, но фиксированного их набора будет недостаточно. ГП должно не просто быть способно порождать произвольные алгоритмы в полном по Тьюрингу представлении, но должно быть способно и формировать любые метаэвристики из алгоритмически полного пространства. Естественная эволюция это умеет. В области ГП, насколько я знаю, этим вопросом никто не озабачивался.
Ну, во-первых, было сказано «генетические алгоритмы». Во-вторых, это способ не представления алгоритмов, а способ их оптимизации, поэтому включение их в общий список само по себе выглядит странным. В-третьих, в генетическом программировании нередко используются не полные по Тьюрингу представления алгоритмов: иногда просто параметризованные узкие семейства алгоритмов, иногда — конечные автоматы или те же ИНС. Полные представления используются, но на практике — очень редко, так как там действительно куча трудностей. В-четвертых, даже при использовании полных представлений редко ставится вопрос о том, может ли быть в принципе получен любой алгоритм в процессе работы метода генетического программирования.
В общем, из того, что было перечислено и что является именно представлениями алгоритмов, полных по Тьюрингу представлений нет.
Какое-то у нас все же расхождение в понимании… Перечисленное Вами — это очень частные «представления алгоритмов», не являющиеся полными по Тьюрингу. Я не очень понял, откуда они у Вас тут взялись в контексте нашего разговора.
При большом желании можно сделать перцептроны алгоритмически полными путем выбора активационных функций. Но это все равно, что к одноэтажному дому делать стоэтажную пристройку. Я, наоборот, предпочитаю рассматривать, ИНС в качестве одного из представлений алгоритмов.
«это не применимо на практике ни как.» — с этим сложно полностью согласиться. К примеру, можно было бы сказать, что Колмогоровская сложность «не применима на практике никак». Но вот она инспирировала принцип минимальной длины описания, который очень широко и очень успешно применяется на практике. Подобные продуктивные теоретические концепции могут быть неприменимы на практике непосредственно, но при правильной их интерпретации они указывают крайне перспективные направления развития практических методов. Можно (и нужно) идти обоими путями — пытаться уточнить теорию до ее более практической осмысленности и развивать практические методы до уровня теоретического идеала. Но на любом из этих путем нельзя пренебрегать ни теорией, ни практикой.
А алгоритм сочиняется по наитию, а не из математического анализа? ))
И чем Вам машина Гёделя не алгоритм?
Я вполне понимаю и разделяю Вашу неудовлетворенность от конструкций типа AIXI или машины Гёделя. Они слишком далеки от практической реализуемости. Но это означает не то, что их нужно игнорировать и пытаться интуитивно решить сложные проблемы — из этого ничего не получится. Нет, это означает, что нужно пытаться сблизить теорию и практику и самим пытаться создать соответствующий «алгоритм», а не ждать, когда готовое решение получат другие. Поскольку когда они его получат, они первыми его и будут использовать.
У Соломонова в модели инкрементного обучения происходит именно структурная адаптация. Можно обсуждать, является ли она достаточной, поскольку там происходит только смещение априорных алгоритмических вероятностей без выделения подмножеств алгоритмов, но единственный способ сделать автоматическую произвольную структурную адаптацию — это начинать с множества всех вычислимых функций.
Если не нравится вариант Соломонова, давайте пообсуждаем машину Гёделя. Она, теоретически, вообще не имеет ограничений на возможности структурной адаптации.
«Например, структура перцептрона это множество функций вида x1w1+x2w2+xnwn»
Да. А в универсальной индукции структура — это множество всех вычислимых функций. На то она и универсальная. И именно это позволяет делать произвольную структурную адаптацию в рамках универсальной индукции.
Не очень понял замечания. И у того, и у другого используется алгоритмическое пространство моделей. Как можно считать это «параметрическим анализом»? В чем разница между видами «структур» у них?
Так что с «это явным образом — не так» никак нельзя согласиться. Либо Вы о чем-то другом говорите…
«У меня как раз больше аргументов против.»
В некотором смысле, жаль. Хотелось бы не изобретать велосипед, а использовать чужой. Но если не мы одни считаем, что чужой слишком крив, то придется все же разрабатывать теории самооптимизации почти с нуля самим…

«И мне кажется что конечная система могла бы иметь вид набора таких микротеорий плюс статистическая функция выбора и сшивки таких теорий.»
Это уже эвристика — элемент индуктивного смещения, которое нужно закладывать в модели типа AIXI или машину Гёделя для повышения их «прагматичности» (в смысле определения Гёрцеля). Именно этим мы как раз и занимаемся… Но все же хочется отметить, что нужно четко понимать, что подобная декомпозиция будет работать далеко не в любой среде.

«Но если мы, например, работаем с вероятностями, то можно доказывать что данная стратегия работает не всегда, а в большинстве случаев (статистические кванторы, если вы читали такую древность как lib.mexmat.ru/books/55118).»
Да, читал, правда, лет десять назад. Да, ваше замечание о том, что можно проводить строгие доказательства в вероятностной логике или чем-то похожем, вполне справедливо, и я сам об этом думал. Но все же лично у меня вызывает интуитивно-методологический протест использование дедуктивной логики в индукции. Я считаю любую форму дедуктивной логики результатом индуктивного обобщения, и априорное введение любой аксиоматики, включающей понятие истинности как базовое, мне кажется слишком жестким (ведь теория алгоритмов строится на внелогическом основании; а она сама основа универсальной индукции). Хотя, возможно, этот вопрос надо еще раз обмозговать.

«Еще один плюс машины Геделя — ее рефлексивность.»
Совершенно справедливо. Собственно, идея самоприменимости — это тот сухой остаток от машины Гёделя, который только и имеет значение.

«Имхо проблема агентов в меняющейся среде не сильно коррелирует с универсальным решением задач.
Здесь речь идет скорее об оптимальном использовании ресурсов, критичных для агентов.»
Мы полагаем, что универсальность — принципиальное свойство. При всем том, что практические аргументы об оптимальном использовании ресурсов совершенно верны, если концентрироваться только на них, ничего сверх слабого ИИ не получится.

«В реальном мире не существует бесконечных языков. Есть только конечные способы их конструкции.»
Да; надо разделять потенциальную и актуальную бесконечность. Но способы конструирования бесконечных языков необходимы для универсальности. Конечно, можно усомниться в том, что теоремы о том, что, скажем, множество машин Тьюринга мощнее множества конечных автоматов, имеет хоть какое-то отношение к практике, поскольку в реальности все машины конечны (бесконечных лент не бывает), а, значит, в некотором смысле эквивалентны конечным автоматам. Или, скажем, с практической точки зрения теоремы о том, что задача грамматического разбора алгоритмически неразрешима в классе неограниченных языков, абсолютно не мешают заниматься компьютерной лингвистикой. Еще у Минского давно была фраза о том, что типа математические доказательства полноты каких-то методов вредны для ИИ. Самые смешные доказательства из этой серии, которые я видел, это доказательства сверхтьюринговости искусственных нейронных сетей. По сути, они основаны на том, что активности нейронов выражаются вещественными числами с актуально бесконечной точностью. Математически корректно, но практически абсолютно бессмысленно. Но (!!!) совершенно недопустимо делать какие-то выводы вне теории из «практических соображений». В частности, машины Тьюринга даже с конечной лентой не являются конечными автоматами, как можно было бы подумать из наивного анализа. Грубую эквивалентность между ними можно установить, но останутся более тонкие, но важные для практики различия (размер конечных автоматов, эквивалентных машинам Тьюринга с ограниченной лентой может экспоненциально расти при увеличении размера ленты — это к вопросу об оптимальном использовании ресурсов). То есть теоретическое свойство несоизмеримой мощности бесконечных языков, порождаемых машинами Тьюринга и конечными автоматами, не имеющее, казалось бы, практического смысла, имеет хотя и немного неявные, но весьма ощутимые практические следствия. Аналогично, невычислимая колмогоровская сложность на практике превращается в крайне полезный принцип минимальной длины описания.
Да, нужно быть осторожным и не зацикливаться на разной «эзотерической» трансфинитной мути, но в равной степени нужно быть внимательным к теоретическим результатам, многие из которых могут вскрыть природу практических проблем гораздо четче, чем это могут сделать практики из своего непосредственного опыта.

«Чем мне нравится подход в машине Геделя — изначальная ориентация на ограниченность ресурсов.»
Ну, ограниченность ресурсов рассматривалась еще в AIXItl. Хотя, к слову, там тоже использовалась система логических доказательств… В этом смысле фишка машины Гёделя именно в самооптимизации.

«И имхо если заменить поиск доказательства на статистику и расслабить требования к доказанному — эта штука будет намного полезнее на практике.»
Да; как раз к размышлению над чем-то подобным мы и собираемся приступить.
"«индуктивное смещение» — я понимаю как некоторую предрасположенность к определенному решению"
Да, в широком смысле вполне можно так сказать.

«Т.е. структурный анализ задачи — должен как раз установить «распределение априорных вероятностей»»
Когда мы говорим об алгоритмической вероятности по Соломонову или хотя бы об алгоритмической сложности по Колмогорову, это как раз самый что ни на есть структурнейший анализ. Структурнее некуда. Так вот этот структурный анализ тоже неизбежно обладает своим априорным распределением.
Еще хотелось бы спросить у автора следующее, раз уж статья про машину Гёделя…
Мы вот с коллегами анализировали эту машину, анализировали, и пришли к выводу, что ничего особо хорошего в плане самооптимизации она не сделает. Эта машина осуществляет акт переписывания switchprog только в том случае, когда в рамках заданной логической аксиоматики может строго доказать, что это переписывание приведет к повышению будущего вознаграждения. Но складывается подозрение, что при действии интеллектуального агента в недетерминированной среде (а именно этот случай представляет интерес) однозначно доказать допустимость самомодификации можно в крайне ограниченных случаях. Более того, в рамках классической теории алгоритмов есть ряд теорем, доказывающих невозможность ускорения сверх определенного предела. Если исходная аксиоматика будет базироваться на классической теории алгоритмов (а Шмидхубер другого, вроде, не предлагает), то возможности по самооптимизации будут крайне ограниченными. А чего-то типа прагматической теории алгоритмов (в рамках которой можно было бы доказывать, что для каких-то конкретных случаев субоптимальные алгоритмы при имеющихся ограничениях на ресурсы будут «оптимальнее» оптимальных алгоритмов в смысле заданной функции полезности) просто нет. Собственно вопрос: есть ли у Вас какие-то аргументы, которые бы позволили развеять наши сомнения в работоспособности машины Гёделя и в том, что подход к самооптимизации на основе логического доказательства вообще хоть немного адекватен для агента в недетерминированной среде, действующего в реальном времени?
Хотел тот же вопрос Вам задать ))
Но у меня это сформулировано в сообщении выше: упрощенно говоря, индуктивное смещение определяется распределением априорных вероятностей в пространстве моделей.
Человек обладает очень существенным индуктивным смещением. Посмотрите, например, на когнитивное смещение (когнитивное искажение)…
Вы путаете отсутствие индуктивного смещения и универсальность. Говоря упрощенно, потеря универсальности — это приравнивание априорных вероятностей каких-то моделей нулю; отсутствие индуктивного смещения — это равенство априорных вероятностей всех моделей. Последнее вредно и ведет к переобучению. Наличие индуктивного смещения не только не мешает универальности, но и неизбежно в случае универсальности. Равенство априорных вероятностей возможно только в узких пространствах моделей, но это будет означать в более глобальном плане еще более жесткое индуктивное смещение, так как вероятности моделей вне этого пространства будут нулевые.

Information

Rating
Does not participate
Location
Санкт-Петербург, Санкт-Петербург и область, Россия
Date of birth
Registered
Activity