А стрела когда достигает цели? Я о сути подхода к этому утверждения статьи, а не математического решения, тем более реальности. И вообще, это же сингулярность, там любые парадоксы возможны;)
Вселенная будет всё меньше и меньше, но никогда не достигнет нуля. Она, соответственно, будет составлять половину, четверть, 1/8, 2-10, 2-100 от первоначального размера. Но не важно, как далеко во времени мы зайдём, мы никогда не придём к сингулярности.
Доказательство в стиле апорий Зенона.
И это – последний на Хабре перевод статьи Итана Сигеля (и в принципе статьи на тему космологии)...
Заметил, что число коментов к статьям на эту тему в среднем на порядок больше, чем к другим тематикам, и они длиннее. Возможно нагрузка на ресурсы. Также космология связана с мировоззренческими вопросами, а те в свою очередь могут вызвать политизированные дискуссии, а это не к чему. Жаль, для общего развития были полезными.
Это модели, интуитивное представление проще, это некая иллюзия, которую создает мозг. По пространству, зашитая на уровне рефлексов уверенность, что можно сделать шаг вперед на открытой местности, и не упереться в непреодолимую преграду, или что можно завернуть за угол, и двигаться дальше, ну и тп. На более продвинутом уровне глазомер связанный со стереоскопическим зрением, и оценка расстояний с его помощью, еще более продвинутом уровне ориентация на местности, связанная с нейронами места в мозге и памятью. По времени, это уверенность, зашитая на уровне рефлексов, о возможности совершения последовательности действий, движений, на более продвинутом это «часы» встроенные в мозг, масса всевозможных ритмов, которым подчиняется физиология и деятельность человека. Что-то ребенок сам делает рефлектор, пребывая в полной уверенности, что так можно, чему-то обучается, настраивая встроенные возможности, чему-то учат родители, например, строго планировать время и тд. Все это уже может вылиться в некие представления о пространстве и времени, и составить простую формальную модель, безо всяких специальных опытных проверок на эту тему.
Но сомнение у меня всё то же: машины не могут строить модель реальности в своих ИНС.
Вы идеализируете не только сознание, но и реальность) Даже самообучающийся робот-пылесос строит модель реальности) — комнаты в которой он пылесосит. Пусть это кусочек реальности, и модель ограничена геометрическими характеристиками доступной области помещения. Вопрос в масштабах. Живые существа строят модели среды обитания, человек модели всего мира, и эта модель усложняется, по мере развития самого человека. Нужно только помнить один важный момент. Эволюция впихнула в человека, в структуру его тела, мозга и поведенческих программ результат миллиардолетнего исследования окружающей реальности. Поэтому ничего удивительного, что мы интуитивно понимаем некоторые вещи, и удивляемся откуда взялось это понимание. К примеру, мы интуитивно понимаем пространство и время, потому что соответствующая поддержка зашита эволюцией в организме и мозге на различных уровнях. Нам не нужно осваивать их с нуля, а лишь активировать эту поддержку в детстве, впитав культурное наследие на эту тему. ИИ предстоит тоже пройти этот путь, но он пройдет его куда стремительнее, чем это проделал человек.
Попытки упихать подобное в какую-то общую нейросеть встречаются всё с теми же проблемами обучения: база данных, разметка и т.д.
Это преодолимые проблемы роста. После снабжения ИИ эффекторами, программой целевого роста и методами самообучения, они смогут решать такие проблемы сами. Обратите внимание программы роста, или развития. Все должно быть под контролем, потому что, если в самообучение ввести некий элемент случайности, то результат может быть не предсказуем. С одной стороны это станет похоже на поведение человека, случайно находящего новые нетрадиционные подходы и решения, с другой, порождать опасные для самого человека ситуации. И еще один важный момент. Должен совершенствоваться не только ИИ, но и среда (инфраструктура) в которой он функционирует, взаимодействует с человеком и др. ИИ.
Возможно, Ваша концепция будет проходить, когда человечество наконец соорудит целиковую модель человеческого мозга.
Абсолютно никчемная задача. Мозг настолько не совершенен и глючен, что нет смысла воспроизводить ИИ только на его принципах. Можно что-то позаимствовать, оттолкнуться в исследованиях, строить прототипы, но реализации в будущем будут на другой платформе. Других материалах, другой энергоэффективности и производительности. Может он будет квантовым, может оптическим, на нанокристаллической основе, может распределенным и тд., может сочетать разные технологии, включая и генинженерные.
бороться с шумами… хм… А электронный… мозг — тоже смогёт?
Эволюция решила эти проблемы методом проб и ошибок, нам известно о них, и механизмы их подавления будут исходно предусмотрены в реализациях. В текущих нейросетях это фактически выбор критерия обучения минимизирующего влияние случайного разброса свойств в обучающей выборке. Есть и другие методы.
электронный мозг… ограничен в точности аппроксимации наблюдаемой реальности, а живой — нет.
Он тоже ограничен, модель реальности все время в развитии, и переносится в коммуникативные формы. Сами нейросети и ИИ это тоже часть модели реальности, модели себя в развитии.
Вот ещё: потребуется от модели мозга формулировать формальные системы или будем обходиться без этой функции?
Даже для текущих нейросетей пытаются создать механизмы самоотчета состояний. Это требует практика их применения. Вспомним аварии с участием робомобилей. Чтобы понять причину принятия неправильного решения нужно получить отчет о состоянии сети в момент аварии в модели дорожного движения, кот. обучили бортовую нейросеть. В перспективе ИИ должен давать отчет о модели предметной области на которой производилось обучение в символическом виде, а в более отдаленном будущем и вербальной форме. Параметрам, свойствам и связям модели могут присваиваться общепринятые имена, если они будут идентифицирован в базе, либо новые, если не идентифицированы. Если предметной областью обучения будут математические объекты, то почему ее результатом не может быть модель, соответствующая некоторой формальной системе?
А сознание в нём будет, кстати?
Своим поведением ИИ может напоминать поведение человека, этого можно добиться. Это особенно важно для ИИ ориентированного на общение с человеком, возможно в них будет некая реплика эмпатии. Поведение предполагает распознавание окружающей обстановки и построения ее модели, аналога чувственного восприятия человека, в простой форме это могут делать уже современные роботы. Интеллект по определению должен поддерживаться. Из компонентов сознания остается еще психея, связанная с семейным и общественным поведением, это не понадобится и даже вредно для реализации. Последняя важная компонента — самосознание, некое «Я». Думаю в какой-то форме будет реализовано, так как необходимо для программы самосохранения и самоидентификации.
Я лично, верю ...
Ваша установка понятна, открыта, и вы убедительно защищаете ее.
Значит, должен быть формальный метод построения новых формальных систем, да? Мы же с машиной имеем дело.
Чтобы не повторятся посмотрите этот коммент. Основные моменты там имеются, попробую пояснить подробнее. Физическая теория состоит из математической модели и некоторой связанной с ней семантической сетью понятий, описывающей область приложения, в обиходе известную, как интерпретация теории. Вспомним интерпретации КМ. Формальными свойствами может обладать только мат. модель, если она строится на аксиоматических принципах. Мат. модель можно рассматривать как некоторую аппроксимацию экспериментальных данных. Такое определение теории не противоречит традиционному определению, но детализирует его. Действительно, если имеются экспериментальные данные, независимо подтвержденные, измеренные с приемлемой стат. достоверностью (сейчас принято 5 сигм), то для них можно найти эмпирическую, или даже аналитическую зависимость. В первом случае это относится в основном к прикладным теориям, во втором, как правило, к фундаментальным. Тогда интерполированные значения аппроксимации, в области ее применения, можно истолковывать как конкретные приложения теории в практической деятельности, а экстраполяции за ее пределы, как предсказания теорией новых эффектов, кот. необходимо подтвердить экспериментально. Если подтверждение происходит, то область применения теории расширяется, без изменения аппроксимации. Если нет, необходимо произвести новую более точную аппроксимацию, кот. покроет всю область доступных данных. В результате получится более общая теория, кот. будет включать старую, как некоторый предельный случай области применения. При этом интерпретация старой теории может измениться в сторону обобщения, и появятся дополнительные понятия, если мат. модель аппроксимации изменится достаточно существенно.
Такое определение теории отлично ложится на методику нейросетевого обучения, которая, по сути, является процедурой некоторой аппроксимации (оптимизации) входных данных с использованием критериев минимизации ошибки подгонки. Это и не удивительно, вспоминая происхождение этой технологии. Причем результатом обучения может быть модель, как в численной, так и аналитической форме. Вероятно модели будущих теорий Всего будут именно в численной форме, учитывая сложность уже существующей Стандартной модели, и расчетов по ней, требующих суперкомпы. См., к примеру, запись лагранжиана Ст. модели в теме из которой был приведен коммент выше. То есть возможно мат. модели будущих теорий вообще не будут существовать в аналитической форме, и поставляться и использоваться для практических расчетов в виде готовой нейросетевой модели. Которая будет постоянно совершенствоваться, по мере поступления новых данных критических экспериментов. О том, что будет творится внутри такой модели будем возможно иметь смутное представление. Важно, что результаты вычислений будут соответствовать реальности. Впрочем, это не удивительно. Уже сейчас, вспоминая квантовомеханические расчеты, по сути являющейся «черным ящиком» на уровне представлений о том, что происходит в этой реальности. Важно правильно сформулировать задачу на этом птичьем языке и задать входные данные, и на выходе получить результат годный к практическому применению. Вероятно мат. модели теорий будут все же формулироваться в неком символическом виде, символам которых не будут соответствовать непосредственные вычислительные процедуры, а лишь некоторые наборы входных данных. Решение задачи будет происходить в готовой нейросетевой моделе, на вход которой будут подаваться эти данные. Эти символические записи моделей необходимы будут для работы, хранения и передачи знаний и обучения, то есть коммуникативных целей.
Остается вопрос с интерпретацией этих моделей. В принципе, как показывает опыт использования КМ, это не критично для практического применения теории. Этот не формальный момент теорий может быть отдан в будущем на откуп людям, любящим пофилософствовать по своей сентиментальной привычке)
если живой человек включён в систему, тогда всё возможно. В таком случае есть над-формальный источник формальных знаний.
Человек нужен в такой системе только для одного, чтобы ИИ выполнял задачи нужные человеку, а не занимался чем-то иным. Как видится ограничений не в формальной, не не формальной области теорий не должно возникнуть.
Это пока больше игра в эволюцию, реальные модели эволюции намного сложнее. Но как база для развития вполне годная. Не пробовали обратить внимание Маркова, может заинтересует, у него блог имеется.
Машина никогда не сможет придумывать новые наборы постулатов (которые не учтены при её постройке) — вот в чём проблема.
Почему? Есть два варианта.
1. ИИ обучается не только правилам логического вывода, но и построению новых формальных систем в случае появления новых фактов, не объясняемых существующими теориями. Все почти как у людей, ведь мы знаем о проблемах связанных с появлением новых экспериментальных фактов, и знаем как их решать, значит можем обучить этому ИИ.
2. Расширенный вариант первого. Все хорошо, но ИИ не может получить эти новые факты. Они не выводятся из существующих знаний. Для их получения нужно активно воздействовать на реальность, наблюдать, и главное, экспериментировать. Ответ видится в трансгуманистическом стиле) В будущем появятся бионические люди, помесь генной инженерии и других технологий, которые будут иметь ИИ, и которые могут быть специализированы на исследовательские задачи. Их набор органов чувств может быть расширен, добавлены такие модальности, кот. отсутствуют у людей. К примеру, восприятие других диапазонов эм. волн, или непосредственное восприятие атомных и молекулярных структур, по типу эл. микроскопов, много что можно придумать. Эти возможности повысят эффективность исследований. Для такого ИИ уже не будет проблем не только с построением новых формальных систем, но формулировкой аксиом для них, и главное, постановка задач и проведение эксп. исследований. То есть будет доступно все что может делать человек, и даже больше. Возможно человек будет работать в симбиозе с таким ИИ. Такой интеллект не должен обязательно повторять все принципы на которых работает интеллект самого человека, и быть ограниченным в социальном плане.
Здесь он явно выражает уверенность в том, что есть что-то за пределами привычной физики.
Кто бы в этом сомневался), что-то там есть, и не только там.
Только проблемы познания этого нового могут быть связаны не с тем, о чем вы думаете, с теоремой Гёделя. Эти проблемы решались в прошлом, и будут решаться в будущем. Куда важнее ограничение связанное с конечностью тезаураса понятийного аппарата физики. Если интересно, могу написать.
А почесать репу и соорудить новые постулаты — это у человека время от времени получается.
Извиняюсь, что вклиниваюсь в ваш дискусс, но это вас ставит в тупик? И что по этой причине нельзя создать ИИ сравнимый с человеческим?
Если да, то вопрос каким образом появились постулаты ТО и КМ? Так понимаю неким потусторонним вмешательством?
Блин, сам спрашиваю, сам отвечаю) проясните, плиз.
В определении жизни в первую очередь важно ее самосохранение, с использованием для этого информации, энергии и вещества из окружающей среды. Это подходит для определения жизни в вашей симуляции. Если уточнить, что вещество — высокомолекулярные соединения, то биологической жизни вообще, включая гипотетическую в других мирах, если еще уточнить — углеродные высокомолекулярные соединения, то для земной формы жизни.
1. воспроизводимость
2. изменчивость
Все остальное спорно и не обязательно
А это к эволюции относится, она породила эти механизмы из факта конечного времени существования живых систем, то есть их постепенного разрушения и смерти. Этих форм воспроизводства много, они сами по себе эволюционировали, чтобы повысить эффективность отбора, с начало было копирование, затем деление, почкование, и наконец венец творения — половое размножение. Изменчивость, в виде воздействия вредных факторов внешней среды всегда существует, это одна из причин гибели живых организмов. В половом размножении добавился очень эффективный механизм изменчивости — перемешивание хромосом (мейоз).
Как то вы лихо сделали заключение увидев слово динамическая) В процессе эволюции мозг давно научился достаточно успешно бороться с шумами, неопределенностями и хаосом (привет Пуанкаре и Ляпунову)). Если это было бы не так, вид просто не выжил. Как раз приведенный механизм неплохо объясняет особенности проявления той же телепатии, спорадичность возникновения, отсутствие регистрации физического коррелята в исследованиях (пока), экспериментальная проверка механизма, ссылку давал. Видимо вы не восприняли информацию там. Смысл, в мозге имеются специальный механизм усиливающий синхронизацию активности мозга взаимодействующих людей по ее результатам. На уровне нейронных сетей, вероятно в это время, как раз происходит построение или коррекция моделей.
Заголовок спойлера
Сослались на специализацию, в этом плане пожалуй ближе к теме, так как занимаюсь исследованиями в области медицины и психофизиологии, хотя закончил физфак.
Автокаталитические реакции приводят к колебательным процессам. А в этой симуляции колебательные процессы возникают? По идее должны, так как есть боты поглощающие других ботов (условно «хищники»), есть боты поглощающие органику (условно «травоядные»), и есть боты фотосинтезирующие (условно «растения»). А это значит есть условия для реализации экологических моделей типа «Хищник — Жертва», «Травоядные — Трава», и подобных, с сопутствующими колебательными процессами, как одного из решений. Наблюдаются такие? Или там такого разделения ботов нет, и такие процессы не возникают?
Одна из интерпретаций этих рисунков, по крайней мере части, символическая, или ритуальная. Первобытные охотники как-бы проигрывали процесс охоты, настраивались на нее, призывая духов на удачу. Так, что это действительно напоминает некий код программы действий.
Что касается необходимости математики для программистов, то есть области, где без ее знания, из самых разных разделов, никак не обойтись. Например, в ПО связанным с постановкой экспериментов в научных исследования, и обработки их результатов. Более того, в некоторых случаях приходится разрабатывать, или развивать существующие мат. методы, чтобы решить возникающие задачи, если имеющихся методов не достаточно для решения.
Заметил, что число коментов к статьям на эту тему в среднем на порядок больше, чем к другим тематикам, и они длиннее. Возможно нагрузка на ресурсы. Также космология связана с мировоззренческими вопросами, а те в свою очередь могут вызвать политизированные дискуссии, а это не к чему. Жаль, для общего развития были полезными.
Это преодолимые проблемы роста. После снабжения ИИ эффекторами, программой целевого роста и методами самообучения, они смогут решать такие проблемы сами. Обратите внимание программы роста, или развития. Все должно быть под контролем, потому что, если в самообучение ввести некий элемент случайности, то результат может быть не предсказуем. С одной стороны это станет похоже на поведение человека, случайно находящего новые нетрадиционные подходы и решения, с другой, порождать опасные для самого человека ситуации. И еще один важный момент. Должен совершенствоваться не только ИИ, но и среда (инфраструктура) в которой он функционирует, взаимодействует с человеком и др. ИИ.
Абсолютно никчемная задача. Мозг настолько не совершенен и глючен, что нет смысла воспроизводить ИИ только на его принципах. Можно что-то позаимствовать, оттолкнуться в исследованиях, строить прототипы, но реализации в будущем будут на другой платформе. Других материалах, другой энергоэффективности и производительности. Может он будет квантовым, может оптическим, на нанокристаллической основе, может распределенным и тд., может сочетать разные технологии, включая и генинженерные.
Эволюция решила эти проблемы методом проб и ошибок, нам известно о них, и механизмы их подавления будут исходно предусмотрены в реализациях. В текущих нейросетях это фактически выбор критерия обучения минимизирующего влияние случайного разброса свойств в обучающей выборке. Есть и другие методы.
Он тоже ограничен, модель реальности все время в развитии, и переносится в коммуникативные формы. Сами нейросети и ИИ это тоже часть модели реальности, модели себя в развитии.
Даже для текущих нейросетей пытаются создать механизмы самоотчета состояний. Это требует практика их применения. Вспомним аварии с участием робомобилей. Чтобы понять причину принятия неправильного решения нужно получить отчет о состоянии сети в момент аварии в модели дорожного движения, кот. обучили бортовую нейросеть. В перспективе ИИ должен давать отчет о модели предметной области на которой производилось обучение в символическом виде, а в более отдаленном будущем и вербальной форме. Параметрам, свойствам и связям модели могут присваиваться общепринятые имена, если они будут идентифицирован в базе, либо новые, если не идентифицированы. Если предметной областью обучения будут математические объекты, то почему ее результатом не может быть модель, соответствующая некоторой формальной системе?
Своим поведением ИИ может напоминать поведение человека, этого можно добиться. Это особенно важно для ИИ ориентированного на общение с человеком, возможно в них будет некая реплика эмпатии. Поведение предполагает распознавание окружающей обстановки и построения ее модели, аналога чувственного восприятия человека, в простой форме это могут делать уже современные роботы. Интеллект по определению должен поддерживаться. Из компонентов сознания остается еще психея, связанная с семейным и общественным поведением, это не понадобится и даже вредно для реализации. Последняя важная компонента — самосознание, некое «Я». Думаю в какой-то форме будет реализовано, так как необходимо для программы самосохранения и самоидентификации.
Ваша установка понятна, открыта, и вы убедительно защищаете ее.
Такое определение теории отлично ложится на методику нейросетевого обучения, которая, по сути, является процедурой некоторой аппроксимации (оптимизации) входных данных с использованием критериев минимизации ошибки подгонки. Это и не удивительно, вспоминая происхождение этой технологии. Причем результатом обучения может быть модель, как в численной, так и аналитической форме. Вероятно модели будущих теорий Всего будут именно в численной форме, учитывая сложность уже существующей Стандартной модели, и расчетов по ней, требующих суперкомпы. См., к примеру, запись лагранжиана Ст. модели в теме из которой был приведен коммент выше. То есть возможно мат. модели будущих теорий вообще не будут существовать в аналитической форме, и поставляться и использоваться для практических расчетов в виде готовой нейросетевой модели. Которая будет постоянно совершенствоваться, по мере поступления новых данных критических экспериментов. О том, что будет творится внутри такой модели будем возможно иметь смутное представление. Важно, что результаты вычислений будут соответствовать реальности. Впрочем, это не удивительно. Уже сейчас, вспоминая квантовомеханические расчеты, по сути являющейся «черным ящиком» на уровне представлений о том, что происходит в этой реальности. Важно правильно сформулировать задачу на этом птичьем языке и задать входные данные, и на выходе получить результат годный к практическому применению. Вероятно мат. модели теорий будут все же формулироваться в неком символическом виде, символам которых не будут соответствовать непосредственные вычислительные процедуры, а лишь некоторые наборы входных данных. Решение задачи будет происходить в готовой нейросетевой моделе, на вход которой будут подаваться эти данные. Эти символические записи моделей необходимы будут для работы, хранения и передачи знаний и обучения, то есть коммуникативных целей.
Остается вопрос с интерпретацией этих моделей. В принципе, как показывает опыт использования КМ, это не критично для практического применения теории. Этот не формальный момент теорий может быть отдан в будущем на откуп людям, любящим пофилософствовать по своей сентиментальной привычке)
Человек нужен в такой системе только для одного, чтобы ИИ выполнял задачи нужные человеку, а не занимался чем-то иным. Как видится ограничений не в формальной, не не формальной области теорий не должно возникнуть.
Про тезаурус в след. комменте, в этот не вошел.
1. ИИ обучается не только правилам логического вывода, но и построению новых формальных систем в случае появления новых фактов, не объясняемых существующими теориями. Все почти как у людей, ведь мы знаем о проблемах связанных с появлением новых экспериментальных фактов, и знаем как их решать, значит можем обучить этому ИИ.
2. Расширенный вариант первого. Все хорошо, но ИИ не может получить эти новые факты. Они не выводятся из существующих знаний. Для их получения нужно активно воздействовать на реальность, наблюдать, и главное, экспериментировать. Ответ видится в трансгуманистическом стиле) В будущем появятся бионические люди, помесь генной инженерии и других технологий, которые будут иметь ИИ, и которые могут быть специализированы на исследовательские задачи. Их набор органов чувств может быть расширен, добавлены такие модальности, кот. отсутствуют у людей. К примеру, восприятие других диапазонов эм. волн, или непосредственное восприятие атомных и молекулярных структур, по типу эл. микроскопов, много что можно придумать. Эти возможности повысят эффективность исследований. Для такого ИИ уже не будет проблем не только с построением новых формальных систем, но формулировкой аксиом для них, и главное, постановка задач и проведение эксп. исследований. То есть будет доступно все что может делать человек, и даже больше. Возможно человек будет работать в симбиозе с таким ИИ. Такой интеллект не должен обязательно повторять все принципы на которых работает интеллект самого человека, и быть ограниченным в социальном плане.
Кто бы в этом сомневался), что-то там есть, и не только там.
Только проблемы познания этого нового могут быть связаны не с тем, о чем вы думаете, с теоремой Гёделя. Эти проблемы решались в прошлом, и будут решаться в будущем. Куда важнее ограничение связанное с конечностью тезаураса понятийного аппарата физики. Если интересно, могу написать.
Если да, то вопрос каким образом появились постулаты ТО и КМ? Так понимаю неким потусторонним вмешательством?
Блин, сам спрашиваю, сам отвечаю) проясните, плиз.
А это к эволюции относится, она породила эти механизмы из факта конечного времени существования живых систем, то есть их постепенного разрушения и смерти. Этих форм воспроизводства много, они сами по себе эволюционировали, чтобы повысить эффективность отбора, с начало было копирование, затем деление, почкование, и наконец венец творения — половое размножение. Изменчивость, в виде воздействия вредных факторов внешней среды всегда существует, это одна из причин гибели живых организмов. В половом размножении добавился очень эффективный механизм изменчивости — перемешивание хромосом (мейоз).
Что касается необходимости математики для программистов, то есть области, где без ее знания, из самых разных разделов, никак не обойтись. Например, в ПО связанным с постановкой экспериментов в научных исследования, и обработки их результатов. Более того, в некоторых случаях приходится разрабатывать, или развивать существующие мат. методы, чтобы решить возникающие задачи, если имеющихся методов не достаточно для решения.