Comments 53
Вас ист дас всё это?
Очень интересно, нужно продолжение!
Очень интересно, но почему-то автор не захотел привести пример популяций животный, как пример сложной системы. Мне кажется, было бы более наглядно.
Согласитесь все же, что хабр — это то место, где можно и нужно приводить в пример как раз «Жизнь», а не популяцию животных.
А я не говорил, что не стоило упоминать игру «жизнь». Просто популяция, очень хороший пример, который привязан к окружающему нас миру. Мне лично, всегда не хватало в курсе математики в университете, примеров из реального мира(они дают первоначальную осмысленность понятия о котором идет речь, и так же показывает, где это можно применить). Ведь сложно понять суть некоторых вещей, если их нельзя построить в своем воображении, создать приемлемую абстракцию.
Возможно, я неправильно интерпретирую статью, но, как мне кажется, сама идея автора — продемонстрировать на максимально простом примере (клеточный автомат шириной в одну клетку) возникновение очень сложных систем из очень простых начальных условий.
Популяция насекомых (где есть и специализация отдельных особей и более сложные взаимодействия, чем восемь вариаций в описанном клеточном автомате) в таком случае — гораздо менее удачный пример.
Популяция насекомых (где есть и специализация отдельных особей и более сложные взаимодействия, чем восемь вариаций в описанном клеточном автомате) в таком случае — гораздо менее удачный пример.
А! этого нам всем обычно не хватает/не хватало. Вообще, согласен, ну и надо сказать, это нужен особый талант, чтобы рассказывать «просто о сложном».
В смысле модель «хищник-жертва»? Это чистая динамика.
Автор рассказывает про квазистатические модели, насколько я понимаю.
Автор рассказывает про квазистатические модели, насколько я понимаю.
Нет не модель «Хищник-Жертва». К примеру возьмом популяцию кроликов. Если взять что они живут на бесконечной теретории и рождаемость равна смерности, и ресурсы не ограничены, то мы получим устойчивую ситему(для формулы это будет R=2). Если же ограничить тереторию и ресурсы, вести к примеру также хищников, коффициент R измениться, и мы получим совсем другую систему, которая в зависимости от параметров будет вести себя совсем по другому, что и происходит в живой природе.
Мням…
Нет, это не модель "хищник-жертва".
Это будет модель "хищник-жертва"!
Видимо, Вы, не верно поняли мою мысль. Я хотел сказать, что модель «хищник-жертва», не является чистой динамикой и эта модель строиться из простых начальных условий, которые в итоги дают сложную систему.
Ну а где сама сложность? Как ее измерять? Как узнать, что график 5) на самом деле порождается простой формулой? И вообще, дан график, можно ли вычислить минимально сложную формулу, его порождающую?
Спасибо за хорошие вопросы. Сложность сама по себе многоаспектное явление и как обычно бывает в таких случаях ей дают много формальных определений и способов измерения. Но я бы навскидку сказал, что большинство из них обращается к понятию энтропии.
Существует также методология измерения сложности путем поиска минимально короткой программы, которая порождает полное описание некоторого сложного поведения. Это к Вашему последнему вопросу.
А поиск такого алгоритма как правило осуществляется генетическими эволюционными алгоритмами, которые также входят в набор моделей теории сложности. Надо будет раскрыть тему в следующей статье :)
Существует также методология измерения сложности путем поиска минимально короткой программы, которая порождает полное описание некоторого сложного поведения. Это к Вашему последнему вопросу.
А поиск такого алгоритма как правило осуществляется генетическими эволюционными алгоритмами, которые также входят в набор моделей теории сложности. Надо будет раскрыть тему в следующей статье :)
Разве нет метода оценки сложности наподобие о-мега?
Здесь речь не об оценке сложности классических алгоритмов.
Если у вас есть нейронная сеть из 1 миллиона одинаковых нейронов, каждый из которых потенциально может быть взвешенно связан со всеми остальными нейронами и при этом система демонстрирует сложное адаптивное поведение, то как тут полезно применять классические методы оценки? Здесь сложность — явление другого порядка.
Если у вас есть нейронная сеть из 1 миллиона одинаковых нейронов, каждый из которых потенциально может быть взвешенно связан со всеми остальными нейронами и при этом система демонстрирует сложное адаптивное поведение, то как тут полезно применять классические методы оценки? Здесь сложность — явление другого порядка.
Думаю, за это дадут нобелевскую премию.
Нобелевки математикам не дают. Но научившись восстанавливать формулы по графикам, нобелевки и не нужно — на бирже столько заработаешь, что сможешь основать премию имени себя.
Ну да, там у них там Филдсовская премия, точняк. Про биржу ОК :)
>> научившись восстанавливать формулы по графикам, нобелевки и не нужно — на бирже столько заработаешь, что сможешь основать премию имени себя
Сомневаюсь, что это возможно в принципе. И сомнение моё упирается в пример с Logistc Map из статьи. Невозможно остановить мир и померять намерения каждого участника рынка с достаточной точностью, чтобы не получить эффект бабочки на следующем же шаге.
Некоторые закономерности в поведении рынка все же есть — и они изучаются в техническом анализе. Там полно фигур и моделей, которые можно изучать до старости… лишь бы денег хватило на экперименты на рынке :)
Сомневаюсь, что это возможно в принципе. И сомнение моё упирается в пример с Logistc Map из статьи. Невозможно остановить мир и померять намерения каждого участника рынка с достаточной точностью, чтобы не получить эффект бабочки на следующем же шаге.
Некоторые закономерности в поведении рынка все же есть — и они изучаются в техническом анализе. Там полно фигур и моделей, которые можно изучать до старости… лишь бы денег хватило на экперименты на рынке :)
Вот как раз фигуры технического анализа — танцы с бубнами, на изучение которых не хочется тратить ни времени, ни денег. Хочется чего-то математически обоснованного.
О, отлично помню, как я болел это самой «Жизнь», сколько листочков в клеточку и часов жизни было на это дело потрачено.
Спасибо за статью!
Спасибо за статью!
Вот Вы говорили о хаосе… Первый пример мне напомнил такую штуку, как динамический хаос. Как раз к нему относят эффект бабочки, ЕМНИП. Какова связь этих двух теорий? Каков математический аппарат теории сложности? Детерминированные, но сложные процессы переводят на язык статистики?
Теория сложности шире и включает в себя теорию хаоса. Просто по моим наблюдениям в русскоязычной литературе различные топики этой теории изучаются отдельно, в то время как в америке еще в 1983 году был создан целый институт (http://spkurdyumov.narod.ru/chrnavii.htm) Он делает упор на междисциплинарный подход в науке, стремясь найти наилучшие обобщения.
А факт в том, что предмет физики, химии, социологии и экономики представляет собой распределенную систему, состоящую из довольно простых агентов. И суть в том, чтобы найти модели, на основе которых можно объяснить, как поведение простых агентов рождает сложные системные эффекты на уровне целого.
А факт в том, что предмет физики, химии, социологии и экономики представляет собой распределенную систему, состоящую из довольно простых агентов. И суть в том, чтобы найти модели, на основе которых можно объяснить, как поведение простых агентов рождает сложные системные эффекты на уровне целого.
Просто по моим наблюдениям в русскоязычной литературе различные топики этой теории изучаются отдельно, в то время как в америке еще в 1983 году был создан целый институтЕсть какие-нибудь практические успехи? Например в физику идеи динамического хаоса проникли достаточно давно, и были обещания решить много задач. На сколько я знаю, этого не вышло. А какие задачи теория сложности как теория позволила решить на данный момент? В первую очередь мне интересны физические и химические проблемы. В информатике?
А факт в том, что предмет физики, химии, социологии и экономики представляет собой распределенную систему, состоящую из довольно простых агентов. И суть в том, чтобы найти модели, на основе которых можно объяснить, как поведение простых агентов рождает сложные системные эффекты на уровне целого.К сожалению, несколько не понял :( Поясните, пожалуйста. Походит на теорию всего.
Боюсь, я недостаточно компетентен, чтобы обсуждать фундаментальные достижения в физике и химии. Могу лишь рекомендовать посмотреть видео вселенная как клеточный автомат в ссылках к статье. Я не могу оценить её валидность, как человек довольно далекий от серьезной физики, но модель мне нравится, т.к. обещает разрешить давний спор Энштейна и Бора о том, почему и как «Бог играет в кости».
В информатике — это конечно генетические алгоритмы и ИИ. Мозг человека и мухи состоит из одних и тех же нейронов, однако количество и способ связи базовых элементов дают качественный скачок (в теории :))
И да… это действительно походит на теорию всего, потому что пытается соединить воедино знание, разделенное на части разными науками. Анализ и синтез, взаимодополнение и обогащение.
В информатике — это конечно генетические алгоритмы и ИИ. Мозг человека и мухи состоит из одних и тех же нейронов, однако количество и способ связи базовых элементов дают качественный скачок (в теории :))
И да… это действительно походит на теорию всего, потому что пытается соединить воедино знание, разделенное на части разными науками. Анализ и синтез, взаимодополнение и обогащение.
UFO just landed and posted this here
В этом аспекте свести квантовую случайность к скрытой упорядоченности, что, как я понял, пытается сделать теория сложности, — сродни введению скрытых параметров и признанию неполноты квантовой теории. В общем, очень сильное утверждение. И теории всего пока что никогда хорошо не заканчивались ;) Вот тот же динамический хаос для каких-нибудь предсказаний ураганов-цунами может пригодиться. Вроде бы с его помощью можно что-то описать в радиофизике… Но, повторюсь, на сколько я знаю, так толком в физике этой теорией ничего и не достигли, хотя полвека грозились. Складывается скептическое отношение и к более общей теории сложности.
P.S.: ЦодингТим детектед?
P.S.: ЦодингТим детектед?
Эх вы, автор, автор… Мне, как немного знакомому с теорией хаоса обидно за первую часть :) (Кстати, вместо графиков функций от n лучше бы вставили диаграммы Ламерея с графиками отображений — они и нагляднее, и понятнее, на мой взгляд) Упомянули про логистическое отображение и не рассказали кучу связанных с ним интереснейших вещей. Ни про удвоение периода, ни про бифуркации и потерю устойчивости (и области устойчивости), ни про каскады бифуркаций, Фейгенбаума-Шарковского, ни про непериодические аттракторы (хотя бы на примере той же системы Лоренца, которая, к слову, и дала имя «эффекту бабочки»), ни даже про цикл периода 3. Кстати, хочу заметить, что последнее — это вполне тривиальная вещь, объясняется в два счета и при этом представляет собой весьма занимательный результат.
Суть же в следующем: то, что мы видим на графиках, на самом деле, является не просто циклами, а устойчивыми циклами. То есть, из любой заданной начальной точки из отрезка [0,1] (кстати, у вас не указано, что лог. отображение [0,1] -> [0,1]) мы заведомо «сойдемся» к данной траектории. Но вот помимо этих циклов есть также ещё и неустойчивые. То, что при каком-то значении параметра есть цикл 4, это ещё не значит, что нет циклов периода 2 и 1 — они есть и никуда не делись, просто стали неустойчивыми. Это значит, что на таких траекториях можно находиться, но, образно говоря, шаг влево, шаг вправо — обратно не вернётесь. Так вот, существует такая гениальнейшая теорема Шарковского, которая упорядочивает появление всех циклов в унимодальных (имеющих 1 глобальный максимум) отображениях! И она утверждает, что в любой унимодальной системе порядок появления циклов детерминирован. Вдаваться в подробности не буду, но, как следствие из этой теоремы, оказывается, что цикл периода 3 является самым последним в этой бесконечной последовательности появления циклов. Таким образом, если в унимодальной системе существует цикл 3, то существует и другой цикл (неустойчивый) абсолютно любого (!) периода (и даже, возможно, не один).
Так что такой вот результат. Вполне себе интересная деталь. Я описал всё, наверное, несколько косноязычно, но обо всём можно прочитать в википедии и просто в интернете, если кому-то интересно.
О статье в целом скажу тоже самое, что и про первую часть: маловато :) Как-то уж слишком… научно — мало, популярно — много. Я надеялся прочитать как минимум ещё про фракталы, нейронные сети, да много ж всего ещё. И поподробнее. Так что пишите ещё, это вы пока только наживку забросили.
Суть же в следующем: то, что мы видим на графиках, на самом деле, является не просто циклами, а устойчивыми циклами. То есть, из любой заданной начальной точки из отрезка [0,1] (кстати, у вас не указано, что лог. отображение [0,1] -> [0,1]) мы заведомо «сойдемся» к данной траектории. Но вот помимо этих циклов есть также ещё и неустойчивые. То, что при каком-то значении параметра есть цикл 4, это ещё не значит, что нет циклов периода 2 и 1 — они есть и никуда не делись, просто стали неустойчивыми. Это значит, что на таких траекториях можно находиться, но, образно говоря, шаг влево, шаг вправо — обратно не вернётесь. Так вот, существует такая гениальнейшая теорема Шарковского, которая упорядочивает появление всех циклов в унимодальных (имеющих 1 глобальный максимум) отображениях! И она утверждает, что в любой унимодальной системе порядок появления циклов детерминирован. Вдаваться в подробности не буду, но, как следствие из этой теоремы, оказывается, что цикл периода 3 является самым последним в этой бесконечной последовательности появления циклов. Таким образом, если в унимодальной системе существует цикл 3, то существует и другой цикл (неустойчивый) абсолютно любого (!) периода (и даже, возможно, не один).
Так что такой вот результат. Вполне себе интересная деталь. Я описал всё, наверное, несколько косноязычно, но обо всём можно прочитать в википедии и просто в интернете, если кому-то интересно.
О статье в целом скажу тоже самое, что и про первую часть: маловато :) Как-то уж слишком… научно — мало, популярно — много. Я надеялся прочитать как минимум ещё про фракталы, нейронные сети, да много ж всего ещё. И поподробнее. Так что пишите ещё, это вы пока только наживку забросили.
UFO just landed and posted this here
А я, если честно, не понял, вы имеете в виду разница между чем и чем? Между теорией сложности и теорией хаоса? да я не знаю. Я-то обо всём этом тоже знаю из нелинейных динамических систем, а здесь просто «мимо проходил», увидел знакомую тему, решил отписаться. Про теорию сложности я не в курсе. Я так понимаю, она пытается «собрать всех воедино» (как бы это иронично ни прозвучало), в том числе и нелинейные системы.
Если же речь идёт о разнице между дискретными нелинейными системами и динамическими (то есть, всякие диффуры и урчепы), то здесь она есть (с точки зрения математики), и существенная. Для унимодальных дискретных отображений порядок появления циклов доказан строго, здесь не может быть исключений. С диффурами же до сих пор никто не знает, что делать.
Если же речь идёт о разнице между дискретными нелинейными системами и динамическими (то есть, всякие диффуры и урчепы), то здесь она есть (с точки зрения математики), и существенная. Для унимодальных дискретных отображений порядок появления циклов доказан строго, здесь не может быть исключений. С диффурами же до сих пор никто не знает, что делать.
Согласен по поводу автора.
При изменении значения параметра R, в системе наблюдается следующее поведение.
∙ ≈ 3... 3.45 численность популяции будет колебаться между двумя значениями;
∙ ≈ 3.45... 3.54 численность популяции будет колебаться между четырьмя значениями;
∙ ≈ 3.54... 3.57 численность популяции будет колебаться между 8 значениями, потом 16, 32 и так далее. Длина интервала изменения параметра R, при котором наблюдаются колебания между одинаковым количеством значений, уменьшается по мере увеличения R. Отношение между двумя длинами смежных интервалов стремится к константе Фейгенбаума, равной δ = 4.669...;
∙ ≈ 3.57... 4.0 численность популяции демонстрируют хаотическое по ведение, однако существуют узкие, изолированные “окна” значений R, при которых система ведет себя регулярно, обычно их называют “окнами периодичности”. К примеру, начиная со значения 1 + 2√2 ≈3.828427, существует интервал параметров R, при котором наблюдаются колебания между тремя значениями.
Тангенс угла наклона кривой равен в точках возникновения цикла равен 1. Эти точки называют точками тангенциальной бифуркации. На бифуркационной диаграмме при данном значении R хаотическое поведение сменяется на три различных значения x_n.
Для решения полиномиальной системы на значения R можно построить базис Грёбнера, а затем, используя тот факт, что система имеет конечное число корней, средствами линейной алгебры получить полином от переменной R. Нахождение действительных корней полинома представляет собой, с вычислительной точки зрения, значительно более простую задачу.
Ниже приведены значения положительных действительных корней системы для различных n. Кавычками выделены корни при которых происходит бифуркация. Считал своей программой. Для n=9 посчитано впервые.
n = 1 {«1»}
n = 2 {1, «3»}
n = 3 {1, «3.82842712474619»}
n = 4 {1, «3, 3.449489742783178», 3.960101882689952}
n = 5 {1, «3.738172375265962», 3.9055718701725, 3.990257307413383}
n = 6 {1, 3, «3.626553161694973», 3.82842712474619, 3.841499007543508,3.937516418983031, 3.977760440936972, 3.997582523904763}
n = 7 {1, «3.701640764160349», 3.774133385584887, 3.886028805002814, 3.922185905463235, 3.951027355414706, 3.968974213355922, 3.984746617117962, 3.994537466821304, 3.999397024083989}
n = 8 {1, 3, 3.449489742783178, «3.544090359551923», 3.66210891320944, 3.80074011618565, 3.870532112458717, 3.899462408673439, 3.912042017282252, 3.930471319516693, 3.94421219658501, 3.960768652406645, 3.960101882689952, 3.973723762395857, 3.981408635979902, 3.98774528534948, 3.992519399682352, 3.996219537052268, 3.998641615329287, 3.999849359713914}
n = 9 {1, «3.687196873314742», 3.717093519790293, 3.761241030200629, 3.785771544627773, 3.82842712474619, 3.853613107982842, 3.879412347954356, 3.892256324125771, 3.917794782080257, 3.926277289386778, 3.934699928283552, 3.940369963300093, 3.947734921903373, 3.954483612871035, 3.966192524841747, 3.971413692363767, 3.975919456224752, 3.979542899084234, 3.983139789549869, 3.986273542516799, 3.989187289456784, 3.991323640599825, 3.993577353187987, 3.995416650737586, 3.996944453714692, 3.998148104339324, 3.999057574253527, 3.999660938221299, 3.999962347463842}
При изменении значения параметра R, в системе наблюдается следующее поведение.
∙ ≈ 3... 3.45 численность популяции будет колебаться между двумя значениями;
∙ ≈ 3.45... 3.54 численность популяции будет колебаться между четырьмя значениями;
∙ ≈ 3.54... 3.57 численность популяции будет колебаться между 8 значениями, потом 16, 32 и так далее. Длина интервала изменения параметра R, при котором наблюдаются колебания между одинаковым количеством значений, уменьшается по мере увеличения R. Отношение между двумя длинами смежных интервалов стремится к константе Фейгенбаума, равной δ = 4.669...;
∙ ≈ 3.57... 4.0 численность популяции демонстрируют хаотическое по ведение, однако существуют узкие, изолированные “окна” значений R, при которых система ведет себя регулярно, обычно их называют “окнами периодичности”. К примеру, начиная со значения 1 + 2√2 ≈3.828427, существует интервал параметров R, при котором наблюдаются колебания между тремя значениями.
Тангенс угла наклона кривой равен в точках возникновения цикла равен 1. Эти точки называют точками тангенциальной бифуркации. На бифуркационной диаграмме при данном значении R хаотическое поведение сменяется на три различных значения x_n.
Для решения полиномиальной системы на значения R можно построить базис Грёбнера, а затем, используя тот факт, что система имеет конечное число корней, средствами линейной алгебры получить полином от переменной R. Нахождение действительных корней полинома представляет собой, с вычислительной точки зрения, значительно более простую задачу.
Ниже приведены значения положительных действительных корней системы для различных n. Кавычками выделены корни при которых происходит бифуркация. Считал своей программой. Для n=9 посчитано впервые.
n = 1 {«1»}
n = 2 {1, «3»}
n = 3 {1, «3.82842712474619»}
n = 4 {1, «3, 3.449489742783178», 3.960101882689952}
n = 5 {1, «3.738172375265962», 3.9055718701725, 3.990257307413383}
n = 6 {1, 3, «3.626553161694973», 3.82842712474619, 3.841499007543508,3.937516418983031, 3.977760440936972, 3.997582523904763}
n = 7 {1, «3.701640764160349», 3.774133385584887, 3.886028805002814, 3.922185905463235, 3.951027355414706, 3.968974213355922, 3.984746617117962, 3.994537466821304, 3.999397024083989}
n = 8 {1, 3, 3.449489742783178, «3.544090359551923», 3.66210891320944, 3.80074011618565, 3.870532112458717, 3.899462408673439, 3.912042017282252, 3.930471319516693, 3.94421219658501, 3.960768652406645, 3.960101882689952, 3.973723762395857, 3.981408635979902, 3.98774528534948, 3.992519399682352, 3.996219537052268, 3.998641615329287, 3.999849359713914}
n = 9 {1, «3.687196873314742», 3.717093519790293, 3.761241030200629, 3.785771544627773, 3.82842712474619, 3.853613107982842, 3.879412347954356, 3.892256324125771, 3.917794782080257, 3.926277289386778, 3.934699928283552, 3.940369963300093, 3.947734921903373, 3.954483612871035, 3.966192524841747, 3.971413692363767, 3.975919456224752, 3.979542899084234, 3.983139789549869, 3.986273542516799, 3.989187289456784, 3.991323640599825, 3.993577353187987, 3.995416650737586, 3.996944453714692, 3.998148104339324, 3.999057574253527, 3.999660938221299, 3.999962347463842}
Ух ты! Про базис Гребнера — слышу впервые, не знал, спасибо. Но это мы с вами уже совсем отходим от популярной науки. Ещё вы говорите, что после 3.57 наступает хаотическое поведение, что, на мой взгляд, не совсем верно. Всё-таки здесь поведение строго детерминировано, просто бифуркаций происходит бесконечное кол-во, и, да, есть точки существования непериодических аттракторов. То есть, хаоса-то как такового нет, просто ни один компьютер ни с какой заданной наперед точностью не сможет определить все эти точки. Ну а заканчивается всё это буйство гомоклиническим контуром при R = 4.
Кстати, то, что производная равна единица в точке бифуркации удвоения периода (в случае циклов более высокого порядка надо брать соответствующую степень отображения), легко понять «на пальцах» по всё той же диаграмме Ламерея. Интерактивная есть тут. Очень полезная ссылка, на мой взгляд. Ну и ещё потому, что точка является устойчивой, если модуль производной меньше единицы. И да, насчет константы Фейгенбаума, вы привели только одну из двух. Есть ещё одна константа Фейгенбаума, которая связана с т.н. суперциклами и имеет название что-то вроде «масштабной», но это уже совсем-совсем далекие дебри, в которых кроме фанатиков никому не интересно разбираться :)
Спасибо за приведенные значения, и поинтересуюсь, вы на чём это считали? На персональном компьютере или где-то распараллеливали?
Кстати, то, что производная равна единица в точке бифуркации удвоения периода (в случае циклов более высокого порядка надо брать соответствующую степень отображения), легко понять «на пальцах» по всё той же диаграмме Ламерея. Интерактивная есть тут. Очень полезная ссылка, на мой взгляд. Ну и ещё потому, что точка является устойчивой, если модуль производной меньше единицы. И да, насчет константы Фейгенбаума, вы привели только одну из двух. Есть ещё одна константа Фейгенбаума, которая связана с т.н. суперциклами и имеет название что-то вроде «масштабной», но это уже совсем-совсем далекие дебри, в которых кроме фанатиков никому не интересно разбираться :)
Спасибо за приведенные значения, и поинтересуюсь, вы на чём это считали? На персональном компьютере или где-то распараллеливали?
docs.google.com/open?id=0B3CXkoHKDoufQ2xOYzY0bUg1Q2s
смотрите Глава 4.
4.3. Логистическое отображение................... 165
там все описано вместе ссылками и временами. Базисы Грёбнера не очень хорошо параллелятся.
смотрите Глава 4.
4.3. Логистическое отображение................... 165
там все описано вместе ссылками и временами. Базисы Грёбнера не очень хорошо параллелятся.
Все же в ваших руках! Расскажите же про эти совершенно интереснейшие темы! Пусть они будут научно-популярно о элементарно описаны в вашей статье. Лично я с удовольствием прочитаю научно-популярную статью, где бы на элементарных примерах были бы описаны те понятия, которых не хватает в этой.
Спасибо. Ваш комментарий прекрасно дополняет статью :)
Цель статьи была довольно кратко показать возможность возникновения из простых правил сложного поведения и пробудить интерес к теме. Постараюсь написать продолжение про адаптивные сложные системы, где будут и нейронные сети и «много всего еще» :)
Цель статьи была довольно кратко показать возможность возникновения из простых правил сложного поведения и пробудить интерес к теме. Постараюсь написать продолжение про адаптивные сложные системы, где будут и нейронные сети и «много всего еще» :)
Очень интересно и доступно. Автор, пишите, пожалуйста, ещё!
Я очень не понял, как получаются треугольники на полоске шириной в одну клетку.
Очень интересно было читать!
«Концепция сложности пытается сформулировать специфические особенности сложных человекомерных систем» /Леонов А.М./
:) Мой преподаватель и научрук Леонов Андрей Михайлович написал несколько весьма неплохих книг и диссертаций:
Леонов А.М. Познание сложности. Введение в философию x-науки. – Якутск, 2002. 222 с.
Леонов А.М. Наука о сложности в эпоху постмодерна. Якутск, 2004. 560 с.
Леонов А.М. Эпистемология сложности в контексте компьютерных наук. – Якутск, 2006. 356 с.
Они обычно всегда фигурируют в списке литературы в подобных статьях.
Есть и статья попроще :) «Фракталы, природа сложных систем и хаос» — sins.xaoc.ru/pdf/articles/articles_r016.pdf
:) Мой преподаватель и научрук Леонов Андрей Михайлович написал несколько весьма неплохих книг и диссертаций:
Леонов А.М. Познание сложности. Введение в философию x-науки. – Якутск, 2002. 222 с.
Леонов А.М. Наука о сложности в эпоху постмодерна. Якутск, 2004. 560 с.
Леонов А.М. Эпистемология сложности в контексте компьютерных наук. – Якутск, 2006. 356 с.
Они обычно всегда фигурируют в списке литературы в подобных статьях.
Есть и статья попроще :) «Фракталы, природа сложных систем и хаос» — sins.xaoc.ru/pdf/articles/articles_r016.pdf
Sign up to leave a comment.
Теория сложности на простых примерах