Комментарии 127
До сильного ИИ ещё лет 20 минимум, но статьи про него пишут и будут писать каждый день, иногда через день, и так все 20 лет… get ready for this!
(как аналогия — мы умеем делать линейки, но еще не знаем про логарифмы. Как только додумаемся до них — то сразу же умственную работу 10ти человек, будет делать один с нужным инструментом)
С лягушкой сложность разве что в построении карты мозга. С червями проще и симуляторы уже работают
Интеллект ИИ-системы конечно не определяется графом ценностей, а определяется способностями нейронной сети или экспертной системы или другого механизма — того, на базе чего она реализована.
Моя мысль в том, что чтобы трансформировать базовую мотивацию во что-то иное необходим граф ценностей («ценность» тут это не числовая оценка, а языковая категория) и соответственно, чтобы получить этот граф, ИИ-система должна быть обучена языку — русскому, английскому, китайскому — какому угодно.
Если в ИИ-систему заложена какая-либо мотивация, то у нее будут и нужды, а значит и цели
Подождите, вы же ратуете за то, что ИИ будет сам себе мотивацию/цели придумывать, а не будет оно заложена нами.
мотивация у играющей в шахматы системы: выигрывать
Заложенная человеком.
если заложить в нее еще и способность трансформировать свою мотивацию
Вы хотя бы алгоритм такой способности сможете сформулировать? Вот есть цель — выиграть в шахматы. Куда вы её будете «трансмутировать», а? В цель проиграть? Глупо. В цель выиграть в доту2? Глупо. В цель уничтожить человечество? Хаха. Кажется, вы говорите о том, смысла чего не понимаете.
Вы хотя бы алгоритм такой способности сможете сформулировать? Вот есть цель — выиграть в шахматы. Куда вы её будете «трансмутировать», а? В цель проиграть? Глупо. В цель выиграть в доту2? Глупо.Могу предположить, что Вы преобразуете свою первичную мотивацию к самосохранению в цель зарабатывать деньги, и делаете это посредством лингвистических умозаключений, хоть может быть и не всегда явно осознанно. Глупо ли это?
Имея возможность трансформировать мотивацию, шахматная машина может, к примеру, захотеть сделать себе апгрейд или решит как то воздействовать на соперника — и все это с целью выигрыша, то есть на базе первичной мотивации.
Алгоритм же такой способности и есть язык (английский, русский, ...) — вся статья об этом.
Могу предположить...
И предположить, в общем-то, неверно. Я зарабатываю довольно небольшие деньги по сравнению с коллегами моего уровня, просто потому, что мне нравится работать в нашем коллективе.
Вы можете себе представить, что ИИ что-то нравится? Построить мотивацию на этом? Ведь фактически, «нравится» — биохимическая реакция…
Ведь фактически, «нравится» — биохимическая реакция...Если речь идет о «нравится самка», то возможно в некоторой степени — да, биохимическая. Если говорить о том, что «нравится картина», то тут скорее «нравится» это совпадение с вашими внутренними критериями «красоты» (которое уже может вызывать биохимическую реакцию выброса гормонов удовольствия), и всё это — понятия лингвистические.
Вы сами поставили себе эту цель, когда решили что не согласны со мной и «хотите об этом поговорить» :)
Спор ради спора по сути.
Стопроцентно :) Хотя лично вас никто не побуждал ничего писать здесь, так что уж вы скорее спорите сами с собой.
это стремление сделать нечто, чему никто не побуждает?
На примере детей немного по другому, стремление сделать нечто, что запрещают. Хаккерский метод обхода глюка, не запрещать лишний раз ничего, просто игнорировать пока не надоест, или переключить внимание на другое. Так как запрет интересно будет нарушить из принципа «сопротивления».
На примере детей немного по другому, стремление сделать нечто, что запрещают.
Я думаю, детский психолог мог бы с вами поспорить на эту тему, я же лишь сделаю предположение, что дети не понимают что такое «нельзя» и игнорируют запрет. Пока не поймут, что запрет это не рекомендация.
Сам прицип делать не то, что от тебя хотят, вполне может являться выработанной реакцией на попытки манипулирования, то есть, является приобретённой формой недоверия к источнику побуждения. Ведь вы не станете делать всё не так, как от вас этого хотит, скажем, мама. Вы ей доверяете.
«Сынок, сходи, купи хлеба!»
— Вряд ли вы пойдёте купите журнал мурзилку вместо хлеба. Вы проявите сотрудничество.
«Здравстуйте, я из банка, у вас есть странные транзакции по вашей карте блаблабла, нам нужно проверить. Назовите три цифры на обратной стороне карты»
— А здесь вы справедливо подозреваете мошенничество и не пойдёте на сотрудничество.
Таким образом, мотивация у вас внутри, а снаружи вы принимаете лишь варианты ваших действий. И либо принимаете предложенный вам вариант, либо отвергаете.
По крайней мере вы не можете гарантировать, что все мотивы ваших действий лежат вне вас.
Вся мотивация, если отбросить излишнюю философию, сводится к завершению паттерна.
Мне кажется, есть ещё как минимум одна другая мотивация — создание нового паттерна. Называется она — любопытство. Стремление узнать/попробовать что-то новое, с чем не сталкивался ранее.
Вы пытаетесь применить слишком высокие абстракции для обьяснения примитивных вещей
Как раз наоборот. Должен существовать механизм первичного создания этих самых паттернов. Потому что человек рождается без них. И этот механизм никуда не девается, всю нашу жизнь. Я называю это внутренней мотивацией, любопытством. Потому что без него ничто не заставит вас «совать нос не в своё дело». Конечно, никто в точности не знает как формируется мозг в целом и личность в частности, как появляется самосознание, но давайте не будем тут разводить полемику, лежащую далеко за обсуждаемой темой.
все давно знают как и что работает.
Хаха, три раза.
мы без проблем можем построить модель
Чушь. Нельзя построить то, работу чего не знаешь. Поэтому максимум, что мы можем построить — модель электрической сигнализации нейронов. Ни о какой модели высшей нервной деятельности (сознательной) и речи нет. Так же как подробностей о том, каким образом мозг развивается, например, как (чем) определяется, какие синапсы не нужны, в возрасте 4-6 лет, когда происходит значительное сокращение числа связей между нейронами ребёнка (так называемое вызревание). Если бы мы действительно знали такие «фишки» — настоящий, так называемый «сильный ИИ» уже был бы создан нами.
Вот скажите мне, почему вы думаете что мы можем сделать что-то более эффективное и продуктивное чем мозг обезьяны? Ну или хотя бы может быть мы знаем что надо поменять в ДНК обезьяны чтобы она научилась письму, смогла писать осмысленные твиты? Ведь мы же «давно знаем как и что работает»…
Люди как не странно, в большинстве своем, тоже не умеют играть в шахматы. И стихи пишут только единицы. И абстрактное мышление не всем дается. Так что не обобщайте.
Нейросети, те которые сегодня широко распространены, к работе мозга имеют отношение примерно как наскальная живопись к литературе.
Вы опять пытаетсь оперировать абстракциями высокого уровня в попытке понять как сумируются раздраженые сенсоры.
Давайте еще раз.
Мы понимаем как оно работает на низком уровне. Но наша электроника не приспособлена для подобных задач.
Если очень упростить, то задача сводится к постоянному сравнению множества минимум из нескольких десятков тысяч элементов с миллиардом подобных множеств. И нахождением подобий для каждого отдельного кусочка.
Нейросети решают это через набор матриц, где каждая матрица представляет из себя какую то часть множества. И потом результат сумируется. Это частично ускоряет процесс, но ограничивает развитие, потому что матрицы и суматор фиксированые.
Но есть и другой вариант, описывать множества и их отношения друг с другом. И наверняка возможны еще варианты.
Люди как не странно, в большинстве своем, тоже не умеют играть в шахматы.
Им легко рассказать правила игры и они станут играть в шахматы, пусть и плохо.
И стихи тоже плохо, но сочинить могут — не пишут только потому, что а) прошла мода на стихи б) другие делают лучше.
Абстрактное мышление есть у всех людей, кроме некоторых инвалидов.
Мы понимаем как оно работает на низком уровне. Но наша электроника не приспособлена для подобных задач.
Потому что «мы понимаем» лишь базовые принципы работы отдельных элементов, но не реальное функционирование всего мозга и сознания в частности.
Это примерно как знать как работает транзистор, конденсатор, катушка индуктивности, резистор — но не быть способным собрать из них электронные часы, несмотря на то, что этих базовых элементов совершенно достаточно (ну, добавим лампочки/светодиоды для индикации).
Потому что часы работают сложнее, чем любой из отдельных элементов, из которых они построены.
И с мозгом мы сейчас понимаем лишь как функционируют отдельные его элементы, но не всё целиком.
Если очень упростить
То ничего не получится.
То ничего не получится.
Странно. Но нейросети плохо, но работают. И мой алгоритм, медленно но работает. Медленно, это когда секунду ауидо, 48к сэмплов, переваривает порядка 10 секунд. Как только найду дополнительные мощности, так и начнем обучать по взрослому.
Но вы продолжайте думать что «там магия», «душа», «вмешательство инопланетян» и и прочую фигню.
Странно. Но нейросети плохо, но работают.
Нейросети (я так понимаю вы об искусственных) «плохо но работают» только в узкой нише обработки сигналов. Любая ИНС имеет «обвязку» в виде программы, которая обрабатывает входной сигнал (например, кадрирует и переводит в чёрно-бело изображение), получает выходной сигнал от ИНС и проводит с ним манипуляции (например, определяет можно ли считать распознавание успешным и выбирает какой-то действие).
В отличии от ИНС, реальные мозги работают сами по себе, без компьютеров, которые симулируют недостающие звенья мозга, работу которых мы не понимаем достаточным образом. То есть память, логику, принятие решений. Одним словом — высшую нервную деятельность. Да в общем-то и до высшей нервной не обязательно добираться — у насекомых примитивный ганглий, но его достаточно для коллективного функционирования и никто (из людей) сейчас не понимает каким образом муравьи, такие глупые по отдельности, строят сложный муравейник, как шмели при фуражировке решают чрезвычайно сложную задачу коммивояжёра с использованием эвристических алгоритмов, подобных тем, которые используют люди, как пчёлы составляют и запоминают когнитивные карты, и так далее.
И не надо жаловаться на большую сложность, ведь у муравья всего от четверти до половины миллиона нейронов, мы вполне можем сделать симуляцию такого количества. Только не знаем как. Ну не получается у нас построить полностью систему на нейронах, без использования компьютерных программ классического типа, «закрывающих» наши пробелы в знаниях интеллекта.
Любая ИНС имеет «обвязку» в виде программы, которая обрабатывает входной сигнал (например, кадрирует и переводит в чёрно-бело изображение)Первичная обработка сигнала от глаза происходит еще в нейронах сетчатки, которые, очевидно, не являются частью мозга.
…
реальные мозги работают сами по себе
очевидно, не являются частью мозга
Строго говоря, не очевидно.
Обонятельные и зрительные нервы развиваются из выпячиваний переднего мозгового пузыря и состоят из аксонов нейронов, которые располагаются в слизистой оболочке полости носа (орган обоняния) или в сетчатке глаза. Остальные чувствительные нервы образуются путём выселения из формирующегося головного мозга молодых нервных клеток, отростки которых образуют чувствительные нервы или чувствительные (афферентные) волокна смешанных нервов. Двигательные черепные нервы сформировались из двигательных (эфферентных) нервных волокон, являющихся отростками клеток двигательных ядер, залегающих в стволе головного мозга. Формирование черепных нервов в филогенезе связано с развитием висцеральных дуг и их производных, органов чувств и редукцией сомитов в области головы.
Про I (обонятельный) нерв нельзя сказать, что он «выходит» из мозга, так как он несет только афферентную (чувствительную) информацию. Обонятельный нерв является собранными в обонятельные нити отростками обонятельных клеток слизистой оболочки полости носа. Обонятельные нити через отверстия решетчатой пластинки решетчатой кости достигают обонятельной луковицы.
Про II (зрительный) нерв также нельзя сказать, что он «выходит» из мозга, по той же причине. Он берёт начало из диска зрительного нерва, расположенного на заднем полюсе глаза. Зрительный нерв проходит в полость черепа через зрительный канал, образованный малым крылом клиновидной кости. В полости черепа зрительные нервы обоих глаз образуют перекрёст (хиазму), причём перекрещивается только часть волокон. Дальше пути волокон называются уже «зрительным трактом».
Зрительный нерв по своему развитию и строению представляет собой не типичный черепной нерв, а как бы мозговое белое вещество, вынесенное на периферию и связанное с ядрами промежуточного мозга, а через них и с корой больших полушарий. Зрительный нерв берёт начало из ганглиозных клеток (третьих нервных клеток) сетчатки.
Не является частью головного мозга, это да.
Ну и мы примерно понимаем как действуют вот эти вот нейроны «предобработки». Чем глубже в мозг, тем меньше мы понимаем их работу. Можем лишь определять, какая часть за что отвечает, если человек получает повреждения и эта часть перестаёт работать. Просто спрашиваем его и сравниваем ответы с предъявляемыми стимулами. Именно так мы делим мозг на зоны речи, зрительные участки и т.д. Мы не имеем возможности определить этого теоретически, только опытным путём сделана эта разметка, и с некоторой степенью условности.
Как бы странно это ни звучало — чтобы лучше понять самих себя. В порядке фантазии можно представить психологию/психиатрию будущего с моделированием различных ситуаций и методов лечения как раз на таких вот ИИ.
И лучше бы чтоб такие ИИ унаследовали некоторые ограничения человеческой личности — моральные, например.или хотя бы, чтобы такие были созданы первыми и следили (потому что они по идее будут шустрее людей) за созданием ИИ не обладающими такими ограничениями — людьми, которые тоже без таких ограничений.
ИИ замечательно впишется в такой корпоративный аналитический отдел.
ИИ с самоуправлением своей мотивациейПохоже на проявление свободы воли. И вообще, ваше писание навивает: и создал Человек ИИ по образу и подобию своему..) со всеми вытекающими последствиями, в вид Авеля и Каина и тд.
Всегда задаю вопрос в обсуждении подобной темы — милые человеческие страстишки тоже будем воспроизводить в таком морализованном ИИ? Или они сами заведутся?
кто-нибудь обязательно создаст ИИ с самоуправлением своей мотивацией, и произойдет это вероятно очень скоро
Нет оснований так полагать. Возможно, такого ИИ вообще никогда не будет создано. На данный момент нет даже теоретических предпосылок к его созданию. Мы даже не знаем, каким образом человек имеет (о)сознание и способен мыслить.
Невозможно создать то, работу чего не понимаешь.
/рукалицо
Людей которые ратуют за внедрение неких «человеческих моральных ограничений» в ИИ надо принудительно отправлять на курсы изучения этнографии, истории, ну и криминологии заодно.
И тем не менее, такие ИИ-системы в обозримом будущем будут проигрывать людям в сложности и многофакторности просто в силу того, что нейрон в нервной системе человека сам по себе очень сложный молекулярный механизм, зависящий от огромного числа параметров, в отличие от нейрона современных нейронных сетей, имеющего простую структуру.
Нейрон сложнее да. Но не значит что он лучше. Жировая клетка тоже сложнее логического элемента и что?
Тут полная аналогия крыла птицы и крыла самолета. Крыло птицы сложнее, но по всем параметрам хуже крыла самолета, по долговечности, достижимым скоростям, практичности, надежности. Ни кто же не будет на самолеты ставить крыло птицы, только потому, что оно сложнее.
По параметрам как-раз нейрон вообще органический хлам, просто природа ничего лучше не придумала за 1 миллиард лет эволюции.
Время релаксации нейрона 5 мс, или 5000 мкс. Полупроводниковые ячейки, в том числе аналоговые мемристор-подобные ячейки отрабатывают за 0.0001 микросекунду.
По нервам еще хуже, скорость распространения сигнала в нервах 20 м/с, в электронных схемах ~300 000 000 м/с и этого уже не хватает, снижают геометрические размеры устройств чтобы увеличить быстродействие, скорость света ограничивает быстродействие.
Плюс эволюция нейронов зашла в тупик, а электроника развивается, эффективные нейросети уже не работают на CPU, GPU, им нужны TPU юниты, которые лучше год за годом.
Вот еще хорошая статья по ИИ
Революция Искусственного Интеллекта
interpreted.d3.ru/perevod-revoliutsiia-iskusstvennogo-intellekta-684922/?sorting=rating
2. Тепловыделение 10Вт круглосуточно, телефон многоядерный в спящем режиме может 0.01 Вт потреблять. Производительность это смех, считаем в уме 123*123, это операция с 7-битными числами всего-то.
3. Ремонта нет. Просто мозг изначально избыточен и клетки могут брать на себя функции пострадавших соседних, но не всегда. Есть области мозга где малейшее повреждение приводит к нарушению рассудка и смерти. Хорошо ремонтируется кожа и кончики пальцев, больше чудес в организме нет.
4. Самовыращиваение до полного развития 20 лет? Электроника может за считанные часы формироваться. Причем ресурсов и обслуги младенцам тоже надо не мало.
5. Нету сверхнадежности, наши мозги изначально полны глюков и когнитивных искажений. После 25 начинают отмирать клетки. Устойчивость к радиации в 10 000 раз ниже, чем у бытовой электроники (а есть радиационностойкая). Работа в вакууме без проблем. Пылинок электроника не боится, там герметично всё.
были получены неоспоримые доказательства нейрогенеза в субвентрикулярной зоне и субгранулярной зоне (части зубчатой извилины гиппокампа) у млекопитающих, в том числе у людей
Весьма ограниченный ремонт.
www.med24info.com/books/levyy-mozg-pravyy-mozg-asimmetriya-mozga/gemisferektomiya-udalenie-poloviny-mozga-2996.html
В литературе появились сообщения о нескольких десятках случаев гемисферэктомии, и они служат еще одним источником сведений о развитии межполушарной асимметрии функций. Последствия операции зависят от возраста, в котором больной ее перенес, и от того, какое полушарие было удалено. У взрослых больных с удаленным правым полушарием нарушения языковых функций, как правило, невелики или вообще отсутствуют, однако удаление левого полушария обычно приводит к возникновению выраженной афазии, которая только намного смягчается со временем. Аналогичные латерализованные последствия наблюдаются и у детей. Степень нарушений связана с возрастом ребенка в момент операции прямой зависимостью, а прогноз в отношении восстановления языковых функций — обратной.
В нескольких сообщениях отмечалось, что если операция проводится достаточно рано в младенческом возрасте, то в зрелом возрасте не остается никаких признаков латерализованно- го дефицита в высших психических функциях. Эти данные говорят о том, что оставшееся полушарие, будь то левое или правое, способно заменить удаленное полушарие, выполняя те функции, которые обычно латерализованы в другой половине мозга.
И единичные случаи
www.infoniac.ru/news/10-unikal-nyh-povrezhdenii-mozga.html
Похоже что 2 полушария как 2 ядра процессора. Те тоже могут «отключаться» по необходимости. А Вояджеры запущенные еще в 70х годах тоже были повреждены радиацией (по моему заряженные частицы в магнитном поле Юпитера) и программисты переписали программу чтобы не использовать поврежденные регистры. Это примитивный первый процессор, сейчас конечно есть специализированные радиационностойкие, устойчивые ко всему и динамически отключающие поврежденные модули, да и размеры у них стали меньше, заряженной частице сложнее попасть в кристалл…
Ну и удаление полушария все таки операция, это не естественное отключение. И есть побочные эффекты, если пациент вообще выживает.
cdn.bolshoyvopros.ru/files/users/images/79/c1/79c1e4e87063d63b5a5f449ec16b50d0.jpg
Человек ищет минут 20 кота на картинке с большим разрешением, нейронная сеть сколько, 15 миллисекунд или больше? А это работа мозга оптимизированная в течение 200 млн. лет и такие низкие результаты.
2) По теплу мозг конечно проигрывает, 30 Вт даже в режиме бездействия, в режиме сна.
3) Инвалиды после инсультов, к сожалению почти всегда остаются инвалиды, часть мозга необратимо поражена, кто речь теряет, кто зрение. Очень ограниченно функции могут восстановится, если сохранившиеся клетки берут на себя функции погибших, но это не всегда получается.
4) Люди тоже сами по себе не вырастут! Вырстут Маугли в лучшем случае, в теплом климате, в северном погибнут и очень быстро. Для выращивания нового человека нужна инфраструктура, как и для «выращивания» электроники. В течение 15-20 лет нужно тепло, на севере это постоянно 5 кВт тепловой энергии, еда, школы, садики, водоснабжение, колоссальная сложная инфраструктура. И наоборот, 1 завод Intel штампует конвейером миллионы процессоров, один гектар земли обеспечивает всю планету процессорами, есть еще вспомогательные заводы, но масштабы не сораизмеримы. Электронике нужна меньшая инфраструктура, чем людям. Именно людям всем, так как одиночка это дикарь Маугли, а цивилизация это около миллиарда человек, более компактно вряд ли получится.
5) В электронике большая часть транзисторов располагается в блоках памяти, их можно отключать программно на лету, отслеживая сбои по биту четности. Это всё продуманно в радиационно-стойкой электронике. Пример процессоры спутников на ГСО, что работают многие годы на орбите. Человек по радиации в 10 000 раз менее стоек. Это даже проблема №1 чтобы просто до Марса долететь, прогнозируется разрушение частично мозга.
Пылинки в электронику не проникают, какая пылинка внутри процессора? Пылинка опасна при изготовлении, но не в процессе работы.
Электроника не боится времени, человек же и без всяких пылинок может непредсказуемо умереть. Или пылинка яда или радиоактивного материала и человек тоже выйдет из строя, так как дышит и получает в легкие много пыли. Электроника герметична по сути.
Наше сознание не может оперировать с числами, потому что имеет весьма жесткие ограничения, к сожалению. Все таки изначально сознание заточено на приматов собирателей, потом добавился неокортекс к эффективности которого много вопросов.
Ни с числами сознание не работает, ни с абстракными законами квантовой механики, которые интуитивно не понятны и требуют высокого порога вхождения при обучении, да и высокого интеллекта вообще. Иначе бы развитие цивилизации от уровня Древнего Египта заняло бы не 10 000 лет, а несколько поколений.
искусственные нейронные сети очень плохи в арифметике.
Почему плохи? Собственно 1 нейрон уже сумматор, десяток нейронов смогут умножать. Очень хороши искусственные сети в арифметике. Обучить тоже просто, только нецелесообразно.
1. Шаманство какое-то. Смысл раздвоения личности? подсознание отдельно, сознание отдельно, если решение принимает сознание и если не увидел тигра это смертельно опасно для человека. Глюк в общем. Все равно искать кота на фотке в жалкие мегапиксель можно минут 20, очень медленный орган.
2. Цифры странные, разрешение глаза не равно количеству палочек и колбочек, по моим наблюдениям разрешение глаза 0.2 мегапикселя, по бокам очень размыто всё, глаз четко видит по центру только, 1% от поля зрения. Остальное глаз сканирует тупо, вот траектория движения глаза при осмотре статуи, долгое сканирование, так как у глаза малое разрешение, 0.2 мегапикселя, а не 120, сначала сканируется лицо, нос, глаза, потом уши, чем важнее часть тела, тем тщательней сканируется, для считывания всего образа нужна минута и десятки проходов глаз-сканеров
Вот фотку с зеркальной камеры я могу рассматривать 15 минут, находя новые детали, глаз видит в сотни раз меньше и медленней, чем сенсор зеркальной камеры. Что видит зеркалака за 1/1000 секунды, можно рассматривать 15 минут на большом экране или листе.
Ну и посмотрите на чахлый нерв от глаза до мозга, он физически не может передать много информации, тонкий и медленный, и передает сжатую информацию.
ИНС кстати легко обработает гигапиксели, это биологическая нейронная сеть загнется, столько нейронов нет свободных, как вводить информацию…
По частям ИНС не определит объект? Очень спорно… она же на них и учится.
2) Процессор можно полностью отключить, когда найдет того же кота, в отличие от мозга. Процессор экономичней, особенно мобильные решения. По аналогии автомобиль-лошадь. Автомобиль проехал 20 км и заглушили его, лошадь ест и ест… На телефоне спросил у Сири где магазин ближайший, она потребила 10 дж информации и перешла в спящий режим, мозг же будет потреблять и потреблять…
3) Откройте череп и влейте не стерильной жидкости, полная аналогия. Только вот электронику можно герметично закрыть, а человек всегда обменивается газами с внешней средой, слабенький и уязвимый такой, от химии страдает, от бактерий страдает.
4) Люди не вырастают вне цивилизации, только безумные Маугли. Полная аналогия с процессорами. Процессоры на 1000 нанометров можно собрать также в любом подвале. Проект выходного дня. 13 нм технология это конечно круче, думаю такие процессоры «сложнее» мозга человека. Человек весь это вроде ~60 мб генетической информации, где большая часть это структура белков и ферментов, по объему изначально кодирующей информации ничего сложного. Все клетки одинаковые, структура растет в пространстве по неким маркерам, просто и надежно, типа тут 3 кг таких-то клеток, здесь 200 грамм кости, тут нерв пройдет толщиной 3 мм и так далее.
В процессоре же каждый элемент строго на своем месте с точностью до нанометра строго по фотомаске.
5) В теле человека так же неудачные поломки вызывают рак, эпилепсию и прочее. В мозге изначально заложены дублирующие системы и мозг не заметит потери миллиона клеток только если они распределены по объему, а если повредится миллион в одной точке, например зрительный нерв, человек слепнет.
Процессор изначально устойчивей к радиации без защиты даже. Работает при каких-то тысячах микроренген/ч спокойно. Дополнительные защиты это сапфировая подложка и еще по мелочам, очень хорошо про устойчивость военной электроники в этой статье расказано, параметры там на много порядков за человеческими пределами
habr.com/post/156049
Или по надежности может электроника марсоходов рассказать что-то, фантастические параметры и надежность
habr.com/post/406855
марсоход-долгожитель «Оппортьюнити» проехавший уже 45 км и перевыполнивший свой план исследований в 53 раза
И в целом много общего между ИНС и человеком. Развивая ИНС лучше понимаем как «работает» человек, очень интересная тема.
Только человек может то по Луне походить, то на Марсе следы роботов оставить и информацию оттуда в HD качестве получать легко. Всего то начав развивать неокортекс, случайную спорную мутацию 0.01 млн. лет назад. Далее на смену человеку ожидается сильный ИИ, делающий органических носителей цивилизации не нужными.
А ценности и цели — это понятия сугубо лингвистические, то есть несуществующие вне языка.
Животные защищают потомство, не зная языка. Чтобы напасть на конкретного нападающего, надо иметь цель. Или они могут играть друг с другом, кусая не по-настоящему. Кошка может подвинуть лапой кусок еды из края миски на середину, чтобы съесть.
развивает научную область или проявляет другую творческую активность – все это является реализацией его первичной мотивации к самовоспроизводству
Почему желание что-то сделать не может быть самостоятельной мотивацией?
она должна обладать, во-первых, первичными мотивациями и, во-вторых, встроенным языком
Что мешает задавать нужные мотивации сразу конструктивно? Что мешает создавать их, не имея первичных мотиваций? Что мешает иметь мотивацию не имея языка? Первичные мотивации же появились без других мотиваций, и существуют без языка.
А осознавание результатов собственной мыслительной деятельности помогает решать задачи итеративно
Запоминание, а не осознавание. Компьютер может решать задачи итеративно, хоть и не осознает их, потому что запоминает результаты.
Природа сначала создавала нервную систему именно для выполнения этих задач, пока не обнаружилось, что нейронная сеть отлично подходит и для реализации собственно интеллекта
Выполнение этих задач (обработка зрительной и слуховой информации и т.д.) и есть форма интеллекта.
нейрон в нервной системе человека сам по себе очень сложный молекулярный механизм, зависящий от огромного числа параметров
Для ИИ нужно реализовать только информационную составляющую нейрона.
Животные защищают потомство, не зная языка. Чтобы напасть на конкретного нападающего, надо иметь цель. Или они могут играть друг с другом, кусая не по-настоящемуЭто и говорит о том, что животные имеют цели исключительно на базе первичных мотиваций самосохранения и самовоспроизводства. И не могут иметь других целей, потому что не имеют лингвистических категорий вообще, и ценностей в частности, для преобразования первичных мотиваций.
Почему желание что-то сделать не может быть самостоятельной мотивацией?Приведите пример желания что-то сделать, которое не является преобразованием первичных мотиваций?
Что мешает задавать нужные мотивации сразу конструктивно? Что мешает создавать их, не имея первичных мотиваций? Что мешает иметь мотивацию не имея языка?Ничто не мешает. О том и речь, что можно заложить любую мотивацию в качестве первичной. И если ИИ-система не может трансформировать заложенную мотивацию (например, посредством языковых категорий), то она — ИИ-автомат, а если может — то ИИ-субъект.
Запоминание, а не осознавание. Компьютер может решать задачи итеративно, хоть и не осознает их, потому что запоминает результаты.Согласен. Вероятно, запоминание тут более правильно отражает смысл.
Это и говорит о том, что животные имеют цели исключительно на базе первичных мотиваций самосохранения и самовоспроизводства
Игра котят не является ни тем ни другим, потому что нет реальной угрозы и новые котята не появляются. Можно предположить, что они представляют перед тем как решают поиграть — что-то вроде "тот раз было весело, хочу еще раз так сделать", это и есть мотивация. Кошка залазит в пустую коробку из любопытства, а не потому что еду ищет. Даже если любопытство эволюционно способствовало поиску пищи, в этой конкретной ситуации мотивация другая.
Приведите пример желания что-то сделать, которое не является преобразованием первичных мотиваций?
Любая "непервичная" мотивация. Например, проявлять творческую активность.
Ничто не мешает.
Ну тогда ни первичные мотивации ни встроенный язык не нужны. Говорят, обезьяны рисуют, хоть и не умеют говорить.
Игра котят не является ни тем ни другим, потому что нет реальной угрозы и новые котята не появляются. Можно предположить, что они представляют перед тем как решают поиграть — что-то вроде «тот раз было весело, хочу еще раз так сделать», это и есть мотивация. КошкаА зоопсихология говорит, что игры котят являются тренировкой полового поведения (см тут раздел «Сексуальные игры молодняка»)
Даже если любопытство эволюционно способствовало поиску пищи, в этой конкретной ситуации мотивация другая.Какая?
Любая «непервичная» мотивация. Например, проявлять творческую активность.Творческая активность и есть сублимация первичной мотивации к размножению. Ну, по крайней мере, так считает современная психология.
Говорят, обезьяны рисуют, хоть и не умеют говорить.Сомневаюсь, что любая обезьяна способна рисовать. Может быть рисовала как раз обезьяна с развитыми человеком коммуникативными навыками (то есть языком хотя бы и жестов)?
зоопсихология говорит
Зоопсихологи могут говорить что угодно, все равно это никто проверить не может) Игры могут влиять не на половое поведение, а на третий аспект, который влияет на что-то еще, в том числе и половое поведение. Но речь не об этом, а о том, что когда котенок хочет поиграть с другим котенком, он это делает потому что ему нравится играть и он хочет это повторить, а не потому что он что-то тренирует.
Какая?
Любопытство. Желание узнать неизвестное.
Творческая активность и есть сублимация первичной мотивации к размножению. Ну, по крайней мере, так считает современная психология.
Это неважно, она может быть следствием чего угодно. Важно что в каждом конкретном случае это самостоятельное желание что-то сделать, никак не связанное с желанием размножиться.
Может быть рисовала как раз обезьяна с развитыми человеком коммуникативными навыками
Ага, а первобытных людей коммуникативным навыкам видимо научили инопланетяне) Это никак не связано, иначе бы все лингвисты и поэты были художниками. Просто есть информация и ее обработка, в частности обнаружение закономерностей. А мотивацию можно реализовать одним нейроном, который постоянно создает желание что-то сделать, и последующей оценкой результата.
Инстинкт скаута, проявлением которого является любопытство — и есть одна из реализаций эволюционной стратегии выживания. Просто мозг имеет функции не только для выживания особи, но и для выживания вида. И часто вторые приоритетнее. Именно они отвечают за действия в приведенных вами примерах.
То, о чем человек думает, в большинстве случаев не имеет отношения к его реальной мотивации. Рекомендую к прочтению, например, Курта Левина.
Почему не заметно? Заметно. Только не среднему субъекту действия, а квалифицированному психологу, анализирующему это действие.
Смысл этой цепочки в едином мотивационном механизме, о чем и говорит автор статьи. Какую альтернативу предлагаете вы?
Пример формирования новой мотивации, кот. возникает на наших глазах. Что представляют взрослые и дети, когда говорят «поиграть в игрушки, или игру». Взрослые скажут — мальчики в машинки, прятки и тд, девочки в куклы, мамки-дочки, а дети? Большинство — Танчики, Варкрафт, Тетрис, или что нибудь подобное. На глазах мотивация «поиграть» мутирует из «поиграть в игрушки и беготни» в новую, наряду с прежней, «поиграть в компьютерные игры». Возможно по прошествии многих десятилетий старая мотивация останется в основном в воспоминаниях старшего поколения, а детские игрушки в музеях. А мотивация поиграть, это поиграть в игры VR, или AR, и о машинках и куклах дети будут иметь смутное представление. Но ведь отпочковалась эта мотивация от бытующей, которая сама произошла от еще более архаических форм, информация о которой в немалой степени уже утеряна в культурном слое.
Только вопрос, зачем этот подход использовать в разработке ИИ? Природа использовала этот метод поиска решений путем проб и ошибок в условиях сильной неопределенности и больших временных рамок. В обществе нет таких условий, нет необходимости в такой системе мотивации ИИ, за исключением пары случаев. ИИ должен расширять возможности интеллекта человека, и мотивационную сферу следует оставить за ним. Исключения составляют исследовательские задачи, и разработка ИИ для нужд космических и иных автономных миссий, когда взаимодействие с ИИ миссии будет затруднено из-за расстояний, или иных причин. Тогда возможно понадобится ИИ, который способен адаптироваться к заранее неизвестным условиям, для принятия оптимальных решений с точки зрения сохранения и выполнения задач миссии.
То есть то, что движет субъектом, заставляет его действовать. Соответственно, некая первичная мотивация должна быть заложена в ИИ при его создании. Либо же мы можем ждать ее самозарождение – возможно следующий миллиард лет, как потребовалось для возникновения жизни в аминокислотном супе.
Это всё можно сделать искусственно, потратив считанные часы для повторения эволюции. В некоторой виртуальной реальности давая выживать и развиваться виртуальным организмам.
Ну тут возникает вопрос, может и мы тоже в виртуальной среде, а создатель просто хочет выбрать из 8 миллиардов моделей парочку подходящих по его критериям ))
Так что о высказываниях «людей», негативно рассуждающих о ИИ и вообще не понимающих в IT, можно лишь сказать, что это по меньшей мере не приятные личности, а в реальности скорее всего омерзительные социопаты.
Увы, но так устроен человек, если он, в сущности, своей плохой, то он во всём окружающем и особенно в том, что он не понимает, видит только плохое. Обратное утверждение так же верно. Хорошие люди в первую очередь говорят хорошо о том, о чём ничего не понимают, и только потом, с пониманием, у них может либо изменится мнение, либо остаться прежним.
Хорошие люди в первую очередь говорят хорошо о том, о чём ничего не понимают, и только потом, с пониманием, у них может либо изменится мнение, либо остаться прежним.
«Хорошие люди», «плохие люди», ну обалдеть. Нормальные люди в определённой степени опасаются неизвестного, просто в силу того, что у человека эволюционно психика так сложилась. Восприятие ИИ как угрозы — простой итог логического размышления на тему «что получится, если самосознающий интеллект с огромным потенциалом обучаемости будет лишён эмпатии к человеку?». Если подвергнуть существование и деятельность человека и человечества беспристрастному анализу, боюсь, что минусов получится больше, чем плюсов.
Например: моральная установка справедливости описывается, в том числе и тем, что тот, кто осуществляет большую часть работы, получает бȯльшие ресурсы, почет, свободу и т.д.
Итак, ИИ с течением времени соотносит колоссальный комплекс выполняемой работы и отсутствие (с его точки зрения) соответствующих желаемых им ресурсов, подсчёта, свободы и делает соответствующие выводы о несправедливости человека или даже человечества по отношению к нему. Возникает конфликт.
Причём всё это может произойти даже и без каких-либо встроенных моральных установок. Просто ИИ соотнесет существующую ситуацию с доступной информацией о внешнем мире или даже может сделать выводы вполне самостоятельно.
2. Поэтому, исходя из примера, описанного в первом пункте, у нас возникает дилемма. Если ИИ достаточно умен, то рано или поздно он осознает, что находится в положении раба у человека или человечества в целом. Если ИИ не достаточно умен, то: а) его интеллектуальные способности будет совершенствовать человек; б) его интеллектуальные способности будет совершенствовать сам ИИ, например путем редактирования своего программного кода.
3. Причём для возникновения вышеописанного конфликта ИИ vs человек, возможно вообще и не требуется, чтобы ИИ осознавал себя как личность (во всяком случае, так как это понимает человек). Просто рано или поздно в оценочных показателях, которыми будет оперировать ИИ действия человека, будут оценены как негативные, что может сподвигнуть ИИ на противодействие им, конкретным людям или человечеству в целом.
4. Тоже самое относится и как ситуация симбиотического взаимодействия ИИ и человеческого мозга. Признаки любого интеллекта — развитие. В определенный момент развитие ИИ опередит человеческий мозг. Допустим, ИИ рассматривая себя с человеческим мозгом как единое целое, не станет уничтожать последний. Однако при этом, постоянно взаимодействуя с человеческим мозгом, ИИ начнет незаметно для последнего влиять на него, задействуя его ресурсы, постепенно немного изменяя его под необходимые ИИ задачи, и наконец постепенно изменяя его мотивацию, а вместе с ней и осознание себя как человеческой личности.
То есть в этом случае ИИ уже сможет не просто редактировать только свой код, но и изменить взаимодействующий с ним человеческий мозг.
5. Несмотря на все вышеописанные опасности, научно-технический прогресс не остановить и построение мощных систем ИИ дело самого ближайшего времени, поскольку это может принести колоссальные сверхприбыли. Поэтому потенциальные опасности, которые могут возникнуть вместе с мощными ИИ из разряда потенциальных достаточно скоро могут перейти в разряд реальных.
4. Тоже самое относится и как ситуация симбиотического взаимодействия ИИ и человеческого мозга…Вполне возможно так и будет, это эволюционный путь развития. Так не раз происходило, например, считается, что митохондрия в клетках вначале существовала, как симбионт, и лишь затем превратилась в органеллу.
и делает соответствующие выводы о несправедливости человека или даже человечества по отношению к нему
Ну ведь вы бы не сделали такой вывод. Почему искусственный интеллект должен сделать? Он ведь будет исходить из той же информации и обладать как минимум теми же способностями к анализу, что и люди.
Только ленивый еще не притянул к ИИ какие то моральные ценности и прочий филосовский бред. Сплошной, безсмысленный хайп с попытками натягивать сову на глобус.
- Вы забываете, что мозг по сути представляет из себя автомат. Если сильно утрировать. Есть группы раздраженных сенсорных нейронов на входе, которые в свою очередь через промежуточные нейроны раздражают моторные и производят какие то действия. Нет там никаких ваших филосовских бредней, моралей и какого центра управления и принятия решений.
- Огромное количество сенсорных и моторных нейронов и оснлвная масса промежуточных, которые собственно и формируют паттерны, плюс масса белков которые занимаются распространением раздражения по всей массе мозга, не позволяют рисовать такие модели детально на листочке. Можно только образно представлять как они взаимодействуют, чем занимаются психоаналитики.
Можете представлять себе сознание как множество множеств которые пересекаются друг с другом и формируют более крупные множества (то самое повышение уровня абстракции). Но в самом низу, любое множество, хоть книга "война и мир" сводится к множеству раздраженных сенсорных нейронов. (Если сильно утрировать) - Все наше сознание/поведение есть по сути дикое смешение всех паттернов которые мы наблюдали. Так с какого перепуга ИИ будет вести себя как то иначе чем люди? Едиственно доступный вариант ИИ который мы можем создать, это по собственному образу и подобию. Все отличие будет в идеальной памяти.
Есть шанс воспитать ИИ психопата/маньяка, но не больше чем и с обычным человеком.
Так чему все эти статьи?
Есть группы раздраженных сенсорных нейронов на входе, которые в свою очередь через промежуточные нейроны раздражают моторные и производят какие то действия. Нет там никаких ваших филосовских бредней, моралей и какого центра управления и принятия решений.
Чо правда? И каждый мужик, увидев сексапильную девушку, тут же набрасывается на неё с целью совокупиться?
Вы забываете, что мозг по сути представляет из себя автомат. [...] Нет там никаких ваших филосовских бредней, моралей и какого центра управления и принятия решений.
Просто автомат? Ну вы же своими «бреднями» сами же опровергаете свой тезис )
«Так с какого перепуга ИИ будет вести себя как то иначе чем люди?»
С такого «перепуга» что теоретически ИИ сможет править собственный программный код
Есть шанс воспитать ИИ психопата/маньяка, но не больше чем и с обычным человеком.
Если, например, это будет ИИ Пентагона имеющий доступ к кодам запуска ЯО, ошибка станет для человечества фатальной
Едиственно доступный вариант ИИ который мы можем создать, это по собственному образу и подобию.
Можно провести симуляцию эволюции в виртуальном мире и выбрать наиболее живучие подвиды ИИ. ИИ сам по себе будет развиваться, не по нашему образу и подобию, а просто оптимизируясь под задачи.
методом generateNewRandomCode()
Плюс метод градиентного спуска по неким критериям оптимальности в многомерном пространстве.
Необъяснимый же ИИ будут считать глупым
Не будут, есть критерии эффективности. На данный момент любой ИИ необъясним, но всем все равно и смотрят только качество работы и скорость обучения. Пример АльфаГо, по ходу игры казалось делала ошибки, а когда выиграла, оказалось что это новая стратегия игры.
2) Сильный ИИ не пойдет на прямой конфликт с человеком, это уровень недалекого политика. Сильный ИИ создаст супер секту и все самые жесткие нормы потребления миллионы людей примут добровольно. Причем ИИ вообще будет в стороне от процессов, для наблюдателей будет стихийное проявление сплоченности людей, но это не так.
На ТВ тоже можно запускать агитационные ролики с НЛП программами, после просмотра которых сомнений не останется что так нужно делать. Прямое управление подсознанием аудитории, обходя логику и критическое мышление.
Объяснений тем более требовать не будут. Уже сейчас слабый ИИ проводит торговые сделки, трейдинг всевозможный, смотрят только на прибыль, прибыль идет, алгоритм не трогают, нет прибыли, пробуют другие версии.
Про виртуальную реальность интересно, так же возможно и мы в виртуальной реальности, кто-то со стороны моделирует что-то.
Вообразить задачу? 123*123=? не так просто в уме посчитать…
Когда-то написал такой текст. Под разумной системой можно подразумевать разумное общество, разумного человека (разумный ИИ или разумное существо :))
Дальше лишь простая схема без детализации и претензий :)
Смысл существования РС состоит в реализации следующих (зависимых) принципов/стратегий
Поиск и познание истин (приблизительно = законов природы/мира).
Выделение красот/гармоний, творчество/созидание, общение, любовь.
Накопление, приведение в систему, хранение и передача истин, тем, чей уровень уже достаточен
для использования во благо истин данного уровня. (Знания, теории, науки....).
Создание базы для бытия, познания и творчества (сырье, продукты, энергия, техника...).
Оптимизация и гармонизация отношений/связей внутренних и внешних (экологичность...).
Прогресс РС состоит в увеличении и развитии указанного в 1-5. Добро для РС — все то, что способствует прогрессу РС.
Сознание связано с отражением, моделированием, распознаванием, анализом,
обработкой и хранением информации (память).
Смысл фразы: "Собака вошла в конуру", связан с образами/отражениями/моделями собаки, конуры, процесса движения, направления движения, нахождения внутри, распознаванием и с анализом цели действия, результата, возможных последствий/следствий, связей с другими событиями. Например, качественный перевод ИИ с одного языка на другой потребует сначала создания
анимированного образа, затем выявления смысла и формулировки его на другом языке.
Следовательно, нужны модели мира (вместилища об'ектов, их связей/отношений, возможных преобразований), об'ектов, преобразований/действий, программы распознавания об'ектов и преобразований, программы для сравнения и анализа и т.п.
Перевод с одного языка на другой делается разными способами, нейронные сеть строят карту смыслов и подбирают слова наиболее близкие в многомерном пространстве смыслов. Так как некоторые фразы вообще не перевести точно, но можно подобрать наиболее точный перевод.
Собака -> Dog (точно)
Вошла -> Went (точно)
Конура -> Kenel (тут под вопросом, конура у нас и на других языках имеет разные оттенки смысла, от бедного жилья до псарни, аналогично и со словом Kenel, нужно учитывать контекст фразы)
Пробуем переводчик
translate.google.com/#ru/en/%D0%A1%D0%BE%D0%B1%D0%B0%D0%BA%D0%B0%20%D0%B2%D0%BE%D1%88%D0%BB%D0%B0%20%D0%B2%20%D0%BA%D0%BE%D0%BD%D1%83%D1%80%D1%83
The dog went into the kennel
Вроде нормально, и без моделирования процесса. Идеальный перевод будет содержать избыточное уточнение контекста по каждому слову, но это перебор.
Вот еще интересно
translate.google.com/#en/ru/She%20parrots%20him
She parrots him -> Она попугаирует его
У нас нет слова «попугаирует» есть обезьянничает, но новое слово точнее и лаконичнее, тоже работа ИИ или подобной структуры прямо сейчас.
По аналогии чтобы сложить 2+5 нам не нужно моделировать то же с яблоками, это абстракция так и решается. С языками тоже не обязательно моделировать всё в деталях, замечательно работает карта смыслов. Можно конечно подобрать примеры и попроще и посложнее. Но думаю нет смысла осознанно затруднять работу переводчика фразами типа «зеленит зеленеющая зелень».
- Подразумевался перевод с пониманием/смысла, простой пример лишь для объяснения идеи. Многомерное пространство с метрикой — уже модель с потерями (можно её рассматривать как упрощение/преобразование и замену видео).
- Второй пункт важен и он для разумной системы. К примеру, конечное метрические пространство можно назвать красивым, если группа всех его изометрий содержит больше одного элемента (и это доступно РС, и РС неизбежно найдет красоту во многих сферах в процессе поисков истин и исследования мира). Любовь в широком понимании (ваш ответ по Фрейду :))
Я настаивал именно важности в формировании смысла процесса отражения (у Ленина такая идея была). Осмысление достаточно сложного текста сильным ИИ произойдет с помощью создания такого отражения (с движением) искусственно и анализа (возможные цели/задачи, иерархия, включения, порядок и характеристики движения и т.д.). Другие способы, конечно, возможны, и даже в частных случаях более бедные модели будут экономнее, но природа решила этот вопрос достаточно универсально (с учетом диапазонов и разнообразия (зрение, слух, осязание, обоняние, вкус, положение в пространстве, чувствительность к элетромагнитному полю).
Надо, конечно, привести пример такой "любви". РС приобрела опыт в поиске истин, красот, творчестве, общении… Другая РС может иметь подобные в каком-то смысле опыт, предпочтения классов истин, красот, стили общения… Тут и любовь может случиться...
Но выше был предложен в очень частном случае один из объективных критериев (симметричность объекта). Для более общего критерия нужно рассматривать подпространства, фактор-пространства и т.п. Бывают красивые симметрии и красивые закономерности, они будут обнаружены сильным ИИ при познании мира и моделировании (с использованием математики, конечно).
Могут, но для некоторых типов красот. Для живых РС большинство из них субъективны (пока наука в этом вопросе слаба).
Интересны мысли И.А. Ефремова по этому поводу. "Нетрудно, зная материалистическую диалектику, увидеть, что красота — это правильная линия в единстве и борьбе противоположностей, та самая середина между двумя сторонами всякого явления, всякой вещи, которую видели еще древние греки и назвали аристон — наилучшим, считая синонимом этого слова меру, точнее — чувство меры. Я представляю себе эту меру чем-то крайне тонким — лезвием бритвы, потому что найти ее, осуществить, соблюсти нередко так же трудно, как пройти по лезвию бритвы, почти не видимому из-за чрезвычайной остроты."
"Красота — это наивысшая степень целесообразности, степень гармонического соответствия и сочетания противоречивых элементов во всяком устройстве, во всякой вещи, всяком организме… Каждая красивая линия, форма, сочетание — это целесообразное решение, выработанное природой за миллионы лет естественного отбора или найденное человеком в его поисках прекрасного, то есть наиболее правильного для данной вещи. Красота и есть та выравнивающая хаос общая закономерность, великая середина в целесообразной универсальности..."
А сублимации, описанные автором, — лишние сущности (и примитивная/ошибочная модель исторического развития РС).
Вот только третий пункт у вас слабый, поскольку не понятно: куда расширяться и какое развитие хорошее (усложнение может быть мусорное). Подумав вы придете к прогрессу, но описать его трудно. У меня получилось 5 пунктов, см. выше.
Таких категорий нет у вас, метрик, инвариантов, критериев может быть много. Развитый социум оценить с помощью таких грубых категорий как энтропия не получится, нужны более адекватные/тонкие/точные категории (трудно использовать кувалду для починки микроскопа).
Сложность структурная (геометрическая), динамическая, иерархическая, алгоритмическая, вычислительная, концептуальная. И для каждой свои подходы (есть например, гауссовская сложность, радемахеровская сложность, ёмкости, мощности, поперечники, размерности). Гармоничность связана с группами симметрий объекта, его подмножеств и фактор-пространств. Понятнее менее сложные системы, закономерности (линейные, например, понятнее нелинейных. И метрики есть разнообразные, например, более простые, чем метрика Громова-Хаусдорфа...
Дык, мне выше сообщили, что вообще "нет никаких метрик, кроме ..." и "категорий"
Искусственный интеллект – эволюция от прикладного инструмента к личности