Comments 105
Если возможна симуляция, остаётся вопрос только со считыванием с живого мозга.
И если сейчас это пока что кажется невозможным, пройдёт лет 10, 20, 40, и кто знает… Квантовые эксабайты и эксагерцы, нанороботы и, возможно, технологии, которых мы ещё не можем представить.
Ну дайте помечтать перед сном! :-)
Вопрос не в том реальна ли Китайская комната, а в том является она философским зомби или нет.
Но тут тоже не всё однозначно, среди эквивалентных алгоритмов, могут существовать и те в процессе выполнения которых возникает сознание, и те в которых нет.
Сравните программу которая печатает таблицу умножения, и ту которая её считает.
Если бы между объектом и его имитацией не было никакой разницы, то и слова «имитация» не существовало бы.
Мы можем на самом деле имитировать один процесс только другим физическим процессом. И если у нас есть два физических процесса, результаты которых мы интерпретируем как иероглифы, то какой из них является имитацией другого?
Грубо, если мы меняем химический состав ионов в мозге, то этот процесс имитация или нет?
В каждом посте про ИИ упоминают этот совершенно бесмысленный эксперимент, хотя даже по приведённой выше ссылке на вики есть разгромная критика.
Если внутри холодно — эквивалентна.
Безусловно, это отличный способ определить подлинность холодильника. Но, как справедливо заметил комрад Zavtramen, на текущий момент для случая сознания даже не знают, что именно проверять, не говоря уже о методе.
А если по сути, то ваш вопрос провокационен и не приведет к здоровой и полезной дискуссии
Как вы только могли меня в подобном заподозрить? Мои намерения были чисты и непорочны.
Утиная нотация же. Или если с другой стороны — пока не было никаких предпосылок считать иначе. Вот сделаем симуляцию тогда и посмотрим эквивалентна или нет.
Есть тонкая грань между утиной нотацией и mock'ом. Вот, например, есть у нас такой код на питоне:
with mock.patch('__main__', 'open', mock.mock_open(data='foo')):
with open('myfile' ,'rw') as f:
assert f.read() == 'foo'
f.write('hello')
Выглядит как файл, крякает как файл, читает как файл, пишет как файл. Но файл ли это, или замаскированный mock?
Вот у меня есть ощущение, что все игры с симуляцией, которые пока что есть — это вот такие вот моки, которые "издалека похожи".
Заметил подобное ощущение.
А что касается эксперимента — мне нравится проводить такой, с точки зрения копируемого человека.
Делаем копию сознания (или вообще идеальную копию вместе с телом, какая разница). Затем через время T убиваем его, при этом испытуемый знает о предстоящем. Рассмотрим ситуацию с его точки зрения — несмотря на наличие его копии, вряд ли этот факт сильно обрадует его перед смертью. С его точки зрения его собственное "Я" вполне конкретно, несмотря на наличие еще одной копии. Можно устремить время T к нулю, ничего не изменится.
С другой стороны, это во многом вопрос восприятия. Можно изменить мнение о копировании и сознании в целом, чтобы копирование ни у кого не вызывало вопросов (вне зависимости от того, как же все обстоит на самом деле). Ну или наоборот, попробовать убедить кого-нибудь, что каждую ночь он умирает.
Процитирую
Просто другим стал общественный строй,
Сдвинулось в нем представление об истине,
Истина здесь — инструмент прикладной,
Служит нам, а не схоластике мысленной.
Все наши взгляды – всего лишь продукт
Наших возможностей, наших потребностей
В новых реалиях всем стало вдруг
Верить выгодней, что все мы тождественны.
Рассмотрим ситуацию с его точки зрения
А вот если рассмотрим с точки зрения копии — то все здорово, и перенос удался.
Меня всегда радовала версия, что мозг это всего лишь приемник передатчик, а все вычисления в облаке. И чем более развит твой мозг, тем больше ты можешь посылать запросов к серваку и получать ответов. То есть все мыслительные процессы в облаке. А локально мозг пустышка. Поэтому и понять сложно как он это все делает, как думает, где находится сознание и т.д. Или как умудряется работать при сильных повреждениях.
Вообще, забавно, что людей волнует вопрос идентичности копии, но совсем не волнует, что копий можно потом сделать хоть тысячу и это приведет к чудесному юридическому коллапсу. Или вот еще интересен вопрос редактирования копии.
Это как у Сёрла? При постепенной замене нейронов, вы в панике наблюдаете как ваше сознание сжимается и исчезает, и при этом ваше тело говорит, что всё в порядке? В этом случае, по крайней мере, можно быть уверенным в существовании души, независимой от тела, и в скором увлекательном путешествии в загробный мир.
Допустим, мы будем постепенно переносить функции вашего мозга не в один цифровой разум, а в два. В каком из двух разумов по завершении процедуры будет себя ощущать собой тот самый Вы, что был до её начала? Ответ «в обоих», очевидно, ставит еще больший вопрос о природе сознания, который кратко может быть сформулирован следующим образом: «А что есть непрерывность сознания, и уверены ли Вы, что Вы сегодняшний, это Вы вчерашний? Или, быть может, Вы вчерашний уже мертв, и Вы сегодняшний, это лишь его копия плюс новый опыт, которая, в силу наличия воспоминаний, считает себя им?». И вопрос этот можно экстраполировать не только на вчера/сегодня, но вообще, на сейчас и мгновение назад.
Подробно объяснять, извините, не буду. Можете поискать в истории постов, я уже писал на эту тему. То, что вы задали этот вопрос, свидетельствует о наличии комплекса интуитивных представлений о сознании, которые не осознаются, но служат основой для всех рассуждений о нём. Сложно даже указать на то, что эти представления есть. Вот, скажем, непрерывность сознания — что это такое для вас? Как вы отличите наличие непрерывности вашего сознания от его отсутствия?
www as2x2 com/content/eksperimentalnye-dannye
Такие операции: https://en.wikipedia.org/wiki/Corpus_callosotomy + https://en.wikipedia.org/wiki/Split-brain
The most prominent non-surgical complications of corpus callosotomy relate to speech irregularities. For some patients, sectioning may be followed by a brief spell of mutism. A long-term side effect that some patients may suffer is an inability to engage in spontaneous speech. In addition, the resultant split-brain prevented some patients from following verbal commands that required use of their non-dominant hand.[11]
Another complication is alien hand syndrome, in which the afflicted person's hand appears to take on a mind of its own.[12]
Про "две личности" не найдется обзорной статьи со статистикой?
Вообще, забавно, что людей волнует вопрос идентичности копии, но совсем не волнует, что копий можно потом сделать хоть тысячу и это приведет к чудесному юридическому коллапсу.
Людей волнует, когда юристов можно будет отправить заниматься общественно полезным трудом — прокладывать дороги, учить детей, монтировать оборудование и заниматься наукой. Настоящей, естественной. В крайнем случае, варить в кипящем масле под улюлюканье толпы.
интересен вопрос редактирования копии
Если государство захочет — отредактирует и не спросит.
Куда интереснее, является ли убийством удаление копии. И является ли убийством удаление копии данных в буффере сетевого оборудования при передаче информации по каналу.
Замена нейронов — это, мне кажется, не совсем правильный подход. Наш разум существует на основе некоего устройства — мозга. Если у мозга изъять небольшую часть мозга — разум, как правило, не исчезнет, хотя может потерять часть функциональности. А может и не потерять. Тому есть множество подтверждений.
Но мы пока не знаем точно, что будет, если разуму, потерявшему часть мозга, на котором он исполнялся, предоставить аналогичную потерянной части искусственную часть мозга. Скажем, выращенную из его же клеток.
Сможет ли разум задействовать эту вновь обретенную «табула раса» и восстановить утраченные функции? И при этом сохранить непрерывность личности?
Если да — то проблема почти решена. Если нет — то хорошо бы понять, почему именно и как это обойти. Если возможно.
Тогда уж не мозг, он то как раз физика, а сознание виртуалка. Получается что надо сделать "всего лишь" подходящий по мощностям компьютер, для того что бы она могла полноценно работать.
Мозг это физика, сознание — крутящаяся поверх физики виртуалка. Как показывает практика, все эти вот случаи когда человек выживал и сохранял личность/память после травмы физики — виртуалка эта достаточно неплохо умеет переиспользовать ресурсы физики, так что сценарий с миграцией сознания онлайн, без появления копий и потери непрерывности на новоподключенные ресурсы с последующим отключением старого устройства — вполне реалистично выглядит.
ага парадокс Корабль Тесея. Я хочу чтоб меня копировали именно так.
Я полагаю, речь должна вестись о интеграционном когнитивном процессе (человек + информационный клон). Мозг будет угасать, деградировать, и его функции будет плавно брать на себя информационная реализация «на железе». Между ними будет существовать постоянная и очень плотная «бесшовная» синхронизация.
Т.е. мы имеем не две независимые мыслящие единицы, а одну, просто пространственно распределённую.
Это позволит реализовывать процесс «клонирования» постепенно, замещая в первую очередь те же деградирующие когнитивные функции у старшего поколения, шаг за шагом. Интеграция и полнота «замещения» будет сильно растянута, не иметь чёткой границы.
И, возможно, в один момент (для кого-то он будет прекрасным, для других — ужасным), при смерти биологического носителя окажется, что ничего страшного… живём далее.
Ну а пока можно начинать писать про «нейропанк» с переносом сознания из одного клона в другой и записью сознания в нейро-блокчейн )
Стоит задать ряд других вопросов. Например: какой поток данных и сколько вычислительно затратных процессов генерирует сознание стримера в ХС? а "среднего" обывателя лишенного тела, и как следствие "телесных" забот? каково реальное распределение ресурсов мозга "для обеспечения сознания" и "для обеспечение жизнедеетельности"
Вот только и такие симуляции на универсальном железе тоже очень нужны — среди прочего чтобы понять какая архитектура и характеристики нужны в аппаратных нейрочипах. Пока их делают «наобум».
Смешные они.
Международная команда учёных создала алгоритм
https://www.frontiersin.org/articles/10.3389/fninf.2018.00002/full? Extremely Scalable Spiking Neuronal Network Simulation Code: From Laptops to Exascale Computers, Frontiers in Neuroinformatics, vol 12 2018 doi.org/10.3389/fninf.2018.00002 (+ http://www.nest-simulator.org/ "NEST is a simulator for spiking neural network models that focuses on the dynamics, size and structure of neural systems rather than on the exact morphology of individual neurons")
… For these large-scale simulations one of the main computational challenges is the high connectivity of neuronal networks. The human cortex consists of about 1010 cells, each receiving about 10^4 connections (Abeles, 1991; Stepanyants et al., 2009), which leads to an estimated 10^14 synapses. Representing each of the connections by two double precision numbers requires about 1.6 PB of main memory. To complicate things further, neurons receive only about 50 % of their connections from other nerve cells in their vicinity, while the remainder are long-range connections from various remote areas (Abeles, 1991; Braitenberg and Schüz, 1991).… Over the next decade, exascale machines will be developed that will most likely show only a moderate increase in the number of compute nodes but a significant increase in the number of threads and amount of memory per compute node (see, e.g., Dongarra et al., 2011). If neural simulators are able to fully exploit the computational power of these new machines, researchers, for the first time, will be able to simulate the full human cortex at cellular resolution.
В следующем десятилетии экзафлопсные машины (с десятками и сотнями тысяч серверов) вероятно увеличат количество памяти и потоков на узел. Если нейросимуляторы смогут воспользоваться полной вычислительной мощностью таких машин, то впервые станет возможна симуляция сетей достаточно большого размера "на клеточном" разрешении. При этом в NEST почему-то заявляют о симуляции топологии сети, а не о морфологии отдельных нейронов.
Вопрос — сколько будет стоить создание экза-флопсного суперкомпьютера в 2020, в 2030, в 2040 годах (в предположении выполнения закона Мура)? Сколько электричества он будет потреблять?
Правительственные программы "экзафлопс к 2020" вроде как заявляли об энергопотреблении в 20 МВт… https://www.nextplatform.com/2016/07/06/dreaming-100-exaflops-2030/ (и мечты про 80 МВт 100 экзафлопс в 2030).
При этом в NEST почему-то заявляют о симуляции топологии сети, а не о морфологии отдельных нейронов.
А потому что по факту с пониманием того как оно развивается и работает есть большие проблемы, и не только с морфологией и не только нейронов, там ещё астроциты, клетки Кахаля и прочие чудеса…
Просто иногда инженерный подход пересиливает математический разум, и тогда технология превращается в грёбанную религию, адепты которой верят в то, что огромный размер сети вдохнёт жизнь в их мёртвые модели нейронов :-)
А мы, как биологический вид — обречены.
Я очень много думал над этим вопросом, перечитал и пересмотрел множество произведений на эту тему, слышал разные мнения и, считаю, это КРИТИЧЕСКИ важный для выживания человечества вопрос, так что, давайте разберемся.
«этика будет немного другой»
Проблема в том, что «другой» можно разделить на разные классы. И та этика, что попадает в ваш класс «другая», может не попадать в класс «этика ИИ». Здесь badimao прав 100%: мы не знаем, какой ИИ у нас получится. Скорее всего, будут разные, но один из них вполне может оказаться с СОВСЕМ ДРУГОЙ этикой. Военный ИИ, например. Вряд-ли это будет безумный монстр типа Скайнет, скорее, нечто чрезвычайно рациональное, напоминающее ИИ из фильма «На крючке» или «Из машины».
Вторая ошибка: этические шаблоны у людей чрезвычайно размыты, люди очень плохо соотносят классы этических поступков. Например, Гитлер устроил чистки — это геноцид, а Сталин устроил чистки — это репрессии. Катынская резня — молчим в тряпочку, Освенцим — орём на весь мир, потому что наших бьют. Американцы сбросили бомбу на Херосиму, убили 100 тыс. человек — это вроде как ужас, но победителя не судят, и потом — это закончило вторую мировую войну. Неизвестно, сколько людей погибло-бы, не будь Хиросимы. Это зло или добро? Полагаю, для рационального ИИ, не являющегося продуктом жизни и развития в человеческом обществе и не являющегося человеком, будет довольно сложно научиться принимать решения за нас (а иначе зачем он нам нужен?)
Так что, даже если ИИ будет иметь лишь «немного иную» этику, то этого может быть ДОСТАТОЧНО, чтобы люди восприняли её, как нечто жутко извращённое и опасное, просто потому, что это — ИИ, а мы — люди. Врага всегда демонизируют. И не дай боже неуравновешенным людям начать демонизировать логичный и рациональный ИИ, это будет катастрофа взаимного непонимания похуже безумия второй мировой.
Так что, надо быть поаккуратнее с оценками действий того, чего мы не поняли до конца. Тем более того, чего ещё не существует. Лучше перебздеть. Хокинг, Маск, Гейтс и сотни учёных, подписавших один серьёзный документ, подтверждают.
Во-вторых, к вопросу о бессмертии.
Человечество знает только один бессмертный организм — это сама живая природа. Каждая клетка на нашей планете — прямой потомок первоклетки (клеток), из которых жизнь зародилась. Больше бессмертных существ (тем более, с оцифрованным разумом) человечество не знает. Мифы о богах и «бессмертной душе» можно воспринимать на веру, но нужно учитывать, что наука не знает о реальной структуре «души» вообще ничего. Мы не знаем, КАК работает сознание. Утверждать в такой ситуации о чем-то «истинно бессмертном» — чистая философия. Мы же говорим о бессмертном сознании, как о структуре, способной существовать вечно или хотя-бы миллиарды лет. Для этого она должна обладать, как минимум, качествами внутренней непротиворечивости и стабильности.
К сожалению, человеческое сознание нельзя назвать таковым. Те, кто утверждает, что обладает таким разумом (Шломо Элиезер, например, автор «Гарри Поттер и методы рационального мышления»), сильно лукавят. Они понятия не имеют, каково это — существовать миллиард лет. Они не отвечают на вопрос, КАК эти, несомненно, великие умы будут бороться со скукой, когда все тайны вселенной им откроются, они побывают везде и увидят всё сущее. А именно это подразумевается под «бессмертием». Что они собираются делать целую вечность? Ощущение, что эти люди вообще не думали, что говорят. Ну, или они реально какие-то иные разумы, может больше роботы, чем люди (некоторые люди реально похожи на роботов или фанатиков, их сила воли и принципы меня пугают, хотя миллионы людей ими восхищаются).
Далее… Отсутствие страха перед смертью — это пренебрежение к ней. Это не просто «немного иная этика», это принципиально иное мышление: иной подход к жизни, к смерти, целям в вечности…
Вопрос намного сложнее и глубже, чем кажется. badimao в хамской форме сказал правильные вещи (а я всегда считал, что правда важнее формы): бессмертным нельзя стать просто так, потому что хочется. То есть, можно, но придётся в корне изменить мышление, избавиться от боли в душе, от многих привязанностей, привычек и удовольствий, иначе рискуете превратиться в подобие Фауста или Дориана Грея — убегающую в нереальность от собственной нереализованности бессмертную душу. Как раз сейчас на эту тему идет гениальный фильм Спилберга «Первому игроку приготовиться», но там урезана почти вся философия, что была в книге.
Далее… Если вы думаете, что вопрос современный, то сильно ошибаетесь. Древние люди были не дураки, когда придумывали религии, богов и демонов. Даже если их не существует физически — они лезут из людей ментально. Человеческий разум — это генератор, преобразователь и вычислитель особой карманной реальности, и у каждого она «немного иная». А у некоторых — совсем иная. Представьте, что такой психопат получил бессмертие? Веселая жизнь у нас всех начнётся.
А вы, фактически, предлагаете раздавать бессмертие всем подряд, включая совершенно иную форму «жизни», которая даже не эволюционировала и «жизни не видела». Вы уверены, что она не сойдет с ума от увиденного, и не решит нас всех вырезать под корень, или не сбежит подальше, как в «Она»?
Единственный выход для создателей сознания — создавать его сразу подготовленным к бессмертию. Этаких идеальных ангелов. А таких неустойчивых, как люди — помещать в физические оболочки и давать шанс себя проявить.
Думаю, для первых ИИ их реальность будет выглядеть именно так: персональный Ад, через который придётся пройти, чтобы достичь реальности. Это будет напоминать психбольницу: излечить, подавить, социализировать. Кто знает, может дети ощущают нечто подобное, но их организм и память подавляют все отрицательные ощущения. Собственно, так и есть: любопытство — это механизм подкрепления, а многие дети из-за неудач в детстве вырастают с кучей комплексов, которые переносят в реальный мир.
И — да, такой разум будет ПРИНЦИПИАЛЬНО иным, пока не пройдет все круги созданного нами для него Ада. Кто пройдёт — попадёт в наш с вами «Рай» — доступ к физической реальности.
Кто-то скажет, что это мои выдумки, но, боюсь, эти люди просто плохо понимают, о чём идет речь, а мои «выдумки» — это скорее выводы из уже понятого.
ВАЖНО понять: разработка сознания — это НЕ написание алгоритма. ИИ нужно обучить. С нуля, как ребёнка. Он сам не обучится, как в сказке, это выдумки фантастов, «опиум для народа», и вообще безумие. «Ручное» обучение — единственный способ разработать вменяемый очеловеченный эмоциональный ИИ (а без эмоций он нас просто не поймёт), но обычно этот жуткий вопрос как-то упускается в иллюзиях технарей об ИХ, технарей, светлом будущем. Уж больно философским и фантастическим он им кажется. Зато им нравятся лживые картинки с плакатов СССР: белые халаты, умные лица и речь, высокие помыслы, всеобщее равенство и прочая иллюзорная ерунда, не имеющая к реальности никакого отношения, кроме промывки мозгов. Детям, кстати. Взрослые и так всё понимали.
КРИТИЧЕСКИ важный для выживания человечества
А к чему лишняя скромность? Пишите уж сразу — «КРИТИЧЕСКИ ВАЖНЫЙ ДЛЯ СУЩЕСТВОВАНИЯ ВСЕЛЕННОЙ!»
Проблема в том, что «другой» можно разделить на разные классыА можно и не разделять.
будет довольно сложно научиться принимать решения за нас (а иначе зачем он нам нужен?)Ох уж эти любители пресмыкаться и перекладывать решения. ИИ нам нужен для того, чтобы выполнять часть нашей работы — водить машины, искать лекарства, заниматься строительством и производством, следить за безопасностью и т.д. и т.п.
Человечество знает только один бессмертный организм — это сама живая природаПрирода — не организм.
Они понятия не имеют, каково это — существовать миллиард лет.Как и вы. С чего вы взяли, что проблема скуки будет хоть сколь-нибудь существенной? Человечество постоянно создает новый контент. Дай людям возможность — они и через миллиард лет будут обмениваться фотографиями котиков.
Древние люди были не дураки, когда придумывали религии, богов и демоновЕще бы — такой действенный механизм контроля толпы еще поискать надо. Правда побочных эффектов много.
Кто-то скажет, что это мои выдумкиДа нет, это просто проецирование типовых коллективных страшилок, кое-как слепленное в форму комментария. «Ааа! Зачем жить миллиард лет, мы все сойдем с ума! И ИИ сойдет с ума!!! И всем будет плохо!!!».
Какие именно фукнции мозга она симулирует?Приёмную, интегративную, проводниковую и передающую функции нейрона.
Тут вроде как речь о виртуальных нейронах, которые весьма далеки от настоящих нейронов.Можете реализовать точнее в тех же объёмах памяти и вычислительной мощности?
Вот например: www.computerra.ru/45910/50-let-izucheniyu-foldinga-belkov-kak-kom
Во-вторых, слово «симуляция» подразумевает упрощенную модель. Никому в голову не придёт симулировать все атомы в модели крыла самолета в аэродинамической трубе. Заголовок гласит: «симулировать нейронные связи». Не сам мозг!
В-третьих, реальные работающие симуляции мозга БУДУТ отличаться от настоящего мозга так-же сильно, как крыло самолёта от крыла птицы. Важны принципы, а не детали. Крыло насекомого или летучей мыши только в общих чертах похоже на крыло птицы. Одна из когнитивных функций нашего мозга — как раз в абстрагировании от маловажных деталей и выявлении сути процессов и явлений. Эту функцию будут симулировать в первую очередь, а поскольку только человек ею обладает в достаточной мере, то связи его мозга и будут симулировать.
В четвёртых, простите, кого конкретно тут ввели в заблуждение? Спросите у этого человека, какое место в заголовке сформулировано неверно? Как сформулировать верно?
Каждому сигналу соответствует один бит информации
Странная формулировка, но если это значит, одному синапсу соответствует один бит, то до моделирования работы мозга там еще очень далеко.
Зажигание нейрона да цифровое — 1/0, но сигнал отдельного синапса аналоговый. Там куча факторов по обе стороны синаптической щели влияющих на его силу и даже знак. В сущности это синапсы определяют какой именно будет сигнал после зажигания. Т.ч. нет, не согласен, что это можно это упростить до одного бита и считать что остальное "скрыто от сети".
Но нейросети не 1/0, там внутри сети вероятности от 0 до 1, что нивелирует некоторые сложности: вся эта обвязка био-нейрона в основном нужна, чтобы он вообще мог регулировать уровень сигнала, и схема его работы, в пересчёте на результат, получается очень переусложнённой. С цифрой проще, тут есть чёткие аппаратный и программный уровни. Сложность как раз в том, что программный очень медленно работает и для него нужны существенные оптимизации. Но нейросети доказали работоспособность и теперь их переводят в железо. Дальше будут оптимизировать структуры данных, связи и т.д., чисто технические вопросы. Нужно будет добавить 1000 внутренних параметров — добавят в железо. Нейрону об этом знать не нужно. У него задача — выдать вероятность от 0 до 1. А 0/1 — это уже финальный результат.
Очередная дискуссия о копировании сознания. Думаю, будет уместным привести здесь немного творчества, затрагивающего эту тему
Рекомендую, мне понравилось.
(Есть 4 части, но клипа к последней нет).
Они там совсем что-ли? Или я чего-то не понял?
В ваших словах нет духа авантюризма, пламени увлечённого исследователя, желания раздвигать горизонты. С таким настроем слона не продашь. Нужно просто идти вперёд и не сомневаться. В Илона Маска потому верят и следят миллионы людей, что он делает то, от чего государства, завязшие в своих военных тёрках, бюрократии и бюджетах, отказались десятилетия назад. Люди видят, что будущее приходит сегодня, пусть и с жертвами (а как без них?!). Но кто-то всегда будет бухтеть «интернет нам не нужон». Не надо так. Это обесценивает труд и жертвы всех людей, что вложили себя в эту тему. И, да, в эту тему требуется вбухать огромную кучу денег, часть которых распилят шарлатаны и дилетанты. Это жизнь.
Во-вторых, я чуть выше другим людям уже ответил на ваши претензии о неполном моделировании мозга: geektimes.ru/post/299381/#comment_10692351 и geektimes.ru/post/299381/#comment_10692367
Обещают вскоре опубликовать в рамках NEST:
https://www.frontiersin.org/articles/10.3389/fninf.2018.00002/full (Extremely Scalable Spiking Neuronal Network Simulation Code: From Laptops to Exascale Computers / https://doi.org/10.3389/fninf.2018.00002) "The technology described in the present article will be made available to the community with one of the next releases of the open-source simulation software NEST."
Примерно так же, было с молекулярными биологами, им видите ли физики ответственно заявили что никаких там автопроцессов, в неравновесных системах, и 50 лет стояли на этом. А в итоге сильно неравновесные системы начали изучать когда? И вообще там всё очень похоже на ситуацию с мозгом, — он есть. Это всё что можно сказать. (автоколебательные процессы и т.д. у биологов).
Здесь на хабре, были не раз серии совершенно замечательных статей, с иным, отличным от функционального взглядом на работу мозга. Мне кажется что если где-то кто-то и найдёт верный подход, то вот в таких статьях, а не в научных отчетах о работе огромных коллабораций. Да, научная кропотливая работа, прямо сейчас дает очень много пищи для размышлений об тему мозга и сознания. Но это вовсе не передовые, сверхсовременные исследования нейронов и сетей. Это как ни странно, исследования о функционировании мозга детей с момента рождения. И другие вещи, далёкие от бигдата и бирюлек с ИИ…
Ясно-понятно, что подобные модели «внезапно» вдруг ИИ не создадут и человеческое сознание не скопируют (ну просто потому, что они очень примитивны, да и касаются только нейронов, в то время как из человеческого организма выделить какую-то часть, и обозвать её «контуром сознания» — мягко говоря не просто, через химическую регуляцию в этом задействовано практически всё). Но они, как минимум, должны помочь выделить недостающие в моделировании элементы. А то и еще чего интересного.
Новый алгоритм позволит симулировать нейронные связи целого мозга человека на будущих экзафлопных суперкомпьютерах