Pull to refresh

Comments 59

В среднем, через один синапс проходит 10 импульсов в секунду, т.е. мы имеем тактовую частоту 10 герц на одну синоптическую связь


Любопытно, не знал. Это где-то написано? Википедия там, хорошие исследования?
первым порывом после прочтения первой фразы было написать «у вас знак степени потерялся».
Наука склоняется к цифре в 70 млрд. нейронов в мозге.
Затем подавляющее их большинство не работает в каждый момент времени, как показывает томография. Иначе мозгу бы понадобился радиатор.
Далее информация в мозге многократно резервируется, т.е. как минимум половина операций не несет дополнительной информации.
Есть факты когда у людей в голове вообще пусто, а мозг размазан по стенкам черепа. Т.е. наводит на мысль как минимум о десятикратной избыточности мозга.
В тоже время flops это операция на 64-х битном сигнале, а синапс передает однобитный сигнал.
Т.е. чтобы перевести flops-ы в бинарные операции их надо умножить еще на 10^19.

Итого получаем космичекое превосходство компьютеров над мозгом.

Не совсем, если заставить компьютер работать с изображением, ровно так же работает мозг с нашими глазами в фоновом режиме, боюсь Боливар не вынес двоих… глаз.
Синапс — это аналоговый сигнал, а не однобитный.
И? Задача правильного соединения трехсот картинок чудовищной детализации (насколько я знаю до сих пор нет мониторов способных обмануть человеческий глаз) «снятых» с разных ракурсов хоть при аналоговом, хоть при цифровом формате все равно нетривиальна для любого вычислительного устройства. А ошибка для человека в соединении ракурсов может означать смерть (например, обезьяны, прыгающие с дерева на дерево не могут допустить даже одной ошибки в определении расстояний до ветки на миллион попыток).
Я с этим и не спорю. Прочитайте комментарий, на который я ответил.
В тоже время flops это операция на 64-х битном сигнале, а синапс передает однобитный сигнал.
Т.е. чтобы перевести flops-ы в бинарные операции их надо умножить еще на 10^19.
Я лишь хотел сказать, что это выражение некорректно.
синапс передает однобитный сигнал


Где-то я читал следующее:

Нейрон реагирует на комбинацию спайков на синапсах не единичным ответным спайком, а последовательностью спайков с разной частотой. Частота тем выше, чем более входящая комбинаяция соответствует конфигурации нейрона.


Может, конечно, и ересь. А может и нет :)
«Тактовая частота процессора показывает, какое количество основных операций выполняет процессор в секунду, и измеряется в герцах.» — ЕГЭ победил. Тактовая частота процессора показывает с какой частотой подаются тактовые импульсы на некоторые вычислительные блоки процессора. Связь герцев и операций (да еще такой перл как «основных операций») условна. Дальше читать не стал. Печально…
Частота процессора — это, грубо говоря, скорость переключения транзисторов (или можно сказать такт), а не количество операций в секунду. Количество тактов в секунду, не совпадает с фактическим количеством операций в секунду.
Ну-ка ну-ка, перемножьте мне пару чисел с плавающей точкой в уме за секунду
Ну скажем, 2,167е-3 * 3,0753е4
:)
А попробуйте выполнить на компе все те операции над изображением (и с тем же разрешением, что у человеческого глаза), что делает мозг постоянно 24 кадра в секунду чтобы мы просто могли видеть и распознавать изображения. Кстати, очень часто слепые люди резко умнеют так как на самом деле зрение это дикая трата вычислительных ресурсов.
Все просто, чтобы обработать (перевернуть, объединить с другой) одну картинку на 300-400 млн. пикселей, нужно положим не менее 1 млд.операций (берем по самому минимуму для самых быстрых комп.алгоритмов), человеческий глаз совершает до 130 колебаний в секунду, мозг сначала складывает эти 130 картинок в 24 кадра (260 млд. операций для двух глаз), потом соединяет изображение от двух глаз (48 млд. операций), переворачивает изображение (24 млд. операций), выделяет тысячи объектов и четко определяет их свойства, опасность и т.п.(фиг знает сколько, для компа это вообще дико дорого), итого можно сказать только за то что мы видим комп потратил бы от 500 млд. элементарных операций (от потому что четкое распознавание изображений на семантические объекты вообще стоит непонятно сколько). Это только одно зрение, без прочих органов чувств и управление телом, не говоря уже о том что это фоновая работа, без собственно мышления.
Ну хватит вам
Нету никаких пикселей ни в мозгу, ни в глазу
Какая разница есть они или нет, если в итоге получается та картинка с тем «разрешением» что получается. То что у человеческого глаза есть «разрешение» вполне очевидно просто потому что мы легко замечаем что картинка в самом крутом мониторе ни разу не настоящая и можем быстро обнаружить опасный предмет даже небольшого размера. Скажем, то что делает мозг со зрением пока компу повторить невозможно с той же скоростью. Просто мозг человека был заточен под обработку видео и звуковой информации в огромных объемах с очень быстрым распознаванием опасных и полезных вещей.
Вот именно! А единица измерения «флопс» — это количество операций с плавающей точкой за секунду и у мозга «производительность» — это доли этих флопсов
Ещё раз может ли обычный компьютер обрабатывать изображения так же как человеческий мозг, вот подключили к компу аналоговую камеру, ему нужно объединить 300 кадров с немного разными ракурсами в 24 изображения (цифровых или аналоговых не так важно) таких чтобы человек не заметил никакой разницы между изображением и реальным миром. Обычный комп это сможет? Если нет, как можно утверждать что в практической задаче обработки изображений комп будет быстрее?
Недостаток мозга в том, что гигантская сеть жёстко сконфигурирована на обработку определённых признаков. Нейрон зрительной коры (любой из миллиардов), натренирован распознавать один свой признак, когда вычислительные возможности ЭВМ можно отдать на решение любой задачи. Мозг, если встречает задачу, не отработанную эволюцией, свои мощности не может использовать.

Получается, мощности есть, но они бесполезные в большей части. Часто ли вы прыгаете с ветки на ветку? А перестроится на решение NP-полной задачи об упаковке рюкзака мозг не может.
Зато он может сделать компьютер и программу, который решит NP-полную задачу об упаковке рюкзака. Универсальность компьютера тоже весьма и весьма условная, компьютер может выполнять только сотню-другую элементарных операций, все остальное он может сделать только если программисты напишут соответствующую программу и отладят её.

Часто ли вы прыгаете с ветки на ветку?

Конечно, банальное вождение машины это и есть прыгание с ветки на ветку. И таких задач в нашей жизни на самом деле много.
Я отвечал на тезис, что мозг вычислительно мощнее ЭВМ.
Ваш комментарий не раскрывает, сколько нужно мощности, чтобы сделать программу для решения задачи.
Возможно, ИИ будет писать программы намного быстрее человека.
Это смотря как считать.

А ну-ка посчитайте, сколько флопов уходит на оценку степени угрозы от питчера, который вам засветит мячом в лоб — когда, в ваш ли лоб, который из них и угрожает ли. Входные данные — 25 jpeg-ов в секунду.

Ваше это «поделите-ка число зерён на шахматной доске на число Авогадро» — это попытка описать select avg() join group by в машинных кодах.
Если в глазу так много пиксел, то почему мы читаем не страницами, а по словам?
Мозг и не видит и не запоминает все, что попадает в поле зрения глаз.
Глазам нужно долго сканировать чтобы запомнить всю статическую картинку.
Сколько вы запомните слов если вам дать взглянуть на страницу 1 мс?
Дело в том что, мозг запоминает всё, но не все может обработать. Есть уникумы которые за долю секунды запоминали всё что они увидели. Потом вопрос не запоминания, если ты боишься паука, ты практически мгновенно заметишь появления даже небольшого паука в поле зрения. Мозг объекты находить очень быстро, иначе хищники сожрут раньше чем успеешь их заметить.
>картинку на 300-400 млн. пикселей
Откуда опять такие числа? Обратите внимание, что глаз видит четко только в самом центре поля зрения. К периферии разрешение очень сильно падает. Так что уменьшайте ваше число как минимум на порядок.
На порядок вряд ли, 33 Мегапиксельные экраны уже существуют, но пока о изображении неотличимом от реальности (или сильно приближенном к реальности) никто пока не заявлял и гонка разрешений все ещё продолжается. Вообще, разные исследователи человеческого зрения называют разные цифры, я видел диапазон от 150 до более 1000 Мегапикселей на глаз, так что 300-400 это скорее даже ниже среднего. Естественно с учетом разрешения периферии и т.п.
И что, тот, кто смотрит такой ТВ видит все 33МП одинаково хорошо? Очень сомневаюсь.
Ну, смотрите. Кол-во пикселей снизу можно определить по кол-ву клеток, у нас 5-7 млн. цветных рецепторов и 100-150 монохромных. Другими словами снизу можно определить разрешение картинки около 100-150 МП. Но человеческий глаз более хитрый прибор, так как глаз постоянно колебаться (до 130 раз в секунду), а мозг накладывает полученные картинки от двух глаз, то реальный размер картинки в результате определить сложно, но в среднем ученые говорят о 500-600 МП. Впрочем, встречаются и более скоромные теории — 150 — 180 МП.
Какие учёные? Что именно говорят? Ссылку приведите.

Мозг, кстати, не «накладывает картинки». У него нет необходимости создавать полное и точное изображение. Он сразу обрабатывает входные сырые данные. А то, что вы «мысленным взором» видите полную картинку (на самом деле не видите, почитайте про то, как мозг дорисовывает область слепого пятна) — это лишь отображение модели мира, которую мозг строит и непрерывно обновляет.
Если вы про раздел «How many megapixels equivalent does the eye have?», то он как раз подтверждает мои слова.

В приведённой вами статье автор пишет об угловом разрешении глаза, то есть о минимальном угле при котором мы различаем источники света. А в разделе, где упоминаются мегапиксели, он говорит не о количестве мегапикселей глаза, а об эквивалентной матрице фотоаппарата с таким же разрешением.

Он так и пишет — «megapixels equivalent» («мегапиксельный эквивалент»). Если мощность атомной бомбы измеряется тротиловым эквивалентом, то это не значит, что она содержит тротил.

Посмотрим, что он пишет.
The eye is not a single frame snapshot camera. It is more like a video stream. The eye moves rapidly in small angular amounts and continually updates the image in one's brain to «paint» the detail. (Глаз — это не камера, снимающая один кадр. Это больше похоже на видеопоток. Глаз быстро двигается в небольшом угловом диапазоне и непрерывно обновляет изображение в мозге, чтобы «отобразить» детали.)

Подтверждение слов об отсутствии «кадров/с».

We also have two eyes, and our brains combine the signals to increase the resolution further. We also typically move our eyes around the scene to gather more information. Because of these factors, the eye plus brain assembles a higher resolution image than possible with the number of photoreceptors in the retina. (Также у нас есть два глаза, и мозг объединяет сигналы для увеличения разрешения. Кроме того, мы обычно «обходим» глазами видимую сцену для сбора большего количества информации. Благодаря этим двум факторам глаза плюс мозг собирают изображение большего разрешение, чем это возможно для данного числа рецепторов сетчатки.)

Разрешение — это не обязательно количество пикселей. Это минимальный угол, на котором мы различаем источники света. Получая больше информации, мозг увеличивает способность к такому различению. Под «сборкой изображения» понимается именно внутренняя модель мира. Так как мозг не собирает точное изображение в прямом смысле. Нейроны могза занимаются детектированием различных деталей: вертикальных и горизонтальных штрихов, на высоких уровня — более абстрактных элементов. Кстати, эти принципы были применены при создании ныне модных свёрточных сетей, о которых в последнее время много говорят и которые применяются для распознавания изображений.
How many megapixels equivalent does the eye have?

Какой МП эквивалент глаз имеет

Также у нас есть два глаза, и мозг объединяет сигналы для увеличения разрешения. Кроме того, мы обычно «обходим» глазами видимую сцену для сбора большего количества информации. Благодаря этим двум факторам глаза плюс мозг собирают изображение большего разрешение, чем это возможно для данного числа рецепторов сетчатки.

Да, мозг собирает в ОДНО изображение более высокого разрешения. Там английский языком написано единственное число.

Разрешение — это не обязательно количество пикселей.

Количество пикселей это не количество пикселей? Автор явно говорит о кол-ве пикселей разрешения картинки которую мы видим, но это не кол-во пикселей, а что-то другое. Забавно.

Под «сборкой изображения» понимается именно внутренняя модель мира.

А можно показать где вы нашли в статье упоминания какой-то внутренней модели мира? Это уже ваши интерпретации, речь шла о картинке которую каждый из нас видит постоянно и соответствия снимку фотоапарата с определенной матрицой. Цитату пожалуйста про внутреннею модель приведите, похоже вы просто верите во какую-то внутреннею модель и пытаетесь всех приобщить к своей вере.

А в разделе, где упоминаются мегапиксели, он говорит не о количестве мегапикселей глаза, а об эквивалентной матрице фотоаппарата с таким же разрешением.

Ну, естественно, что у глаза нет никаких пикселей, можно максимум говорить эквиваленте изображения фотоаппарата картинке которую вы видем (обратите внимание так английским языком написано картинка и эквивалент разрешения глаза).

Подтверждение слов об отсутствии «кадров/с».

С чего вы взяли что я говорил про то что мозг обрабатывает изображения дискретно по кадрам в секунду? Я уже замучался объяснять о чем я говорил под кадрами/с.

P.S. Я так понял вам просто хочется выиграть спор любой ценной? Давайте будем считать что вы его выиграли, у меня нет ни желания ни времени убеждать всех людей в инете, которым хочется поспорить. А те кто захочет прочитает оригинал статьи.
Какой МП эквивалент глаз имеет

Ключевое слово — эквивалент.

Да, мозг собирает в ОДНО изображение более высокого разрешения.

Автор выразился образно, так как статья по ссылке научно-популярная, а не научная. Мозг не собирает изображение как матрицу пикселей.

Количество пикселей это не количество пикселей? Автор явно говорит о кол-ве пикселей разрешения картинки которую мы видим, но это не кол-во пикселей, а что-то другое. Забавно.

Разрешение в оптике — это вовсе не количество пикселей. И автор пишет в первых абзацах о разрешении (resolution) именно как о критическом угле. И когда он пишет о мегапикселях, которые мы видим, он пишет о мегапиксельном эквиваленте. Собственно, в название параграфа так и написано: «megapixels equivalent».

А можно показать где вы нашли в статье упоминания какой-то внутренней модели мира? Это уже ваши интерпретации, речь шла о картинке которую каждый из нас видит постоянно и соответствия снимку фотоапарата с определенной матрицой. Цитату пожалуйста про внутреннею модель приведите, похоже вы просто верите во какую-то внутреннею модель и пытаетесь всех приобщить к своей вере.

Автор об этом не пишет, но научные данные говорят о том, что картинка внешнего мира не формируется в мозге в прямом виде, как это происходит в фотоаппарате. В последнем изображение внешнего мира — это пиксельная проекция видимой области на плоскость. Мозг такую картинку не формирует. Да и зачем её формировать? Чтобы потом «рассматривать»? Не проще ли сразу обрабатывать сырые данные? Это как кадры из фантастических фильмов, где показывают мир глазами роботов и на экране у тех какие-то надписи или ещё что-то. Зачем?

То, что вы видите, анализируете — это совсем не то, что вы ощущаете, что приходит к вам на рецепторы. То, есть мы «мысленным взором» видим нечто реконструированное и смоделированное. Вы уверены, что «мысленным взором» вы рассматриваете пиксели? Почему реконструкция обязательно должна быть пиксельной, если мозг уже на первых этапах обработки информации оперирует достаточно абстрактными понятиями? Это было бы просто неэффективно. К тому же, наклоняя голову вы получали бы совсем другую картинку. Вы заметите разницу в изображении текста, когда наклоните голову?

Быть может, мы по-разному понимаем фразу «формирует изображение»? Когда я это слышу, я думаю о понятии из компьютерной графики, когда где-то в памяти располагается матрица с пикселями. Где в мозге формируется такая матрица? Где хранятся пиксели? Уже в первом слое нейронов данные от рецепторов перемешиваются.

Зрительная информация от рецепторов начинает обрабатываться уже в глазу. И тогда же теряется о «пикселях», её составляющих. Уже даже кортикальная проекция является сильно искаженной. В отличной статье «Центральные механизмы зрения» Хьюбела и Визеля (которую настоятельно рекомендую прочитать!) пишут: «Существенно, что достижения в составлении карт кортикальных проекций иногда уводили в сторону от главной проблемы: как мозг анализирует информацию. Получалось так, будто установление представительства [отображения рецепторов на клетки коры] само по себе может быть конечным итогом, а не служит более скромной цели, — как если бы задачей коры было снабжение информацией маленького гномика, который сидит внутри головы и рассматривает образы, возникающие на коре. В ходе этой статьи мы покажем, что по крайней мере в зрении мир представлен в гораздо более искажённом виде; любой маленький гномик, пытающийся собрать по частям информацию с кортикальных проекций, пришёл бы в замешательство».

Там же: «Прежде чем, сигналы светочувствительных элементов — палочек и колбочек — дошли до ганглиозных клеток, они уже преодолели от двух до четырёх синапсов и вовлекли в работу четыре других типа клеток, так что довольно сложных анализ информации уже имел место». Там же: «На данный момент самое главное то, что первичная зрительная кора не является концом зрительного пути. Это только первая ступень, весьма ранняя в смысле степени абстрагирования информации, которую она обрабатывает.» Там же: «На что же тогда становится похожей зрительная картина, когда она проецируется на зрительную кору? … Предположим, что животное фиксирует свой взгляд на некоторой точке и что единственный объект в поле зрения — прямая линия выше и чуть левее той точки, к которой прикован взгляд. … Полученная картина не будет большим сюрпризом: это будет набор регулярно расположенных пятен. … Вообразите удивление и замешательство маленького гномика, если бы он увидел такую версию внешнего мира!»

Заметьте, что пока что речь шла о первичной зрительной коре! То есть, мозг не оперирует «попиксельной картиной мира»! Мы храним в голове и обрабатываем гораздо более абстрактную информацию.

Поэтому если и можно говорить о каких-то пикселях, то только разве что о расположении и количестве рецепторов в сетчатке, но учитывая, что это расположение вообще мало влияет на обработку информации мозгом, что и смысла обсуждать её нет. Количество же палочек — примерно 120 миллионов, но их концентрация сильно меняется в разных областях, плюс есть слепое пятно. Поэтому тут тоже разговор о пикселях в компьютерном смысле малопродуктивен.

Ну, естественно, что у глаза нет никаких пикселей, можно максимум говорить эквиваленте изображения фотоаппарата картинке которую вы видем (обратите внимание так английским языком написано картинка и эквивалент разрешения глаза).

В предыдущем абзаце вы со мной не соглашались и говорили о вере, а в этом соглашаетесь. Мне непонятно.

С чего вы взяли что я говорил про то что мозг обрабатывает изображения дискретно по кадрам в секунду? Я уже замучался объяснять о чем я говорил под кадрами/с.

Ну, ОК. Значит тут у нас консенсус.

Я так понял вам просто хочется выиграть спор любой ценной? Давайте будем считать что вы его выиграли, у меня нет ни желания ни времени убеждать всех людей в инете, которым хочется поспорить. А те кто захочет прочитает оригинал статьи.

У меня есть точка зрения, которую я отстаиваю. Так и работает наука. То есть, да, я хочу выиграть спор (консенсус тоже будет выигрышем). Конечно, не любой ценой. Угрожать вам, чтобы вы согласились, конечно не буду. :)
Вы пытаетесь спорите вообще не о том. Мое основное утверждение — человеческий мозг совершенно нелепо сравнивать с калькулятором, мол раз мозг не умеет миллиард раз в секунду умножать числа, то он слабее калькулятора. Мозг человека даже только в одной области обработки изображений сложная и высокоэффективная система и один современный компьютер вероятно просто не сможет также эффективно работать с распознаванием изображений и видео, даже если придумают соответствующие алгоритмы эммулирующие все возможности человеческого мозга по обработке и распознаванию нет.
Сразу бы так и написали — не было бы спора. :)
150МП — это не оценка снизу. Потому что рецепторы могут быть очень шумными и первые слои нейросети будут тупо усреднять значения соседних. И по времени, кстати, тоже. Так что пространственно-временное разрешение от этого снизится. Так что я не могу принять это как аргумент.
Ответил выше. Увы, этот аргумент работает против вас.
Вам хочется разводить пустые споры ни о чем? Желающие прочитают статью и сделают выводы кто прав, а у меня нет времени на пустые споры в инете.
МНЕНИЕ, чье бы оно ни было, научным фактом не является.
>24 кадра в секунду
Забудьте эту сказку про 24 кадра в секунду. Особенно про то, что мозг внутри обрабатывает изображение дискретными кадрами.
Конечно, нет. Мозг обрабатывает информацию постоянно и обрабатывает информации БОЛЬШЕ чем в случае 24 дискретных кадров в секунду, но сознательно мы можем отличать 24 дискретных кадра в секунду и даже успевать определять при этом основные показанные объекты и их свойства. 24 дискретных кадра в секунду это ограничение мощности мозга снизу.
Дело не в скорости обработки, а в ощущении плавности. Мозг работает совсем не так, как компьютер, поэтому ощущение плавности не обязательно связано с частотой кадров, которые показывают мозгу. Тем более, в реальной жизни ему ни с какими кадрами вообще не приходится иметь дело.

Кстати, в той же Википедии написано: «Минимальная кадровая частота для создания ощущения плавности движения составляет ~12—18 кадров в секунду. Эта цифра установлена экспериментально на заре кинематографа».
А попробуйте выполнить на компе все те операции над изображением (и с тем же разрешением, что у человеческого глаза), что делает мозг постоянно 24 кадра в секунду чтобы мы просто могли видеть и распознавать изображения.

Мозг не обрабатывает изображение с частотой 24 кадра в секунду. Он обрабатывает зрительную информацию непрерывно.

Кстати, очень часто слепые люди резко умнеют так как на самом деле зрение это дикая трата вычислительных ресурсов.

Мохг не тратит «вычислительные ресурсы» потому, что он не вычисляет в том смысле, в котором эта фраза применяется к компьютерам.
Мозг не обрабатывает изображение с частотой 24 кадра в секунду. Он обрабатывает зрительную информацию непрерывно.

Естественно. Но нам известно, что меняя полностью картинки раз в 1/24 секунды, мозг успеет пересчитать данные изображения и осознанно определить основные объекты и их свойства на новой картинке, например, заметить лицо знакомого человека на такой картинке. В реальности, он обрабатывает изменения данных намного чаще чем 24 раза в секунду (как минимум до 130 раз в секунду)

Мохг не тратит «вычислительные ресурсы» потому, что он не вычисляет в том смысле, в котором эта фраза применяется к компьютерам.

Тем не менее, слоны не умнее людей несмотря на более крупный мозг, основной причиной ученые называют слишком большие затраты на управление огромным телом.
Ответил выше про ощущение плавности и про то, что плавности и при 11 кадрах в секунду ощущается.

Ещё раз повторю. Мозг не обрабатывает изображения в том смысле, в котором это понимается в компьютерах. Он не обрабатывает их кадр за кадром, обработка идёт непрерывно.

Слово «изменения» подразумевают, что у нас есть два независимых изменения. Но рецепторы не выдают независимые измерения с какой-то частотой, они реагируют непрерывно. Нервные импульсы — это вовсе не цифровые данные, передаваемые с какой-то скоростью. И мозг не ждёт получения «кадра», чтобы его обработать уложившись в какое-то минимальное время.

Прочитайте какую-нибудь книжку о том, как работает мозг. Хотя бы «Об интеллекте» Хокинса. Мозг действительно очень интересно работает.
Я не уверен, что перемножать все нейроны на все связи корректно, так как человек никогда не использует все нейроны и все связи, так как это равносильно тому что человек каждое мгновение вспоминает всю свою жизнь.
Более интересно это попытаться сравнить мощность мозга, которая требуется просто для обработки информации от органов чувств. Скажем каждый кадр в нашем глазу это несколько сотен мегапикселей. При этом мозг умудряется:
1. Собирать информацию из непрерывного колебания глаз,
2. Совмещать картинки от двух глаз,
3. Без проблем переворачивать итоговую картинку,
4. Без проблем распознавать самые сложные образы

При этом мозг умудряется выполнять все эти операции не менее 24 раз в секунду в фоновом режиме, дополнительно слушая звуки, получать информацию о температуре и прикосновении от всех частей тела.

Если даже примерно прикинуть работу мозга только для того чтобы мы могли видеть окажется что сотни (может быть и тысячи) GHz уходят только на фоновое поддержания одного зрения, без остальных органов чувств и без управления движением тела.
Да не нужно мозгу ничего переворачивать. Мозгу надо только настроиться на правильное сопоставление информации от глаз с информацией от других органов чувств. Если у вас в компьютере какая-то бракованная видеокарта, которая показывает перевёрнутое изображение, то можно просто повернуть монитор, и не будет тратиться никаких вычислительных ресурсов.
Это похоже на специализированные микросхемы для майнинга биткойнов. Подал питание — начался расчёт, сотни гигахешей с секунду.

Аналогично зрительная кора. Есть питание и поступающая информация — она распознаёт, совмещает картинки и т.п., ничего другого не умея делать. Поэтому бессмысленно подсчитывать, сколько ресурсов уходит на зрение, т.к. в краткосрочной перспективе нельзя перенаправить их на другое занятие.
> Так вот, 1 GHz — это 1000000000 герц
Спасибо, друг!

> Из этого следует, что при тактовой частоте 2.10 гигагерца проц выполняет 2100000000 операций в секунду.
Nyet.

> Мозг — это биологическая нейронная сеть.
Спасибо, друг!

> Нейронная сеть состоит из нейронов
Срыв покровов.

> химический… импульс
Ох…

> В конечном итоге автор поста о 1016 операциях в секунду был прав.
Ну нет. Производительность нейронных сетей мозга не высчитывается простым перемножением среднего на число всех нейронов в башке. Всё гораздо сложнее.

Такое лучше на ГТ постить как максиуму.
Афиша.ГикТаймс нашла 1016 химических импульсов, которые взорвут ваш мозг!
Не надо такое и на ГТ. Максимум — в ВК.
Как кажется тут не нужны, какие либо особые вычисления, чтобы ответить вопрос в теме. То что человек делает «не подключая» мозги, мимоходом (ходьба, плавание, вождение машин) роботам до сих пор не под силу.
>«не подключая» мозги
То, что вы не думаете логически в это время, не значит, что ваш мозг бездействует.
Перестал заходить в вк, после того, как увидел пост с тысячами лайков и содержанием типа «люди радуйтесь и загадывайте желания!!! В этом году февраль содержит ровно четыре понедельника, четыре вторника, четыре среды, четыре четверга, ..., четыре воскресенья! В следующий раз такое случится через 738 лет!»
Напомнило старую шуточную теорему о том, что крокодил более длинный, чем зелёный. :)
Скорость и точность решения задач мозгом определяются архитектурой нейронных связей, а не последовательностями отдельных операций. Поэтому вообще говорить о быстродействии мозга некорректно. К нему просто неприменимо такое понятие, как быстродействие, измеряемое флопсами.
Измеряли уже сто раз. Например,6 лет назад на хабре.
Но сегодня более правдоподобна точка зрения в том, что нет никакого смысла в таком сравнении.
Sign up to leave a comment.

Articles