Как стать автором
Обновить
8
0
Денис Дратов @Volutar

Пользователь

Отправить сообщение
Ни в оригинале, ни в переводах ничего не сказано про «гладкие» дендриты. Да, механизмы прунинга оптимизируют дендритную сеть, убирая лишнее (не востребованное). Но шипики остаются, и остаётся их много. Так же остаётся действующим механизм пластичности, который когда надо, и где надо — отращивает столько шипиков, сколько надо.
У этой женщины — ложная, корковая слепота. То есть когда сигнал от глаз есть, он спокойно идёт до V1, идёт в V2, и далее, плюс в отдельные области отвечающие за рефлексы, а каких-то в более высоких областях (в той же инулярной коре) сигнал теряется. Не доходит до сознания. За счёт возбуждения этих первичных визуальных областей поддерживаются навыки восприятия (они атрофируется только при отсутствии входящего сигнала). С той самой тётенькой история странная. Было бы хорошо если бы её эти личности по отдельности под fMRI засунули и посмотрели как там у неё ассоциативные цепочки проходят. Но лично я подозреваю что эта история с расщепление может происходить из-за чего-то вроде кластеризации инулярной коры (там где интегрируются все сенсорные чувства в цельную картину). У шизофреников она, кстати, истоньшена.
Это, к сожалению, не имеет отношения к психологии в том смысле, в котором Вы думаете. Если высокоуровневые привычки ещё как-то можно перестроить (и то, с большим скрипом), то чем ниже мы спускаемся к первичным областям, тем труднее их перестроить. В ходе взросления проходит несколько волн синаптического прунинга, в ходе которого удаляются незадействованные (избыточные) локальные связи. Если какой-то низкоуровневый опыт (ощущения) не был получен до этого прунинга, то способность получать и классифицировать этот опыт в дальнейшем будет минимальной.

Если есть элемент _аналогичности_ (как например, в экспериментах с инверсным, перевёрнутым зрением), то эта небольшая перестройка остаётся возможной. Но если новый опыт выходит за рамки имеющихся навыков, то у мозга просто не находится когнитивного базиса, на который этот опыт можно было бы разложить. Можно выучить второй язык, который ляжет в семантические понятия «родного». Но если с детства вербального опыта не было (как у детей-маугли), то и научиться речи будет невозможно. Хоть ты тресни.

То что желание пропадает с возрастом — это другое. Это и лень, и в целом снижение мотивационного фона. И не на пустом месте — с возрастом способность усваивать новое объективно снижается.
Да, слепой при ощупывании запоминает его форму, текстуру, пространственные соотношения, углы и прочий массив кинестетического представления.

Именно потому что запоминается всё в виде объемной фигуры относительно размеров ладоней и пальцев, то и понятия «перспектива», «тень», «ракурс» для него остается не воспринимаемыми даже после прозрения. Потому что просто нет навыков низкоуровневого восприятия подобного. Не образовался классификатор.

Возможно, когда-нибудь и научатся с помощью каких-то веществ или терапий возвращать мозг в стадию обучения первичных областей.
На самом деле eye tracking даст кучу всяких геймплейных фишек, которые совершенно невозможны иным способом. Например, симуляция того же «туннельного зрения» в определённых критических ситуациях. Какие-нибудь «червячки», которые будут ползать по периферии и отвлекать взгляд. Или же наоборот — показывать затенённый центр как при нарушениях в хрусталике или сетчатке бывает (в качестве «реалистичного» индикатора совсем серьезных травм). И это не говоря о скриптовых триггерах, которые будут срабатывать когда на что-то посмотришь. Да тот же depth field, который будет настраиваться на точку фокусировки. Фактически фокус взгляда может стать дополнительным контроллером, который можно круто встраивать в геймплей. В том числе обнаруживать что глаза закрыты (обнаруживать степень открытости), и менять таким способом поведение монстров (напугают, когда откроешь).
Ну наконец-то. Если nvidia этим занялась, то можно ждать что-то потенциально качественное и массовое. Помимо экономии мощностей GPU, при должной проработке это еще сильно сэкономит канал пересылки от GPU к очкам (да пусть хоть и через USB). С частотой в 100гц создается и посылается низкокачественная картинка, с частотой в 50гц создается качественная фовеальная картинка, и посылается в очки. Если происходит саккада, то это провоцирует «ускоренный» перерендеринг фовеальной области. А внутри очков происходит перепроекция, объединение, прекомпенсация дисперсии линзы, блюр и вывод. Если смогут сделать несколько уровней разрешения (мипов), и в сами очки встроят все эти манипуляции, то может получиться очень круто. Экономия будет по всем фронтам. Конечно, фовеальное запаздывание в какой-то степени по-любому будет присутствовать, но ИМХО от этого голова кружиться не будет. Просто будет немного запаздывающее «наведение резкости». Причем запаздывание это можно уменьшить, если уменьшить эту зону, и рендерить фовеальную часть с максимальным приоритетом. А слежение за зрачками помимо этого еще кучу полезностей даст для VR, и не только для VR. Чувствую, что именно за этим направлением может быть будущее.
А почему бы нет, если рассматривать человека как «биоробота», построенного на платформе нанороботов-клеток?
А кто сказал что их нет? Снимки старые, и некачественные, рассмотреть в большом разрешении при всём желании не выйдет (плюс там на снимках наблюдаются артефакты от плохого оборудования). Но и по ним видно, что там имеются области с мозговым веществом, которое распухшими желудочками там «сплюснуто». К сожалению как раз срезов лимбических зон почти и нет. Но очевидно, что без них человек бы не дожил до такого возраста.
Морфология нейронов человека обусловлена генетически. Едва ли стеснённые обстоятельства могли повлиять настолько, что произошло уплотнение и упрощение свыше генетически заданной нормы. Скорее всего несмотря на настолько жуткую аномалию там все не настолько видоизменено (хотя кто-то знает — всякие мутации бывают). Что там на самом деле, на микроуровне, покажет только вскрытие. И очень надеюсь, что мозг данного товарища учёные не проворонят после его кончины.

Кстати, на снимках МРТ из статьи, подписанных как «мозг обычного человека без аномалий», для усиления контраста выбраны такие плоскости, что желудочков этих почти не видно (особенно в боковом снимке).
Конечно, успешное внутриутробное формирование мозга, и первые года жизни (когда он жил с шунтом) задало приличную «подушку безопасности». Если бы кстати не гидроцифалия, то товарищ вполне мог бы оказаться очень умным, т.к. даже с такими препятствиями его мозг умудряется сохранять пласичность, и какую-никакую а приспосабливаемость к взрослой жизни.
Описанный тут случай — 10 летней давности. К сожалению, свежих исследований по этому человеку нет, а было бы любопытно узнать, как он поживает. А то «десять лет учёные ломают голову»… это сидя над этими 4мя снимками что-ли? Для учёных «ломать голову» — это производить постоянные и разносторонние исследования, а их не было.
На снимках лишь несколько срезов МРТ, а не весь объём. Если показали бы весь объём, и посчитали бы конкретный объем серого вещества и белого, это было бы куда показательнее, чем вольнодумные «90% мозга нет» на основании пары срезов.
И серое вещество (толщина коего у здоровых людей ~3мм) и белое, очевидно, явно никуда не делось. Из-за плавности процесса растяжения желудочков происходила нетравматичная деформация. Похоже, что нарушалась только способность к re-wiring, и протягиванию новых аксонов, поэтому развитие коннектома и приостановилось на уровне подростка. Т.е. объем именно белого вещества пострадал намного сильнее, чем серого.

Brain in silico судя по всему, действительно, не обязательно делать идеально точным и настолько же объёмным как и мозг человека, это конечно очевидно. Есть животные с гораздо меньшим мозгом и немного с иной архитектурой, но когнитивность на приличном уровне (у тех же воронов).
Тех, кто поглупее, как раз менее всего имеет смысл предупреждать с целью защиты. Те, кто поглупее нередко на такие предупреждения начинают изыскивать возможность злоупотребить тем, о чём они прежде и не знали. :)
Им просто нужно отгородиться от возможных нападков со стороны этих глупцов (которых они в том числе и спровоцируют). Иные мотивы лично я тут с трудом усматриваю.
Эх… Ну, как бы эта фраза: «нет возможности конкретных прогнозов» — вообще ни о чём. Мозг вообще очень сложная штука, и от внезапной вспышки фотоаппарата может открыться эпилепсия, если к тому была предрасположенность. Ещё не было ни одного кейса, связанного с микрополяризацией, а товарищи заранее себе задницу пытаются прикрыть. Вот так прогресс и зарубается на корню.
Равновесие как раз самое что ни на есть _динамическое_, а не устойчивое, и перебалансирует систему при любой эмоции. Хотя приличная часть людей и без всякой внешней стимуляции имеют дисбаланс и отсутствие равновесия.
Рискованно в данном случае злоупотребление и чрезмерное увлечение (впрочем, это ко всему относится) — может стать сродни наркомании.
Вот как раз в «расширенные рамки эксперимента» подобное произношение «про себя» и обязано будет войти. На что прямым текстом указано, как на одно из перспективных приложений:
По мнению учёных, с помощью продвинутых сканеров мозга, например, пережившие инсульт люди смогут доносить свои мысли и желания до окружающих, даже если их повреждённый мозг не позволяет управлять речевым аппаратом.
Да, вы правы. Я, видимо, вспомнил про нечто из ранних "заметок" (что 60 / 90 / 120 как 30x2 / 30x3 / 30x4, и четверное уплавление тестировалось). И ещё, оказывается, что framerate multiplication, вероятно, подразумевает не рендеринг промежуточных кадров по типу ТВ "уплавнителя", а просто перепроекцию с бóльшей частотой. Sony рассчитывает на нативные 90/120Гц, но в худшем случае будет делать 60x2, и сообщает, что визуально от нативных 120 отличить почти невозможно. Я на себе знаю, что плавности картинки в 60fps более чем достаточно для сильного ощущения присутствия. Вся основная гонка происходит за уменьшение лага (они хвастаются <18ms, но это не похоже на тайминги при хардварном доварпе). Короче — надо дождаться и посмотреть технический обзор.

Ошибаетесь. Небольшие внутриигровые (физические) рывки, при сохранении плавности и минимального лага при шевелении головой, тошноту не вызывают. Они некомфортны и снижают эффект реалистичности, но не более того. И у PlaystationVR такого нет, т.к. используется framerate multiplication, несмотря на 30fps в графическом движке.
Зачем выдумывать про не осознанное ощущение вестибулярным аппаратом? Он тут вообще не причём. Все "тошнотики" — сугубо от моторно-визуального лага. Лаг великолепно можно убрать за счёт хардварного процессинга этой проекционной и доварпной рутины, и за счёт свободной синхронизации кадра.
"Молчащий" вестибулярный аппарат тут просто диссонанс вносит в сенсорную систему, но не создаёт эффекта тошноты.

В Окулусе всё возложено на GPU компа, который в итоге должен регулярно прерываться и делать всю эту рутину, расходуя драгоценное время, которое мог бы потратить на полезный рендеринг.

Техническая инфа
В текущем "синхронном" режиме, который используется в Окулусе:

  1. По USB запрашивается ориентация шлема, шлем отвечает.
  2. Рендеринг текущего кадра прерывается (прерываются все карты).
  3. Предыдущий кадр вытаскивается из копии фронт буфера и происходит его доварп и хроматические/линзовые предкомпенсации.
  4. Рендеринг возобновляется (эти остановки-продолжения не бесплатны).
  5. Кадр посылается по HDMI в шлем.

Шлем:

  1. Принимает кадр по HDMI.
  2. Ждёт синхроимпульса и рисует картинку перед глазами.

Даже если рендеринг будет с безумно огромным FPS, перед глазами кадр возникнет только после того как ПК получит от шлема обновлённые параметры, доварпает копию старого кадра, сделает все манипуляции, перешлёт этот кадр по HDMI, и подождёт vsync. То есть "доварпнутый" кадр в любом случае будет отображаться с лагом, размером в HDMI transfer latency + Vsync wait, что составляет оценочно ~10-15ms.

В случае хардварного процессинга:

  1. Потоком с максимальной частотой по USB в одностороннем порядке (без запросов) из шлема идёт информация об ориентации.
  2. Рендеринг не прерывается. ПК рендерит обычный стереокадр, безо всяких хроматических и линзовых предкомпенсаций.
  3. Кадр посылается по HDMI и сопровождается инфой об ориентации.

Со стороны шлема:

  1. По HDMI принимается кадр с информацией (в "задний" буфер).
  2. В зависимости от тайминга:
    2a. Если тайминг нормальный то: берутся текущие параметры шлема, и производится доварп и предкомпенсации в соответствии с физическими характеристиками линз.
    2b. Если кадр не пришел вовремя — берётся предыдущий буфер, и далее 2a.
    2c. Если скорость слишком большая (выше способности матрицы выводить), то кадр просто запоминается в буфере и 3й шаг пропускается.
  3. Происходит вывод без ожидания vsync. В свободном режиме.


Т.е. даже в худшем случае при хардварном процессинге доварп будет иметь величину лага, измеряемую в считанных единицах миллисекунд (1-2), и зависит только от скорости внутреннего "доварпающего" железа/софта. Больше времени будет уходить на определение ориентации головы, но это уже другой вопрос.

В идеале, конечно, лучше считать тайминги этих принимаемых кадров, и выводить "вычисленную" промежуточную картинку (как это делается в Playstation VR), тогда плавность будет отличной (как минус — небольшие артефакты).

Внутриигровой лаг типа "клик->выстрел" воспринимается гораздо, на порядок легче, чем моторно-визуальный. Так что в Sony всё правильно делают, в отличие от Vive/Oculus.

Думаю, хватит спорить без возможности проверить — выйдут все эти девайсы, будут и обзоры и объективно/субъективные сравнения.
Да нет же, не нужны 90fps. Нужен минимальный лаг. Почему-то считается, что чем больше fps, тем меньше лаг, но это заблуждение. ПК может выдавать плавные 120fps бурстом с задержкой в 50мс (рисование, vsync, hdmi), и это будет из рук вон плохо для гейминга (будет так называемый render ahead lag). Геймерам нужна реакция, а не fps. В идеале, для геймеров необходимо чтобы вместе "кликом" сразу начался рендеринг кадра, и сразу же вывод на экран. Без ожидания очередного V-sync'а. Именно поэтому для геймеров freesync/g-sync предпочтительнее и важнее чем большой fps. Именно поэтому чем больше детализация кадра, тем дольше он будет пересылаться в шлем (это помимо скорости рендеринга).

Ключевое слово — отзывчивость. Именно из-за плохой отзывчивости при резких движениях возникает ощущение укачивания (точнее, создаётся ощущение "пьяности" — т.к. эффект воздействия на восприятие аналогичный). И хардварный доварп (вместе с хардварными линзовыми и хромическими предкомпенсациями) очень сильно этому поможет. А технология вроде freesync/gsync (только для шлема) сможет ещё больше минимизировать эти задержки.

Насчёт дорисовки кадров. Штука в том, что дорисовка кадров ещё больше увеличивает "игровой лаг", т.к. для просчёта промежуточных нужно, чтобы следующий уже был сделан (т.е., при приставочном рендере в 30fps, это дополнительные ~50мс). При доварпе это будет не так заметно в плане "тошнотиков", но реакция на действие будет с задержкой. Возможно, в Sony провели тесты того и другого варианта, и поняли, что с учётом наличия хардварного доварпа плавность оказалась важнее больших "игровых" лагов.

А скажите — действительно ли нужны эти честные 90fps? На глаз 75 от 90 уже не отличишь. И 60 — уже достаточно. Вся игровая индустрия ориентируется на 60fps (ТВ/монитор). Эти пресловутые 90-120fps если и нужны, то только из-за минимального лага. А лаг явно не сократится, если доварп делать в ПК. Доварп и нелинейное искажение (с учётом формы/модели/параметров линз) должны производиться в самом шлеме. И в идеале это должно выполняться параллельно, без прерывания rendering pipeline и создания пауз. Чтобы можно было швырять картинку в шлем с максимально возможной скоростью, сопровождая векторной информацией (чтобы сделать возможным прогнозирование поворотов — пространственная инфа из шлема в ПК не обязательно должна использоваться 1 в 1). Не будет необходимости в сложных многопоточных API типа DX12/Vulcan — даже слабое железо потянет. Не нужно движку знать о том какие сейчас линзы вставлены, какое фокусное расстояние (чтобы регулировать подушкообразность).

Кроме того, fps можно делать не фиксированным, и презентацию делать с минимальной задержкой после получения нового кадра, чтобы доварп был "косметическим", и даже почти не нужным. Если движок и видюха смогут обеспечивать честные 90fps — отлично. А не смогут — это не будет трагедией. Ну а в Окулусе это пока трагедия. Ну, может через итерацию додумаются, у Фейсбука денег много.

Информация

В рейтинге
Не участвует
Откуда
Нижневартовск, Тюменская обл. и Ханты-Мансийский АО, Россия
Дата рождения
Зарегистрирован
Активность