Comments 24
Как страшно жить. Сначала детектор лжи, потом Альтер Эго.
Вспомнил цирковой фокус.
Человек с завязанными глазами сидит на сцене, а помощник в зале с помощью кодовых слов рассказывает о зрителе. Типа передает мысли на расстоянии.
Принцип похожий, только технологии 21 века. Однако к чтению мыслей никакого отношения не имеет.
Человек с завязанными глазами сидит на сцене, а помощник в зале с помощью кодовых слов рассказывает о зрителе. Типа передает мысли на расстоянии.
Принцип похожий, только технологии 21 века. Однако к чтению мыслей никакого отношения не имеет.
Наверное, лучше так www.litmir.me/br/?b=189052&p=1
переходя из одной локации в другуюВот он, секрет! Если бы он переходил с одного места на другое — не сработало бы.
Смахивает не петриковщину.
Если сменить название статьи на что-то вроде «Некоторые успехи студенческих исследований в области субвокального распознавания», то будет куда понятнее.
Кстати основная проблема субвокального распознавания в том, что считываемые признаки могут отличаться от индивида к индивиду. Интересно, как с этим вопросом у сабжа. В самой статье я не заметил упоминаний, что прибор использует кто-то кроме автора.
Кстати основная проблема субвокального распознавания в том, что считываемые признаки могут отличаться от индивида к индивиду. Интересно, как с этим вопросом у сабжа. В самой статье я не заметил упоминаний, что прибор использует кто-то кроме автора.
Судя по описанию прибора он работает и настроен/обучен исключительно на него.
Это, конечно, сильно усложнит процесс распространения, если такой крутой девайс еще надо будет несколько недель просто обучать после покупки.
Но то, что он научился (хоть и с оговорками) выполнять только те операции, о которых он целенаправлено думает, это просто круто. Уже это одно можно считать прорывом.
Это как «слепая печать кода силой мысли». И многие программисты позабудут о страхе артрита в старшем возрасте (или потере руки, пальцев), и смогут даже еще в меньшей степени зависеть от рук. Просто огромное поле применений можно нафантазировать по мере развития этой технологии. А пока все сыро, да.
Это, конечно, сильно усложнит процесс распространения, если такой крутой девайс еще надо будет несколько недель просто обучать после покупки.
Но то, что он научился (хоть и с оговорками) выполнять только те операции, о которых он целенаправлено думает, это просто круто. Уже это одно можно считать прорывом.
Это как «слепая печать кода силой мысли». И многие программисты позабудут о страхе артрита в старшем возрасте (или потере руки, пальцев), и смогут даже еще в меньшей степени зависеть от рук. Просто огромное поле применений можно нафантазировать по мере развития этой технологии. А пока все сыро, да.
Вы в курсе, что нейроинтерфейсы на рынке уже добрых десять лет?
Уж сотню слов распознать могут даже простые неинвазивные датчики.
Пожалуй их отличии от сабжа только в том, что они на голову надеваются и выглядят массивнее имея больше точек контакта.
Уж сотню слов распознать могут даже простые неинвазивные датчики.
Пожалуй их отличии от сабжа только в том, что они на голову надеваются и выглядят массивнее имея больше точек контакта.
В самую точку. Но у текущих решений настолько сложный способ считывания (и интерпретации) данных, что Дарпа финансирует исследование различных способов альтернативного их извлечения. И большинство из них включают инвазивное вживнение роботов или имплантов.
А тут сильно упрощенный метод. Который хоть и не позволит творить уж совсем грандиозные вещи, но более приземленные имеет все шансы.
А тут сильно упрощенный метод. Который хоть и не позволит творить уж совсем грандиозные вещи, но более приземленные имеет все шансы.
У меня был нейроинтерфейс года 4 назад, ну вообще про распознавание слов там и не пахло, я долго учился делать два мысленных движения, которые он бы распознавал, типа «да» и «нет», не очень пошло, потом плюнул и сфокусировался на одном — в итоге играл в шутер (Far Cry 3), стреляя мозгом, было круто. Но научиться делать два отличающихся внутренних движения так и не смог, все время делал первое место второго.
Не знаю насколько дорого или нет, но вот Стивенг Хокинг ещё в 1997 начал общаться через речевой интерфейс. Кстати, статья на Хабре — habr.com/post/364049
Как по мне, так это гораздо быстрый способ научить девайс типа AlterEgo реагировать на свои мысли (естественно, не озвучивая их для окружающих), благо распознование речи уже на высоком уровне.
Как по мне, так это гораздо быстрый способ научить девайс типа AlterEgo реагировать на свои мысли (естественно, не озвучивая их для окружающих), благо распознование речи уже на высоком уровне.
Нейроинтерфейсы уже давно на рынке. В том числе и в России. И они могут гораздо больше, чем да/нет. Цена вопроса — пара сотен вечнозеленых…
Мне кажется, вы несколько идеализируете ситуацию. Я какое-то время назад решил купить себе, долго выбирал, купил вот такой www.emotiv.com/product-category/mobile-eeg-headsets (который дороже, только по-моему другая модель была). Могут они много чего, но учиться все равно вам — да\нет надо еще научиться делать, и это ни разу не просто. Я выше уже писал, максимум, что смог научиться — делать одно внутреннее движение, чтобы в стрелялках мозгом стрелять, а два раздельных — не очень получилось. Пара друзей тоже поигралось — не смогли. Не уверен, что более дешевая модель (которая как раз за 300) имеет лучшее разрешение.
Sign up to leave a comment.
AlterEgo: девайс, который умеет читать (некоторые) мысли