Людей, которые по той либо иной причине потеряли способность говорить довольно много. Современные технологии позволяют частично решить эту проблему при помощи разных инструментов, от обычной клавиатуры до распознавания движения глазного яблока. К сожалению, чем сильнее степень обездвиженности человека, тем ниже его возможность общаться с окружающими.
Идеальным вариантом могло бы быть устройство, которое способно анализировать активность головного мозга и переводить электрические сигналы в речь. Ранний прототип такого устройства уже создан учеными из Калифорнийского университета в Сан-Франциско.
Результаты работы опубликованы учеными в статье для журнала Nature. Авторам идеи действительно удалось создать имплант, который переводит электрические сигналы в речь. Воспроизведение получается не совсем точным, но разобрать слова можно, причем не только участникам эксперимента но и посторонним людям.
Для того, чтобы добиться успеха ученым понадобилось несколько лет кропотливой работы по анализу сигналов мозга и составлению «словаря», который дает возможность переводить эти сигналы в слова. Пока что технология находится в начальной стадии развития, так что использовать ее можно лишь в лаборатории, и лишь для ограниченного числа случаев.
Но в будущем авторы идеи планируют доработать технологию так, чтобы она позволила даже парализованным полностью людям говорить. В настоящий момент такие пациенты закрыты в собственном теле и не могут взаимодействовать с окружающими.
Есть системы, которые позволяют переводить движение глазного яблока в символы на экране. Но для этого нужно, чтобы человек мог управлять мышцами хотя бы частично, плюс требуется специализированная компьютерная система, которая работает медленно — не больше 10 слов в минуту.
Авторы исследования — Эдвард Чанг (Edward Chang) и Джош Шартье (Josh Chartier). В ходе реализации исследования они никому не вживляли в голову электроды. Дело в том, что такие люди уже есть — это пациенты, страдающие от тяжелых форм эпилепсии. Некоторым из них в рамках лечебного курса временно имплантируют электроды.
Исследователи пригласили добровольцев и попросили их произносить слова и целые предложения. Во время произнесения слов ученые записывали электрическую активность мозга. Затем, в ходе анализа результатов команда смогла выделить сигналы, которые отвечают за работу губ, языка, челюсти и гортани во время разговора.
Затем была создана модель виртуального голосового аппарата. Ученым удалось «научить» модель воспроизводить звуки. В результате получилось воспроизвести звуки, которые перед этим произносил доброволец. Примерно 70% воспроизведенных слов были понятны слушателям — и не только участникам эксперимента, но и людям со стороны, как и говорилось выше.
К сожалению, технология вряд ли подойдет тем людям, кто давно лишен возможности говорить или вообще никогда не говорил — для работы модели нужны сигналы мозга, отвечающие за работу речевого аппарата. Если долго не говорить, то мозг «забывает» о речи, и мысли не вызывают активизации тех его участков, которые отвечают за работу гортани, языка или губ.