Позвонить

+7 812 701 03 30


Закажите обратный звонок
пр. Владимирский, 15 ПН-ВС: 9:00 - 21:00
СБ: 10:00 - 19:00
пр. Сизова, 21 ПН-СБ: 9:00 - 21:00
ВС: 10:00 - 19:00
Свяжитесь с нами:

КАК ПРЕВРАТИТЬ МЫСЛИ В УСТНУЮ РЕЧЬ, НЕ ГОВОРЯ? И КАК ДОСТАВИТЬ ИНФОРМАЦИЮ ПРЯМО В МОЗГ?

Нейронные сети считывают сигналы мозга и превращают их в слова. Развитие интерфейсов поможет найти новые пути взаимодействия мозга с внешним миром и его информацией.

  1. Говорить не обязательно, ведь найден способ превратить мысль в устную речь без использования «стандартных» девайсов организма.

Паралич – состояние страшное не подконтрольностью «физиологических функций» несмотря на то, что на уровне центральной нервной системы может быть все в порядке. В последние годы достигнут целый ряд прорывов в реабилитационном лечении пациентов, который позволяет вернуть им полностью или частично некоторые из функций, к примеру способность двигаться. Но решение одной из важнейших проблем — потеря возможности говорить, до сих пор не было найдено. Задумайтесь, сколько психологических и эмоциональных, да и банально бытовых сложностей это вызывает и для парализованного человека и для его окружения.

Хорошая новость — недавно был разработан способ преобразовывать мозговые импульсы в речевые сигналы с помощью искусственного интеллекта. Трудились в этом направлении 3 команды ученых:

  • Профессор Nima Mesgarani (Columbia University, США) и его команда долгие годы трудились, расшифровывая процесс интерпретации человеческим мозгом звуков, которые мы слышим, разбирая динамическое кодирование акустических характеристик в нейронных реакциях на непрерывную речь. Как сообщает Science, используя вычислительные модели на основе нейронных сетей, ученые реконструировали слова и предложения, считывая сигналы головного мозга. Для этого они наблюдали за областями мозга в моменты, когда люди читали вслух, произносили фразы, либо прослушивали записи. «Мы пытаемся разработать схему искусственных нейронов, которые включаются и выключаются в разные моменты времени, воспроизводя звук. То, каким образом эти сигналы переводятся в речь – строго индивидуально для каждого человека, поэтому компьютерные алгоритмы должны уметь «понимать», как это сделать» — поясняют авторы работы. Эксперты опирались на данные 5 человек, страдающих эпилепсией. Сеть анализировала «поведение» слуховой коры (активной и во время речи, и во время прослушивания). Далее компьютер реконструировал речевые данные из импульсов, полученных от этих людей. В результате алгоритм справился с задачей с точностью в 75%.
  • Другая команда ученых, под руководством нейробиологов Miguel Angrik (University of Bremen, Германия) и Christian Herf (Maastricht University, Нидерланды) в своей работе опиралась на данные 6 человек, перенесших операцию по удалению опухоли головного мозга. Микрофон улавливал их голоса, когда они читали вслух отдельные слова, а электроды записывали информацию из речевых центров головного мозга. Сеть сопоставила показания электродов с аудиозаписями. В итоге около 40% данных были распознаны верно.
  • Третья команда из университета UC San Francisco (США) реконструировала целые предложения на основе считанной мозговой активности от 3 пациентов с эпилепсией, которые читали определенные предложения вслух. Некоторые предложения были правильно определены более чем в 80% случаев.

Несмотря на весьма неплохие результаты, система все еще находится на самом раннем этапе и нуждается в дополнительной доработке. Но если все получится, сотни тысяч людей во всем мире вновь могут получить возможность говорить!

Пока ученые трудятся, мы работаем с детьми с различными речевыми нарушениями и задержками речевого развития, в том числе связанными с органическими поражениями центральной-нервной системы. Читайте подробнее в материале логопеда, дефектолога и детского психолога медицинского центра ЭВО ДИАНОВОЙ ЭЛИНЫ ВАЛЕРИАЕВНЫ.

  1. Можно ли передавать информацию напрямую – сразу в мозг?

Профессор Кафедры психиатрии и поведенческих наук Stanford University, автор книг «The Brain: The Story Of You», «The Secret Lives of the Brain», один из основателей NeoSensory – доктор David Eagleman опубликовано в издании Wired любопытный материал.

Все наши чувства и эмоции формируются в головном мозге. Вне зависимости от вида поступающей информации (будь то звуки музыки, запахи или визуальные образы), все они по своей сути — не более чем сигналы, передающиеся и расшифровывающиеся специализированными клетками. При этом, если не принимать во внимание эти сигналы, то мозг напрямую не контактирует с внешней средой. А значит вполне вероятно, что у нас есть возможность сформировать новые пути взаимодействия мозга с окружающим миром и передавать данные ему напрямую.

Если вся информация — это лишь поступающие импульсы, то почему столько отличий в зрении, запахе и вкусе? Почему человек не перепутает визуальную красоту распускающейся розы со вкусом сыра с плесенью? И не прировняет трение салфетки по ладони к запаху утреннего кофе? Можно предположить, что это связано со структурой мозга: области, отвечающие за слух, отличаются от участков, обрабатывающих визуальные данные и т.п. Но возникает следующий вопрос — почему в таком случае люди, потерявшие, зрение, согласно многочисленным исследованиям, получают «переориентацию» зрительной зоны на усиление других чувств?

Исходя из озвученных вопросов возникла гипотеза: внутренний субъективный опыт определяется структурой самих данных. Другими словами, сама информация, поступающая, допустим, от сетчатки, имеет иную структуру, чем данные, исходящие от барабанной перепонки или рецепторов с кончиков пальцев. В результате и получаются разные чувства. Таким образом в теории мы можем сформировать новые пути для передачи информации. Это не будет похоже на зрение, слух, вкус, прикосновение или запах. Это будет что-то совершенно новое.

Осуществить эту идею можно попытаться 2 путями:

  • путем вживления электродов непосредственно в мозг.
  • получением сигналов мозгом неинвазивно. Например, с помощью носимых устройств: вы носите браслет с несколькими вибрационными двигателями, которые стимулируют различные точки вокруг запястья, чтобы сформировать поток данных. Когда мы устанавливаем четкую взаимосвязь между информацией и видом прикосновения, люди смогут легко начать ее распознавать. Именно в этом направлении в настоящее время движется компания NeoSensory, создавая вибрационные нейроинтерфейсы (и обещая представить первый уже в 2019 году).

«Подумайте о том, как младенцы “учатся” пользоваться ушами, хлопая в ладоши или бормоча что-нибудь и улавливая звуки. Такое обучение также можно наблюдать у людей, родившихся глухими и оснащенных кохлеарными имплантами во взрослом возрасте. Во-первых, опыт кохлеарного имплантата совсем не похож на звук. Моя подруга описала это как безболезненные удары электрическим током. Она не чувствовала, что это как-то связано со звуком. Но примерно через месяц все начало «звучать», пусть и паршиво. Возможно, тот же самый процесс произошел с каждым из нас, когда мы учились пользоваться ушами. Мы просто не помним этого» — заявил Дэвид Иглман.

Поверить или нет в интерфейс, способный заменить все наши органы чувств – покажет время. Но вот лишить себя удовольствий созерцания, наслаждения запахами и вкусом и переметнуться на сторону «ноль-единица» не хотелось бы…

Источники: Columbia. Mind. Brain. Behavior/ Nima Mesgarani How do our brains so effortlessly take all the sounds of speech, piece them together into larger units such as syllables, words, and ultimately into sentences and phrases that can be understood?

HiNews / Найден способ превращать мысли в устную речь.

Wired. Neurosience / DAVID EAGLEMAN

HiNews / Можно ли передавать данные напрямую в мозг?

Наверх