Ученые научились читать воспоминания, наблюдая за человеческим мозгом

Материал из Викиновостей, свободного источника новостей

12 марта 2010 года

Ученые разработали технологию сканирования активности головного мозга людей, с помощью которой можно различать сложные мысли и даже "читать воспоминания", сообщается в статье, опубликованной в журнале Current Biology. Авторы исследования, группа ученых во главе с Элеанор Магвайр из Университетского колледжа Лондона, - признанные мировые лидеры в области распознавания образов мыслей человека с помощью метода магнитно-резонансной томографии, отмечает РИА "Новости".

В прошлом году команда ученых показала, что этот метод сканирования мозговой активности, основанный на детектировании усиления кровотока через работающие в данный момент времени ткани головного мозга, позволяет с большой вероятностью выявить, о каком месте, в котором человек побывал раньше, он думает в момент исследования.

В новой работе ученые продемонстрировали улучшенный алгоритм этого метода, благодаря которому впервые появилась возможность распознать образы так называемой "эпизодной памяти", хранящей в голове комплексные воспоминания, состоящие из данных о месте, времени, лицах и действиях, которые эти лица выполняют.

В ходе исследования десяти добровольцам было предложено для просмотра три фильма, длительностью по семь секунд каждый. В короткометражках изображался человек, совершающий простое действие: например, роль одной из актрис состояла в том, чтобы, порывшись в сумочке, бросить письмо в почтовый ящик.

По ходу того, как добровольцы смотрели кино, их мозговая активность сканировалась и анализировалась. Авторы исследования особенное внимание обратили на гиппокамп - область мозга, отвечающую за ориентацию в пространстве, память и процесс обучения.

После этого добровольцев просили вспомнить и "проиграть" в памяти каждый из увиденных эпизодов, в ходе чего их мозговая активность проходила повторный анализ. Для этого сканируемый объем мозга с помощью программного обеспечения разбивался на фрагменты по 10 тысяч нейронов каждый, и затем активность каждого такого фрагмента объединялась в массив данных.

Анализ этих данных позволил компьютерному алгоритму с 50% вероятностью распознать, о каком из видеороликов в настоящий момент думает тот или иной доброволец, что существенно выше, чем шансы просто этот ролик угадать.

Авторы исследования надеются, что их работа может быть использована для изучения того, где и как мозг хранит воспоминания, а также как повреждения головного мозга, его старение или неврологические расстройства сказываются на работе памяти. "Теперь, зная, где хранятся эпизодные воспоминания, мы можем понять, как они изменяются со временем", - сказала Магвайр.

Ранее американские специалисты из Университета Карнеги-Меллон разработали методику, с помощью которой могли угадывать простые мысли: о каком предмете в данный момент думает человек. Ученые доказали, что если человек задумывает разные слова, то "включаются" различные участки его мозга - что и отражается на томограмме.

Технология распознавания мыслей может в будущем привести к развитию управляемых мозгом компьютеров и аппаратов. Эту же технологию можно будет использовать в сфере безопасности, заранее выявляя преступников и террористов, полагают некоторые.

Источники[править]

Creative Commons
Creative Commons
Эта статья содержит материалы из статьи «Ученые научились читать воспоминания, наблюдая за человеческим мозгом», опубликованной NEWSru.com и распространяющейся на условиях лицензии Creative Commons Attribution 4.0 (CC BY 4.0) — при использовании необходимо указать автора, оригинальный источник со ссылкой и лицензию.
Эта статья загружена автоматически ботом NewsBots в архив и ещё не проверялась редакторами Викиновостей.
Любой участник может оформить статью: добавить иллюстрации, викифицировать, заполнить шаблоны и добавить категории.
Любой редактор может снять этот шаблон после оформления и проверки.

Комментарии[править]

Викиновости и Wikimedia Foundation не несут ответственности за любые материалы и точки зрения, находящиеся на странице и в разделе комментариев.