Исследователи считают, что мозг обрабатывает зрительные данные и звуки одним и тем же образом
Нейрофизиологи Медицинского университета Джорджтауна обнаружили, что человеческий мозг учится понимать такие стимулы, как зрительные категории и звуки, одинаково.
Исследователи утверждают, что при двухэтапном процессе нейроны в одной области мозга учатся представлению стимулов, а другая область классифицирует этот вклад так, чтобы приписать ему смысл. Точно так же, как ребенок, который узнает новое слово, сначала изучает новый звук, а затем, на втором этапе, учится понимать разные его версии (акценты, произношения).
«Вычислительное преимущество этой схемы заключается в том, что она позволяет мозгу легко опираться на предыдущий контент, чтобы выучить новую информацию», – говорит старший научный сотрудник исследования Максимилиан Рисенхубер, профессор кафедры неврологии Джорджтаунского медицинского университета.
Данное исследование, опубликованное в Neuron, впервые дало убедительные доказательства того, что зрительное и звуковое обучение преследуют аналогичные принципы.
В 2007 году ученые впервые описали двухэтапную модель обучения человека визуальным категориям, новое исследование показывает, что мозг, по-видимому, использует такие же механизмы в сенсорных модальностях.
«В исследовании мы использовали четыре разных метода, в частности, fMRI-RA и MVPA, что позволило получить веские данные даже на основе небольшого образца», – говорит соавтор Сюн Цзян.
Обработка звука требует распознавания акустики и изменения настроек на уровне слуховой коры, данный процесс, по мнению исследователей, характерный для людей и животных. Использование кликов обезьян вместо человеческой речи заставляло участников классифицировать звуки исключительно на основе акустики, а не смысла.
«На эволюционном уровне люди и животные должны понимать, кто друг, а кто враг, зрение и звук неотъемлемы от этих суждений», – говорит Ризенхаубер.
Результаты проделанной работы могут помочь ученым разработать новые подходы к восстановлению сенсорного дефицита, о чем говорит один из соавторов П. Раушкекер.
Исследователи утверждают, что при двухэтапном процессе нейроны в одной области мозга учатся представлению стимулов, а другая область классифицирует этот вклад так, чтобы приписать ему смысл. Точно так же, как ребенок, который узнает новое слово, сначала изучает новый звук, а затем, на втором этапе, учится понимать разные его версии (акценты, произношения).
«Вычислительное преимущество этой схемы заключается в том, что она позволяет мозгу легко опираться на предыдущий контент, чтобы выучить новую информацию», – говорит старший научный сотрудник исследования Максимилиан Рисенхубер, профессор кафедры неврологии Джорджтаунского медицинского университета.
Данное исследование, опубликованное в Neuron, впервые дало убедительные доказательства того, что зрительное и звуковое обучение преследуют аналогичные принципы.
В 2007 году ученые впервые описали двухэтапную модель обучения человека визуальным категориям, новое исследование показывает, что мозг, по-видимому, использует такие же механизмы в сенсорных модальностях.
«В исследовании мы использовали четыре разных метода, в частности, fMRI-RA и MVPA, что позволило получить веские данные даже на основе небольшого образца», – говорит соавтор Сюн Цзян.
Обработка звука требует распознавания акустики и изменения настроек на уровне слуховой коры, данный процесс, по мнению исследователей, характерный для людей и животных. Использование кликов обезьян вместо человеческой речи заставляло участников классифицировать звуки исключительно на основе акустики, а не смысла.
«На эволюционном уровне люди и животные должны понимать, кто друг, а кто враг, зрение и звук неотъемлемы от этих суждений», – говорит Ризенхаубер.
Результаты проделанной работы могут помочь ученым разработать новые подходы к восстановлению сенсорного дефицита, о чем говорит один из соавторов П. Раушкекер.