Jak mózg rozszyfrowuje mowę w hałaśliwym pomieszczeniu?

Jak mózg rozszyfrowuje mowę w hałaśliwym pomieszczeniu?

streszczenie: Naukowcy odkryli, że mózg inaczej dekoduje mowę w hałaśliwym otoczeniu, w zależności od głośności mowy i naszego skupienia się na niej.

Ich badanie, w którym wykorzystano nagrania neuronowe i modele komputerowe, pokazuje, że kiedy starasz się nadążyć za rozmową pośród głośniejszych dźwięków, nasz mózg wyraźnie koduje informacje dźwiękowe, gdy dźwięk jest łatwo słyszalny. Może to mieć kluczowe znaczenie w ulepszaniu aparatów słuchowych, które izolują obecną mowę.

Badania te mogą doprowadzić do znacznych ulepszeń systemów dekodowania uwagi słuchowej, zwłaszcza w przypadku aparatów słuchowych kontrolowanych przez mózg.

Kluczowe fakty:

  1. Badanie wykazało, że nasz mózg inaczej koduje informacje dźwiękowe w hałaśliwych sytuacjach, w zależności od głośności mowy, na której się koncentrujemy i poziomu uwagi.
  2. Naukowcy wykorzystali nagrania neuronowe do wygenerowania predykcyjnych modeli aktywności mózgu, pokazując, że „przejrzane” i „ukryte” informacje dźwiękowe są kodowane oddzielnie w naszym mózgu.
  3. To odkrycie może doprowadzić do znacznych postępów w technologii aparatów słuchowych, w szczególności w ulepszeniu systemów dekodowania uwagi słuchowej dla aparatów słuchowych sterowanych mózgiem.

źródło: Plus

Badacze pod kierownictwem dr.

Opublikowano 6 czerwca w Open Access Journal Biologia PLUSW badaniu wykorzystano kombinację nagrań neuronowych i modelowania komputerowego, aby pokazać, że kiedy podążamy za mową zagłuszoną przez głośniejsze dźwięki, informacja głosowa jest kodowana inaczej niż w odwrotnej sytuacji.

Odkrycia mogą pomóc w ulepszeniu aparatów słuchowych, które działają poprzez izolowanie aktualnej mowy.

Koncentracja na mowie w zatłoczonym pomieszczeniu może być trudna, zwłaszcza gdy inne dźwięki są głośniejsze. Jednak wzmocnienie wszystkich dźwięków w równym stopniu nie poprawia zdolności izolowania tych trudnych do usłyszenia dźwięków, a aparaty słuchowe, które próbują jedynie wzmocnić kontrolowaną mowę, są nadal zbyt niedokładne, aby można je było zastosować w praktyce.

Źródło: Wiadomości z neuronauki

Aby lepiej zrozumieć, w jaki sposób przetwarzana jest mowa w takich sytuacjach, naukowcy z Columbia University zarejestrowali aktywność neuronów z elektrod wszczepionych w mózgi osób z padaczką podczas operacji mózgu. Pacjentów poproszono o zwrócenie uwagi na jeden głos, który był czasem głośniejszy od drugiego („podpiski”), a czasem cichszy („przebrany”).

Naukowcy wykorzystali nagrania neuronowe do wygenerowania predykcyjnych modeli aktywności mózgu. Modele pokazały, że informacje fonologiczne dotyczące „jasnej” mowy były kodowane zarówno w pierwotnej, jak i wtórnej korze słuchowej mózgu, a związane z tym kodowanie mowy zostało wzmocnione w wtórnej korze nowej.

W przeciwieństwie do tego informacje dźwiękowe „ukrytej” mowy były kodowane tylko wtedy, gdy były to dźwięk wizualny. Wreszcie, kodowanie mowy nastąpiło później w przypadku mowy „zamaskowanej” niż w przypadku mowy „pochlebnej”. Ponieważ „przejrzane” i „ukryte” informacje dźwiękowe wydają się być kodowane oddzielnie, skupienie się na dekodowaniu tylko „ukrytej” części mowy, która im towarzyszy, może doprowadzić do ulepszonych systemów dekodowania uwagi słuchowej dla aparatów słuchowych sterowanych mózgiem.

Vinay Raghavan, główny autor badania, mówi: „Kiedy słuchasz kogoś w hałaśliwym miejscu, twój mózg odzyskuje to, co przegapił, gdy hałas w tle był zbyt głośny. Twój mózg może również wychwycić części mowy, na których się nie koncentrujesz” włączone, ale tylko wtedy, gdy osoba, której słuchasz, jest w porównaniu z nią cicha”.

O tym badaniu Auditory Neuroscience News

autor: Nima Masgarani
źródło: Plus
Komunikacja: Grace Masgarani – Plus
zdjęcie: Zdjęcie przypisane do Neuroscience News

Oryginalne wyszukiwanie: otwarty dostęp.
Wyróżniające się kodowanie neuronowe zapewniające błyskotliwą i przekonującą mowę w sytuacjach z wieloma rozmówcamiNapisane przez Nimę Masgaraniego i in. Biologia PLUS


podsumowanie

Wyróżniające się kodowanie neuronowe zapewniające błyskotliwą i przekonującą mowę w sytuacjach z wieloma rozmówcami

Ludzie mogą z łatwością słuchać pojedynczego mówcy w środowisku składającym się z wielu postaci i nadal wychwytywać fragmenty mowy w tle; Nie jest jednak jasne, w jaki sposób postrzegamy mowę perswazyjną iw jakim stopniu przetwarzana jest mowa nieukierunkowana.

Niektóre modele sugerują, że postrzeganie można osiągnąć za pomocą podglądów, które są widmowymi obszarami czasu, w których mówca ma więcej energii niż tło. Inne modele wymagają jednak przywrócenia zamaskowanych obszarów.

Aby wyjaśnić ten problem, rejestrowaliśmy bezpośrednio z pierwotnej i nie-pierwotnej kory słuchowej (AC) u pacjentów neurochirurgicznych, jednocześnie zajmując się pojedynczym mówcą w mowie wielogłośnikowej i wyszkolonymi modelami funkcji odpowiedzi czasowej, aby przewidzieć aktywność nerwową o wysokim gamma na podstawie jasnych i maskujących cech bodźca .

Odkryliśmy, że jasna mowa jest kodowana na poziomie cech wokalnych mówców docelowych i niedocelowych, z ulepszonym kodowaniem mowy docelowej w AC niezwiązanym z rdzeniem. W przeciwieństwie do tego stwierdzono, że tylko zamaskowane cechy wokalne zostały zakodowane w celu, z dłuższym czasem reakcji i wyraźną organizacją anatomiczną w porównaniu z tępymi cechami wokalnymi.

Odkrycia te wskazują na oddzielne mechanizmy kodowania mowy bez znaków i ukrytego oraz dostarczają neuronowych dowodów na model percepcji mowy przypominający sygnał.

READ  Historyczna misja testowa Starlinera, żagiel słoneczny, standardowy lot helikopterem na Marsa

Phoebe Newman

"Podróżujący ninja. Rozrabiaka. Badacz bekonów. Ekspert od ekstremalnych alkoholi. Obrońca zombie."

Rekomendowane artykuły

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *