streszczenie: Nowe badanie pokazuje, jak nasz mózg odróżnia muzykę od mowy na podstawie prostych parametrów akustycznych. Naukowcy odkryli, że wolniejsze, stabilne dźwięki były postrzegane jako muzyka, podczas gdy szybsze, nieregularne dźwięki były postrzegane jako mowa.
Pomysły te mogłyby ulepszyć programy leczenia zaburzeń językowych, takich jak afazja. Badanie pozwala na głębsze zrozumienie przetwarzania słuchowego.
Kluczowe fakty:
- Proste parametry: Mózg wykorzystuje podstawowe parametry akustyczne, aby odróżnić muzykę od mowy.
- Potencjał terapeutyczny:Odkrycia mogą ulepszyć metody leczenia zaburzeń językowych, takich jak afazja.
- Wyszukaj szczegóły: W badaniu wzięło udział ponad 300 uczestników słuchających syntezowanych klipów audio.
źródło: Uniwersytet w Nowym Jorku
Muzyka i mowa to najczęstsze rodzaje dźwięków, które słyszymy. Ale jak rozpoznać, co naszym zdaniem jest różnicą między nimi?
Międzynarodowy zespół naukowców zmapował ten proces za pomocą serii eksperymentów, co doprowadziło do spostrzeżeń, które oferują potencjalny sposób na ulepszenie programów terapeutycznych wykorzystujących muzykę do przywracania mowy w leczeniu afazji.
To zaburzenie językowe dotyka każdego roku więcej niż jednego na 300 Amerykanów, w tym Wendy Williams i Bruce’a Willisa.
„Chociaż muzyka i mowa różnią się pod wieloma względami, od wysokości dźwięku po barwę i strukturę dźwięku, nasze wyniki pokazują, że układ słuchowy wykorzystuje uderzająco proste parametry akustyczne, aby odróżnić muzykę od mowy”. Wydziału Psychologii i główny autor artykułu ukazującego się w czasopiśmie Biologia PLoS.
„Ogólnie rzecz biorąc, wolniejsze, ciągłe sylaby zawierające tylko szum brzmią bardziej jak muzyka, podczas gdy szybsze, bardziej nieregularne sylaby brzmią bardziej jak mowa”.
Naukowcy mierzą szybkość sygnałów w precyzyjnych jednostkach miary: hercach (Hz). Wyższa liczba Hz oznacza większą liczbę powtórzeń (lub cykli) na sekundę niż niższa liczba. Na przykład ludzie zazwyczaj chodzą z szybkością 1,5–2 kroków na sekundę, tj. 1,5–2 Hz.
Piosenka Steviego Wondera „Superstition” z 1972 r. ma tempo około 1,6 Hz, podczas gdy piosenka Anny Kariny „Roller Girl” z 1967 r. ma tempo 2 Hz. Natomiast mowa jest zazwyczaj dwa do trzech razy szybsza niż mowa przy częstotliwości 4-5 Hz.
Dobrze udokumentowano, że głośność utworu w czasie – nazywana „modulacją amplitudy” – pozostaje względnie stała i wynosi 1–2 Hz. Natomiast modulacja amplitudy mowy wynosi zazwyczaj 4–5 Hz, co oznacza, że jej głośność często się zmienia.
Chociaż muzyka i mowa są wszechobecne, badaczom wcześniej brakowało jasnej wiedzy na temat automatycznego rozpoznawania dźwięku jako muzyki lub mowy.
Aby lepiej zrozumieć ten proces w swoim życiu Biologia PLoS W badaniu Zhang i jego współpracownicy przeprowadzili serię czterech eksperymentów, podczas których ponad 300 uczestników słuchało serii klipów audio zawierających syntetyzowaną muzykę i szum podobny do mowy o różnych prędkościach i regularnościach modulacji amplitudy.
Klipy szumów audio umożliwiają jedynie wykrywanie głośności i prędkości. Uczestnicy zostali poproszeni o ocenę, czy te dwuznaczne klipy dźwiękowe, o których powiedziano im, że to muzyka lub mowa zamaskowana przez hałas, brzmią jak muzyka lub mowa.
Obserwacja sposobu, w jaki uczestnicy sortowali setki klipów dźwiękowych na muzykę lub mowę, ujawniła, w jakim stopniu każda cecha szybkości i/lub regularności wpływała na ich ocenę między muzyką a mową. To słuchowa wersja „widzenia twarzy w chmurze” – podsumowują naukowcy: jeśli pewna cecha fali dźwiękowej odpowiada wyobrażeniu słuchacza o tym, jak powinna brzmieć muzyka lub mowa, wówczas nawet klip z białym szumem może brzmieć jak muzyka lub przemówienie.
Wyniki pokazały, że nasz układ słuchowy wykorzystuje zaskakująco proste i podstawowe parametry akustyczne do rozróżniania muzyki i mowy: w przypadku uczestników sylaby są wolniejsze (
Naukowcy zauważają, że wiedza o tym, jak ludzki mózg odróżnia muzykę od mowy, może przynieść korzyści osobom z zaburzeniami słuchu lub języka, takimi jak afazja.
Na przykład terapia intonacją melodyczną jest obiecującą metodą uczenia osób z afazją śpiewania tego, co chcą powiedzieć, przy użyciu nienaruszonej „mechaniki muzycznej” w celu pokonania uszkodzonych mechanizmów mowy. Dlatego wiedza o tym, co sprawia, że muzyka i mowa w mózgu są podobne lub różne, może pomóc w opracowaniu skuteczniejszych programów rehabilitacji.
Innymi autorami tego artykułu są Xiangbin Teng z Chińskiego Uniwersytetu w Hongkongu, M. Florencia Asaño z Narodowego Uniwersytetu Autonomicznego Meksyku (UNAM) i David Poppel, profesor na Wydziale Psychologii Uniwersytetu Nowojorskiego i dyrektor zarządzający Instytutu Neuronauki Ernsta Strungmanna we Frankfurcie w Niemczech.
Finansowanie: Badania były finansowane z grantu przyznanego przez Narodowy Instytut Głuchoty i Innych Zaburzeń Komunikacyjnych, będący częścią Narodowego Instytutu Zdrowia (F32DC018205), oraz fundację Leon Levy Endowment in Neuroscience.
Informacje o badaniach z zakresu neuronauki słuchowej
autor: Jamesa Devitta
źródło: Uniwersytet w Nowym Jorku
Komunikacja: James Devitt – Uniwersytet Nowojorski
zdjęcie: Zdjęcie przypisane Neuroscience News
Oryginalne wyszukiwanie: Otwarty dostęp.
„Ludzki układ słuchowy wykorzystuje modulację amplitudy w celu odróżnienia muzyki od mowy„Przez Andrew Chang i in. Biologia PLoS
podsumowanie
Ludzki układ słuchowy wykorzystuje modulację amplitudy w celu odróżnienia muzyki od mowy
Muzyka i mowa to złożone i odrębne sygnały słuchowe, które leżą u podstaw ludzkiego doświadczenia. Mechanizmy leżące u podstaw każdej domeny są szeroko badane.
Jaki jednak mechanizm poznawczy przekształca dźwięk w muzykę lub mowę i w jaki sposób? Podstawowy Informacje akustyczne wymagane do rozróżnienia między nimi pozostają kwestią otwartą.
Tutaj postawiliśmy hipotezę, że modulacja amplitudy (AM), podstawowa czasowa cecha akustyczna, która kieruje układem słuchowym na różnych poziomach przetwarzania, ma kluczowe znaczenie dla rozróżnienia muzyki od mowy.
W szczególności, w przeciwieństwie do modeli wykorzystujących naturalne sygnały akustyczne (które mogą być trudne do zinterpretowania), zastosowaliśmy podejście polegające na ekranowaniu hałasu, aby rozwikłać mechanizm słuchowy: jeśli częstotliwość i regularność AM są niezbędne do percepcyjnego odróżnienia muzyki od mowy, wówczas ocenianie hałasu sztucznie Zsyntetyzowane niejednoznaczne sygnały audio muszą być dopasowane do ich parametrów AM.
w 4 eksperymentach (N = 335), sygnały o wyższej szczytowej częstotliwości AM były zwykle oceniane jako mowa, a mniej jako muzyka. Co ciekawe, zasada ta jest konsekwentnie stosowana przez wszystkich słuchaczy do oceny mowy, ale tylko przez słuchaczy muzyki wyrafinowanych muzycznie.
Ponadto sygnały z bardziej regularnym AM są oceniane jako muzyka ponad mowę, a ta cecha jest ważniejsza przy ocenie muzyki, niezależnie od jej zaawansowania muzycznego.
Dane sugerują, że układ słuchowy może opierać się na właściwościach akustycznych niskiego poziomu, tak podstawowych jak AM, aby odróżnić muzykę od mowy, co jest prostą zasadą, która inicjuje eksperymenty i spekulacje neurofizjologiczne i ewolucyjne.
More Stories
Boeing może nie być w stanie obsługiwać pojazdu Starliner przed zniszczeniem stacji kosmicznej
Jak czarne dziury stały się tak duże i szybkie? Odpowiedź kryje się w ciemności
Studentka Uniwersytetu Północnej Karoliny zostanie najmłodszą kobietą, która przekroczy granice kosmosu na pokładzie Blue Origin