Information

Warum werden Melodien/Harmonien vom Menschen als angenehm empfunden?

Warum werden Melodien/Harmonien vom Menschen als angenehm empfunden?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Gibt es einen evolutionären Vorteil, Melodien oder Harmonien angenehm zu finden? Nimmt das Ohr diese speziellen oszillierenden Wellen anders auf als andere Geräusche, und wenn ja, wie beeinflusst das unsere Wahrnehmung von Lust? Ich suche nach einer Art Signalweg (höchstwahrscheinlich mit Neurotransmittern, wie ich weiß).


Es gibt starke Verbindungen zwischen dem auditiven Kortex und dem limbischen System, das Strukturen wie den Hippocampus und die Amygdala umfasst.

Ein kürzlich erschienener Artikel [1] baut auf früheren Vorstellungen von emotionaler "Bedeutung" von Musik ohne Text auf. Es fügt Texte hinzu und gibt so eine Perspektive, welche Teile des Gehirns auf welche Komponente der Musik reagieren.

Darüber hinaus rekrutierten Kontraste zwischen trauriger Musik mit und ohne Text den parahippocampalen Gyrus, die Amygdala, das Claustrum, das Putamen, den präzentralen Gyrus, den medialen und inferioren Frontalgyrus (einschließlich des Broca-Bereichs) und den auditiven Kortex, während der umgekehrte Kontrast erzeugte keine Aktivierungen. Fröhliche Musik ohne Text aktivierte Strukturen des limbischen Systems und der rechten Pars opercularis des Gyrus frontalis inferior, wohingegen allein die Hörregionen mit Texten auf fröhliche Musik reagierten.

Eine der Einschränkungen dieser speziellen Studie besteht darin, dass die Probanden ihre eigenen Stücke selbst ausgewählt haben, was die Zuverlässigkeit der Ergebnisse einschränken kann. Natürlich ist die Definition von "glücklich" oder "traurig" für jeden Einzelnen etwas subjektiv und schwierig. Sie zitierten eine frühere "bahnbrechende" Studie, die die musikalische Auswahl zwischen den Fächern standardisierte. Ohne Berücksichtigung des Textes:

Die erste Pionierstudie mit funktioneller Magnetresonanztomographie (fMRT) von Khalfa et al. (2005) wählten eine kontrollierte Manipulation von zwei musikalischen Merkmalen (Tempo und Modus), um die fröhlichen oder traurigen emotionalen Konnotationen von 34 Instrumentalstücken klassischer Musik von jeweils 10 Sekunden Dauer zu variieren. Traurige Stücke im Moll-Modus im Gegensatz zu fröhlichen Stücken im Dur-Modus erzeugten Aktivierungen im linken medialen Frontalgyrus (BA 10) und im angrenzenden oberen Frontalgyrus (BA 9). Diese Regionen wurden mit emotionalen Erfahrungen, Introspektion und selbstreferenzieller Bewertung in Verbindung gebracht (Jacobsen et al., 2006; Kornysheva et al., 2010).

Als Nebenbemerkung, um Ihren letzten Gedanken zu beantworten, denke ich, dass in Fällen wie diesem der Versuch, alles unter einem Dach eines "Neurotransmitter-Systems" zusammenzufassen, die Dinge so stark vereinfachen kann, dass Sie den Fokus auf die Vielfalt der ausgedrückten Rezeptoren verlieren. Man kann sagen, dass ein System von Dopamin angetrieben wird, aber D1- und D2-Rezeptoren haben genau die gegenteiligen Wirkungen auf das Neuron.

[1] Brattico, E., Alluri, V., et al. (2011)Eine funktionelle MRT-Studie über glückliche und traurige Emotionen in Musik mit und ohne Text. Frontiers in Psychology, 2: 308. doi: 10.3389/fpsyg.2011.00308 (kostenloses pdf)

(Siehe auch http://www.sciencedirect.com/science/article/pii/S0028393206003083 und verwandte)


In Musik, Harmonien sind gleichzeitige Kombinationen von Tönen oder Akkorden, die übereinstimmend sind.

In Physik, jeder Ton eigentlich eine Schwingung mit definierter Wellenlänge ist, lässt sich die Konkordanz mathematisch erklären, zum Beispiel im Hinblick auf die Koinzidenz der Phasenschwingung.

In der Physiologie, nimmt das Ohr Luftschwingungen wahr und sendet sie über Impulsfolgen an das Gehirn.

Einigen Wissenschaftlern zufolge sollte eine Musik mit regelmäßigen Impulsfolgen (wie harmonische Musik und rhythmische Musik) angenehmer sein, wahrscheinlich aufgrund der Stimulation des limbischen Systems, wie die andere Antwort erklärt.

Quelle: Ushakow et al. 2011, Physical Review Letters, DOI 10.1103/PhysRevLett.107.108103

Laienerklärung: Warum Harmonie dem Gehirn gefällt, New Scientist, September 2011


Musikalische Wahrnehmung: Natur oder Erziehung?

Dies ist das Thema der Forschung von Juan Manuel Toro (ICREA) und Carlota Pagès Portabella, Forschern am Center for Brain and Cognition, die im Rahmen eines H2020-Projekts in der Zeitschrift Psychophysiology veröffentlicht wurden

Universität Pompeu Fabra - Barcelona

BILD: Topografische Karte der Gehirnreaktionen bei Musikern und Nichtmusikern. mehr sehen

Aus allgemeiner Sicht ist Harmonie in der Musik das Gleichgewicht der Proportionen zwischen den verschiedenen Teilen eines Ganzen, das ein Gefühl von Freude verursacht. „Wenn wir Musik hören, hilft uns jedes Geräusch, das wir hören, uns vorzustellen, was als nächstes kommt. Wenn das, was wir erwarten, erfüllt wird, fühlen wir uns zufrieden , ein Forscher der Language and Comparative Cognition Research Group (LCC) am Center for Brain and Cognition (CBC).

Eine Studie von Joan M. Toro, Direktor des LCC und ICREA-Forschungsprofessor am Department of Information and Communication Technologies (DTIC) der UPF und Carlota Pagès Portabella, veröffentlicht in der Zeitschrift Psychophysiologie, untersucht die menschliche musikalische Wahrnehmung und vergleicht, wie das Gehirn reagiert, wenn die wahrgenommenen musikalischen Sequenzen nicht wie erwartet enden. Die Studie ist Teil eines internationalen europäischen H2020-Projekts, das das CBC mit Fundació Bial durchführt, um die Grundlagen der musikalischen Wahrnehmung zu verstehen.

Die Ergebnisse der Studie haben gezeigt, dass die Wahrnehmung von Musik zwar universell ist, das Training in Musik jedoch ihre Wahrnehmung verändert. Um zu dieser Schlussfolgerung zu gelangen, verwendeten die Forscher enzephalographische Register, um aufzuzeichnen, was im Gehirn von 28 Menschen mit und ohne musikalische Ausbildung passierte, als sie Melodien mit verschiedenen unerwarteten Enden hörten.

Eine spezifische Reaktion auf jede Unregelmäßigkeit

Erstens zeigten die Forscher, dass das Gehirn unabhängig von der musikalischen Ausbildung der Probanden im Falle einer Unregelmäßigkeit in den Musiksequenzen eine spezifische Reaktion auslöst, die als frühe rechte vordere Negativität (ERAN) bekannt ist.

Darüber hinaus beobachteten die Autoren, dass Menschen ohne musikalische Ausbildung nicht zwischen einem schlicht unerwarteten und einem musikalisch inakzeptablen Ende unterscheiden. Wenn die musikalisch geschulten Teilnehmer jedoch ein in Bezug auf Harmonie völlig inakzeptables Ende hörten, reagierte ihr Gehirn stärker, als wenn ihnen einfach unerwartete Enden präsentiert wurden.

Diese Ergebnisse zeigen, dass die Wahrnehmung von Musik zwar eine relativ universelle Erfahrung ist, musikalisches Training jedoch die Wahrnehmung von Musik durch den Menschen verändert. Das Gehirn von Musikern unterscheidet verschiedene Arten von musikalischen Unregelmäßigkeiten, die ungeübte Zuhörer nicht unterscheiden.

Haftungsausschluss: AAAS und EurekAlert! sind nicht verantwortlich für die Richtigkeit von Pressemitteilungen, die an EurekAlert! durch beitragende Institutionen oder für die Nutzung von Informationen über das EurekAlert-System.


Wenn sich Houstons Song auf die Noten 1, 3 und 5 konzentriert, konzentriert er sich auf die Noten, die in dem, was Musiktheoretiker dies nennen, am höchsten rangieren „Tonale Hierarchie“. Hughes beschreibt es so: „Die tonale Hierarchie ist die Idee, dass bestimmte Töne wichtiger sind als andere.“ In der Dur-Tonart sprechen wir im Allgemeinen von vier Notenwichtigkeitsstufen.

Level eins:

Hughes sagt: „Wenn Sie also in der Tonart C-Dur sind, steht die Note ganz oben in der Hierarchie C. Denn das ist die wichtigste Note in der Tonart C-Dur.“ Das ist die Wurzel oder Tonic der Tonleiter und den Namen der Tonleiter – und damit die wichtigste Note.

Stufe zwei:

Er fährt fort: „Und die nächsten beiden Anmerkungen zur Hierarchie sind E und G.” Das sind die dritte und fünfte Note des C-Dur Tonleiter, sie bilden die Basis für den C-Dur-Akkord und sind daher von untergeordneter Bedeutung.

Stufe drei:

Laut Hughes sind “die verbleibenden Noten auf der nächsten Sprosse alle verbleibenden Noten in der Tonart C-Dur, die nicht C, E oder G sind. Das wäre also D, F, EIN, und B.“ Dies sind die diatonischen Noten, die andere Akkorde erzeugen, die zurück zum Grundton aufgelöst werden müssen.

Stufe vier:

Schließlich haben wir die niedrigste hierarchische Bedeutung. Dies wären alle Töne der westlichen Harmonie, die nicht in der C-Dur-Tonleiter enthalten sind, wie D♭, E♭, A♭ und B♭.

Wenn wir diese Noten in ihre jeweiligen diatonischen Tonleitergrade ändern würden, würde das so aussehen:

  1. Level eins: C (1)
  2. Stufe zwei: E (3) G (5)
  3. Stufe drei: D (2) F (4) A (6) B (7)

Und dann würden natürlich alle Noten, die nicht in der Tonleiter sind, nummeriert und in Bezug auf ihre Funktion in einem Akkord identifiziert, aber darauf gehen wir jetzt nicht ein. Dies alles entstand als Ergebnis der Experimente der Musikpsychologin Carol Krumhansl, wie durchschnittliche Hörer die Platzierung von ein “Sondenton” in einem kurzen melodischen Auszug. Diese Tests wurden später als “die Probetonexperimente” bekannt

Cui und Dr. Hughes haben jeweils ihre eigenen verschiedenen Variationen der Sondentonexperimente durchgeführt.

[AC]: „Wenn Sie sich vorstellen, an einem dieser Experimente teilzunehmen, wird Ihnen ein kurzer melodischer Auszug vorgespielt, beispielsweise eine Tonleiter, und dann wird Ihnen ein Ton vorgespielt. Und dann musst du auf einer Skala von 1-7 bewerten, wie gut der Ton deiner Meinung nach zu der zuvor gespielten Musik passt. Basierend auf diesen Bewertungen kann man im Wesentlichen bestimmen, wie gut die Leute denken, dass verschiedene Töne in denselben Kontext passen.“

[BH:] „Was Krumhansl herausfand, war, dass die Bewertungen ‘Wie gut jede Note passt?’ genau die Tonhierarchie widerspiegelte.“

[AC]: „Ich denke, das Interessanteste daran ist, dass auch Teilnehmer oder Hörer, die keine musikalische Ausbildung haben, ähnliche Muster zeigen. In deinem Kopf denkst du sicher nicht wirklich: ‘Wie wichtig ist dieser Ton?’ Du bewertest ihn nach deinem Bauchgefühl.“

Was also gibt uns dieses Bauchgefühl?

Krumhansl schlug vor, dass wir genug Lieder in Dur gehört haben, um zu verstehen, welche Lieder in Dur tun, und wie sie sollen Klang. Genauso wie wenn Sie genügend Spionagefilme sehen, können Sie im Grunde vorhersagen, was in dem Spionagefilm passieren soll, den Sie sich ansehen werden. Cui sagt: „Ich gehe davon aus, dass die meisten Leute, die ‘I Wanna Dance With Somebody’ hören, wissen, dass es in Dur ist, obwohl sie vielleicht nicht wissen, dass es heißt Haupt.

Und nach den Probetonexperimenten erkennen die meisten Leute wahrscheinlich auch, dass die Noten 1, 3 und 5 auch in der Melodie ziemlich wichtig sein werden. Houstons Lied „I Wanna Dance With Somebody“ ist nicht in der oben erwähnten Tonart C-Dur, aber es ist ist in einem anderen Studiengang, die Tonart von G♭-Dur, und diese tonale Hierarchie funktioniert in jeder Tonart, also verwenden wir die Zahlen und betrachten sie so, wie wir jedes Lied auf der Erde betrachten.

Erinnere dich oben, als wir das identifiziert haben Houston verwendet die Noten 1, 3 und 5 mehr im Refrain als in der Strophe? Diese Noten sind hierarchisch wichtiger und erscheinen daher im wichtigsten Abschnitt eines Songs: dem Refrain. Der Refrain ist aus struktureller Sicht hierarchisch wichtiger, daher ist ein Teil des Grundes, warum dieser Song so effektiv ein unvergessliches Musikerlebnis schafft, darin, dass er vorhersehbare Noten mit ihrer vorhersehbaren Platzierung im Lied verbindet.

Das ist angenehm zu benutzen, weil Kognitionswissenschaftler es so nennen die „Flüssigkeitsheuristik“ eine psychologische Abkürzung, die unser Gehirn verwendet, die mit Vergnügen verbunden ist. Mit anderen Worten, das menschliche Gehirn mag Dinge, die es schneller verarbeiten kann. Und das aus gutem Grund! Da jede Sekunde so viel passiert, muss sich Ihr Gehirn auf die Dinge konzentrieren, die es schnell verarbeiten kann, um Schritt zu halten.

Cui wiederholt die Ergebnisse der Probetonexperimente und erklärt: „Töne, die oft gut passen, sind auch leichter zu verarbeiten.“ Die tonischen Töne passen nicht nur am besten, sie helfen unserem Gehirn auch, alle Informationen schneller zu verarbeiten.

Die Strophen von „I Wanna Dance With Somebody“ enthalten diese drei hochrangigen Noten (1, 3 und 5) in 57 % der Fälle und der Vorchor enthält sie in 50 % der Fälle. Aber der Refrain verwendet diese Noten in 85 % der Fälle, was bedeutet, dass es sowohl angenehm als auch vorhersehbar ist, wenn es wiederholt wird und es uns ermöglicht, in unseren Köpfen (oder in unserer Dusche) mitzusingen.

Das heißt nicht, dass wir Lieder nur mögen, weil unser Gehirn faul ist. Es hat damit zu tun, wie unser Gehirn neue Informationen verarbeitet, wenn sie in einen bestimmten Kontext passen, in diesem Fall, wie melodische Noten in eine Tonart passen.

Manchmal erwähne ich „I Wanna Dance With Somebody“ und jemand im Raum fängt sofort an, den Refrain zu singen. Ein Teil davon hat mit diesem melodischen Kontext und der tonalen Hierarchie bestimmter Noten zu tun, die diesen Abschnitt dominieren, aber es hat auch mit anderen Dingen zu tun, wie lyrische Wiederholungen im Refrain, tonale Auflösung, Rhythmus und Metrum und sogar mit persönliche Erinnerungen, die wir diesem Song zuschreiben könnten. Die Kognitionswissenschaft kann einen Teil davon erklären, aber nicht alles, wie Cui sicherlich erwähnen wird.

[AC]: „Das ist im Grunde die Schwierigkeit, spezifische wissenschaftliche Experimente auf Songs anzuwenden. Die ganze Idee wissenschaftlicher Experimente besteht darin, zu versuchen, so viele Dinge wie möglich zu kontrollieren, und manchmal geschieht dies, indem einige der Dinge, die im wirklichen Leben passieren, weggelassen werden: wie Texte, wie Metrum und so weiter. Und jetzt haben Sie dieses Lied, das all diese zusätzlichen Dinge enthält, die nicht Teil von Musikkognitionsexperimenten sind – alles, was Sie sagen, was die wissenschaftlichen Experimente vorhersagen könnten, wird durch die Tatsache verwechselt, dass es im wirklichen Leben all diese anderen Dinge gibt, die t Teil des Experiments.“

Dieser Song ist ein großartiges Beispiel dafür, wie Musiktheorie und Psychologie den Songwriting-Prozess unterstützen können. Im Wesentlichen möchten Sie versuchen, zu strukturieren, wie die Hörer ihre Freude durch den Song bringen, wobei der ultimative Höhepunkt im Refrain liegt, wo Texte und Melodien alle wiederholt werden, um sich besser erinnern zu können. Jetzt haben Sie eine tonale Hierarchie, mit der Sie arbeiten können, um diesen Abschnitt und die anderen, die ihm vorangehen, noch stärker zu machen.

Möchte bekommen alle der Premium-Online-Kurse von Soundfly zu geringen monatlichen Kosten?

Abonnieren Sie, um unbegrenzten Zugriff auf alle unsere Kursinhalte zu erhalten, eine Einladung zum Beitritt zu unserem Slack-Community-Forum nur für Mitglieder, exklusive Vergünstigungen von Partnermarken und massive Rabatte auf personalisierte Mentorensitzungen für geführtes Lernen. Lernen Sie, was Sie wollen, wann immer Sie wollen, mit völliger Freiheit.

Hunter Farris betreibt den Song Appeal-Podcast, der sich mit der Psychologie beschäftigt, warum wir die Musik mögen, die wir mögen. Sein Podcast über Musiktheorie und Musikpsychologie hat Hunter auf die Comic-Con 2018 angesprochen und ist lehrreich genug, um von einem Musiktheorie-Professor als Hausaufgabe verwendet zu werden. Gegenwärtig lehrt er Leute, Klavier nach Gehör zu spielen und ihre eigenen Arrangements der Musik anderer Leute zu machen.


Inhalt

Tonhöhe bearbeiten

Klänge bestehen aus Wellen von Luftmolekülen, die mit unterschiedlichen Frequenzen schwingen. Diese Wellen wandern zur Basilarmembran in der Cochlea des Innenohrs. Unterschiedliche Schallfrequenzen verursachen Vibrationen an verschiedenen Stellen der Basilarmembran. Wir können verschiedene Tonhöhen hören, weil jede Schallwelle mit einer einzigartigen Frequenz mit einer anderen Stelle entlang der Basilarmembran korreliert ist. Diese räumliche Anordnung von Klängen und ihren jeweiligen Frequenzen, die in der Basilarmembran verarbeitet werden, wird als Tonotopie bezeichnet. Wenn sich die Haarzellen auf der Basilarmembran aufgrund der vibrierenden Schallwellen hin und her bewegen, setzen sie Neurotransmitter frei und verursachen Aktionspotentiale entlang des Hörnervs. Der Hörnerv führt dann zu mehreren Synapsenschichten an zahlreichen Neuronenclustern oder Kernen im Hörhirnstamm. Diese Kerne sind auch tonotopisch organisiert, und der Prozess zum Erreichen dieser Tonotopie nach der Cochlea ist nicht gut verstanden. [1] Diese Tonotopie wird bei Säugetieren im Allgemeinen bis zum primären Hörkortex aufrechterhalten. [2]

Ein weithin postulierter Mechanismus für die Tonhöhenverarbeitung im frühen zentralen Hörsystem ist die Phasen- und Modenkopplung von Aktionspotentialen an Frequenzen in einem Stimulus. Eine Phasenverriegelung mit Reizfrequenzen wurde im Hörnerv, [3] [4] im Nucleus cochlearis, [3] [5] im Colliculus inferior [6] und im Thalamus auditiv nachgewiesen. [7] Durch Phasen- und Modenkopplung auf diese Weise ist bekannt, dass der auditive Hirnstamm einen Großteil der zeitlichen und tiefpassierten Frequenzinformationen aus dem Originalton bewahrt, was durch die Messung der auditiven Hirnstammantwort mit EEG deutlich wird. [8] Diese zeitliche Erhaltung ist eine Möglichkeit, direkt für die temporale Theorie der Tonhöhenwahrnehmung und indirekt gegen die Ortstheorie der Tonhöhenwahrnehmung zu argumentieren.

Der rechte sekundäre Hörkortex hat eine feinere Tonhöhenauflösung als der linke. Hyde, Peretz und Zatorre (2008) verwendeten in ihrer Studie die funktionelle Magnetresonanztomographie (fMRT), um die Beteiligung der rechten und linken Hörrindenregionen an der Frequenzverarbeitung melodischer Sequenzen zu testen. [9] Neben der Feststellung einer überlegenen Tonhöhenauflösung im rechten sekundären Hörkortex wurden spezifische Bereiche, die beteiligt waren, das Planum temporale (PT) im sekundären Hörkortex und der primäre Hörkortex im medialen Abschnitt des Heschl-Gyrus (HG .) gefunden ).

Viele Neuroimaging-Studien haben Beweise für die Bedeutung der rechten sekundären Hörregionen bei Aspekten der musikalischen Tonhöhenverarbeitung, wie beispielsweise der Melodie, gefunden. [10] Viele dieser Studien wie eine von Patterson, Uppenkamp, ​​Johnsrude und Griffiths (2002) finden auch Hinweise auf eine Hierarchie der Tonhöhenverarbeitung. Pattersonet al. (2002) verwendeten in einer fMRI-Studie spektral angepasste Klänge, die Folgendes erzeugten: keine Tonhöhe, feste Tonhöhe oder Melodie und fanden heraus, dass alle Bedingungen HG und PT aktivierten. Klänge mit aktivierter Tonhöhe haben mehr dieser Regionen als Klänge ohne. Wenn eine Melodie erzeugt wurde, breitete sich die Aktivierung auf den Gyrus temporalis superior (STG) und das Planum polare (PP) aus. Diese Ergebnisse unterstützen die Existenz einer Tonhöhenverarbeitungshierarchie.

Absolute Tonhöhe Bearbeiten

Absolute Tonhöhe (AP) ist definiert als die Fähigkeit, die Tonhöhe eines Musiktons zu identifizieren oder einen Musikton mit einer gegebenen Tonhöhe ohne die Verwendung einer externen Referenztonhöhe zu erzeugen. [11] [12] Die neurowissenschaftliche Forschung hat kein ausgeprägtes Aktivierungsmuster entdeckt, das bei Besitzern von AP üblich ist. Zatorre, Perry, Beckett, Westbury und Evans (1998) untersuchten die neuronalen Grundlagen der AP mit funktionellen und strukturellen Bildgebungsverfahren des Gehirns. [13] Positronen-Emissions-Tomographie (PET) wurde verwendet, um den zerebralen Blutfluss (CBF) bei Musikern mit AP und Musikern ohne AP zu messen. Bei der Darbietung von Musiktönen traten in beiden Gruppen ähnliche Muster einer erhöhten CBF in auditiven kortikalen Bereichen auf. AP-Besitzer und Nicht-AP-Probanden zeigten ähnliche Muster der linken dorsolateralen Frontalaktivität, wenn sie relative Tonhöhenbeurteilungen durchführten.Bei Nicht-AP-Personen war jedoch eine Aktivierung im rechten unteren frontalen Kortex vorhanden, während AP-Besitzer keine solche Aktivität zeigten. Dieser Befund legt nahe, dass Musiker mit AP für solche Aufgaben keinen Zugriff auf Arbeitsspeichergeräte benötigen. Diese Ergebnisse implizieren, dass es kein spezifisches regionales Aktivierungsmuster gibt, das für AP einzigartig ist. Vielmehr bestimmen die Verfügbarkeit spezifischer Verarbeitungsmechanismen und Aufgabenanforderungen die rekrutierten neuronalen Bereiche.

Melodie bearbeiten

Studien deuten darauf hin, dass Personen in der Lage sind, automatisch einen Unterschied oder eine Anomalie in einer Melodie zu erkennen, beispielsweise eine verstimmte Tonhöhe, die nicht zu ihrer bisherigen Musikerfahrung passt. Diese automatische Verarbeitung erfolgt in der sekundären Hörrinde. Brattico, Tervaniemi, Naatanen und Peretz (2006) führten eine solche Studie durch, um festzustellen, ob die Erkennung von Tönen, die nicht den Erwartungen einer Person entsprechen, automatisch erfolgen kann. [14] Sie nahmen ereignisbezogene Potenziale (ERPs) bei Nichtmusikern auf, indem ihnen unbekannte Melodien entweder mit einer falschen oder einer falschen Tonhöhe präsentiert wurden, während die Teilnehmer entweder von den Klängen abgelenkt oder auf die Melodie geachtet wurden. Beide Bedingungen zeigten eine frühe frontale Fehler-bezogene Negativität, unabhängig davon, wohin die Aufmerksamkeit gelenkt wurde. Diese Negativität entstand im auditiven Kortex, genauer gesagt im supratemporalen Lappen (der dem sekundären auditiven Kortex entspricht) mit stärkerer Aktivität der rechten Hemisphäre. Die Negativitätsreaktion war bei verstimmten Tonhöhen größer als bei verstimmten. Die Bewertungen der musikalischen Inkongruenz waren bei Melodien mit falscher Tonhöhe höher als bei falschen Tonhöhen. Im Zustand der fokussierten Aufmerksamkeit erzeugten verstimmte und verstimmte Tonhöhen eine späte parietale Positivität. Die Ergebnisse von Brattico et al. (2006) weisen auf eine automatische und schnelle Verarbeitung melodischer Eigenschaften im sekundären auditiven Kortex hin. [14] Die Ergebnisse, dass Tonhöheninkongruenzen selbst bei der Verarbeitung unbekannter Melodien automatisch erkannt wurden, legen nahe, dass ein automatischer Vergleich eingehender Informationen mit Langzeitkenntnissen der Tonleitereigenschaften, wie kulturell beeinflussten Regeln musikalischer Eigenschaften (gemeinsame Akkordfolgen, Tonleitermuster etc.) und individuelle Erwartungen an den Ablauf der Melodie.

Rhythmus bearbeiten

Die Gürtel- und Parabeltbereiche der rechten Hemisphäre sind an der Verarbeitung des Rhythmus beteiligt. [15] Rhythmus ist ein sich stark wiederholendes Bewegungs- oder Klangmuster. Wenn sich Personen darauf vorbereiten, einen Rhythmus in regelmäßigen Abständen (1:2 oder 1:3) auszuklopfen, werden der linke frontale Kortex, der linke parietale Kortex und das rechte Kleinhirn aktiviert. Bei schwierigeren Rhythmen wie einem 1:2,5 sind mehr Bereiche in der Großhirnrinde und im Kleinhirn beteiligt. [16] EEG-Aufzeichnungen haben auch einen Zusammenhang zwischen der elektrischen Aktivität des Gehirns und der Rhythmuswahrnehmung gezeigt. Snyder und Large (2005) [17] führten eine Studie zur Rhythmuswahrnehmung bei Menschen durch und fanden heraus, dass die Aktivität im Gammaband (20 – 60 Hz) den Schlägen in einem einfachen Rhythmus entspricht. Zwei Arten von Gamma-Aktivität wurden von Snyder & Large gefunden: induzierte Gamma-Aktivität und evozierte Gamma-Aktivität. Die evozierte Gamma-Aktivität wurde nach dem Einsetzen jedes Tons im Rhythmus festgestellt im Rhythmus präsent. Es wurde auch gefunden, dass die induzierte Gamma-Aktivität, die nicht als phasenstarr befunden wurde, jedem Schlag entspricht. Die induzierte Gamma-Aktivität ließ jedoch nicht nach, wenn eine Lücke im Rhythmus vorhanden war, was darauf hindeutet, dass die induzierte Gamma-Aktivität möglicherweise als eine Art internes Metronom unabhängig von akustischen Eingaben dienen kann.

Tonalität Bearbeiten

Tonalität beschreibt die Beziehungen zwischen den Elementen Melodie und Harmonie – Töne, Intervalle, Akkorde und Tonleitern. Diese Beziehungen werden oft als hierarchisch charakterisiert, so dass eines der Elemente ein anderes dominiert oder anzieht. Sie treten sowohl innerhalb als auch zwischen jeder Art von Element auf und erzeugen eine reiche und zeitlich variierende Wahrnehmung zwischen den Tönen und ihren melodischen, harmonischen und chromatischen Kontexten. In einem herkömmlichen Sinne bezieht sich Tonalität nur auf die Dur- und Moll-Tonleitertypen – Beispiele für Tonleitern, deren Elemente in der Lage sind, eine konsistente Reihe funktionaler Beziehungen aufrechtzuerhalten. Die wichtigste funktionale Beziehung ist die der Tonika (der erste Ton einer Tonleiter) und des Tonika-Akkords (der erste Ton der Tonleiter mit der dritten und fünften Note) zum Rest der Tonleiter. Das Tonika ist das Element, das dazu neigt, seine Dominanz und Anziehungskraft über alle anderen zu behaupten, und es fungiert als ultimativer Anziehungspunkt, Ruhepunkt und Auflösung für die Tonleiter. [18]

Die rechte Hörrinde ist in erster Linie an der Wahrnehmung der Tonhöhe sowie an Teilen von Harmonie, Melodie und Rhythmus beteiligt. [16] Eine Studie von Petr Janata ergab, dass es tonalitätsempfindliche Bereiche im medialen präfrontalen Kortex, dem Kleinhirn, den oberen Schläfenfurchen beider Hemisphären und dem oberen Schläfengyri (der eine Neigung zur rechten Hemisphäre hat) gibt. [19]

Motorsteuerungsfunktionen Bearbeiten

Musikalische Darbietung umfasst normalerweise mindestens drei elementare motorische Kontrollfunktionen: Timing, Sequenzierung und räumliche Organisation der motorischen Bewegungen. Die Genauigkeit des Timings von Bewegungen hängt mit dem musikalischen Rhythmus zusammen. Rhythmus, das Muster zeitlicher Intervalle innerhalb eines musikalischen Takts oder einer Phrase, erzeugt wiederum die Wahrnehmung von stärkeren und schwächeren Beats. [20] Sequenzierung und räumliche Organisation beziehen sich auf den Ausdruck einzelner Noten auf einem Musikinstrument.

Diese Funktionen und ihre neuronalen Mechanismen wurden in vielen Studien separat untersucht, aber über ihre kombinierte Interaktion bei der Produktion einer komplexen musikalischen Darbietung ist wenig bekannt. [20] Das Studium der Musik erfordert eine gemeinsame Untersuchung.

Timing Bearbeiten

Obwohl neuronale Mechanismen, die am Timing von Bewegungen beteiligt sind, in den letzten 20 Jahren gründlich untersucht wurden, bleibt vieles umstritten. Die Fähigkeit, Bewegungen in präziser Zeit zu formulieren, wurde einem neuronalen Metronom oder Uhrwerk zugeschrieben, bei dem die Zeit durch Schwingungen oder Impulse dargestellt wird. [21] [22] [23] [24] Eine gegensätzliche Auffassung zu diesem Metronom-Mechanismus wurde ebenfalls angenommen, nämlich dass er eine emergente Eigenschaft der Bewegungskinematik selbst ist. [23] [24] [25] Kinematik ist definiert als Parameter der Bewegung durch den Raum ohne Bezug auf Kräfte (zB Richtung, Geschwindigkeit und Beschleunigung). [20]

Funktionelle Neuroimaging-Studien sowie Studien an hirngeschädigten Patienten haben das Bewegungstiming mit mehreren kortikalen und subkortikalen Regionen in Verbindung gebracht, einschließlich des Kleinhirns, der Basalganglien und des ergänzenden motorischen Bereichs (SMA). [20] Insbesondere die Basalganglien und möglicherweise die SMA wurden bei längeren Zeitskalen (1 Sekunde und mehr) mit dem Intervall-Timing in Verbindung gebracht, während das Kleinhirn bei kürzeren Zeitskalen (Millisekunden) für die Steuerung des motorischen Timings wichtiger sein könnte. [21] [26] Darüber hinaus weisen diese Ergebnisse darauf hin, dass das motorische Timing nicht von einer einzelnen Hirnregion gesteuert wird, sondern von einem Netzwerk von Regionen, die bestimmte Bewegungsparameter steuern und die von der relevanten Zeitskala des rhythmischen Ablaufs abhängen. [20]

Sequenzierung bearbeiten

Motorische Sequenzierung wurde entweder im Hinblick auf die Anordnung einzelner Bewegungen, wie z. B. Fingersequenzen für Tastendrücke, oder die Koordination von Teilkomponenten komplexer mehrgelenkiger Bewegungen untersucht. [20] An diesem Prozess beteiligt sind verschiedene kortikale und subkortikale Regionen, einschließlich der Basalganglien, der SMA und der Prä-SMA, des Kleinhirns und der prämotorischen und präfrontalen Kortikalis, die alle an der Produktion und dem Erlernen motorischer Sequenzen beteiligt sind ohne ausdrücklichen Nachweis ihrer spezifischen Beiträge oder Interaktionen untereinander. [20] An Tieren haben neurophysiologische Studien eine Interaktion zwischen dem frontalen Kortex und den Basalganglien beim Erlernen von Bewegungsabläufen gezeigt. [27] Humane Neuroimaging-Studien haben auch den Beitrag der Basalganglien für gut erlernte Sequenzen hervorgehoben. [28]

Das Kleinhirn ist wohl wichtig für das Lernen von Sequenzen und für die Integration einzelner Bewegungen in einheitliche Sequenzen, [28] [29] [30] [31] [32] während die Prä-SMA und SMA nachweislich an der Organisation oder Chunking komplexerer Bewegungsabläufe. [33] [34] Chunking, definiert als die Reorganisation oder Neugruppierung von Bewegungsabläufen in kleinere Untersequenzen während der Leistung, soll die reibungslose Ausführung komplexer Bewegungen erleichtern und das motorische Gedächtnis verbessern. [20] Schließlich wurde gezeigt, dass der prämotorische Kortex an Aufgaben beteiligt ist, die die Produktion relativ komplexer Sequenzen erfordern, und er kann zur motorischen Vorhersage beitragen. [35] [36]

Raumorganisation Bearbeiten

Nur wenige Studien zur komplexen motorischen Steuerung haben zwischen sequentieller und räumlicher Organisation unterschieden, doch fachkundige musikalische Darbietungen erfordern nicht nur eine präzise Abfolge, sondern auch eine räumliche Organisation von Bewegungen. Studien an Tieren und Menschen haben die Beteiligung des parietalen, sensomotorischen und prämotorischen Kortex an der Steuerung von Bewegungen nachgewiesen, wenn die Integration von räumlichen, sensorischen und motorischen Informationen erforderlich ist. [37] [38] Nur wenige Studien haben die Rolle der räumlichen Verarbeitung im Kontext musikalischer Aufgaben explizit untersucht.

Akustisch-motorische Interaktionen Bearbeiten

Feedforward- und Feedback-Interaktionen Bearbeiten

Eine auditiv-motorische Interaktion kann lose als jede Interaktion oder Kommunikation zwischen den beiden Systemen definiert werden. Zwei Klassen der auditiv-motorischen Interaktion sind "Feedforward" und "Feedback". [20] Bei Feedforward-Interaktionen ist es das auditive System, das überwiegend die motorische Leistung beeinflusst, oft auf prädiktive Weise. [39] Ein Beispiel ist das Phänomen des Taktschlags, bei dem der Hörer die rhythmischen Akzente eines Musikstücks antizipiert. Ein weiteres Beispiel ist die Wirkung von Musik auf Bewegungsstörungen: Rhythmische Hörreize verbessern nachweislich die Gehfähigkeit bei Parkinson- und Schlaganfallpatienten. [40] [41]

Feedback-Interaktionen sind besonders relevant beim Spielen eines Instruments wie einer Geige oder beim Singen, wo die Tonhöhe variabel ist und kontinuierlich kontrolliert werden muss. Wenn die akustische Rückkopplung blockiert ist, können Musiker gut einstudierte Stücke noch ausführen, aber expressive Aspekte der Darbietung werden beeinträchtigt. [42] Wenn akustisches Feedback experimentell durch Verzögerungen oder Verzerrungen manipuliert wird, [43] wird die Motorleistung signifikant verändert: asynchrones Feedback stört das Timing von Ereignissen, während eine Änderung der Tonhöheninformation die Auswahl geeigneter Aktionen, aber nicht deren Timing stört. Dies legt nahe, dass Störungen auftreten, weil sowohl Handlungen als auch Wahrnehmungen von einer einzigen zugrunde liegenden mentalen Repräsentation abhängen. [20]

Modelle auditiv-motorischer Interaktionen Bearbeiten

Mehrere Modelle der auditiv-motorischen Interaktion wurden weiterentwickelt. Das für die Sprachverarbeitung spezifische Modell von Hickok und Poeppel [44] schlägt vor, dass ein ventraler Hörstrom Töne auf Bedeutung abbildet, während ein dorsaler Strom Töne auf artikulatorische Repräsentationen abbildet. Sie und andere [45] schlagen vor, dass hintere Hörregionen an der parieto-temporalen Grenze entscheidende Teile der auditiv-motorischen Schnittstelle sind, indem sie auditive Repräsentationen auf motorische Repräsentationen von Sprache und auf Melodien abbilden. [46]

Spiegel-/Echoneuronen und auditiv-motorische Interaktionen Bearbeiten

Das Spiegelneuronensystem spielt eine wichtige Rolle in neuronalen Modellen der sensomotorischen Integration. Es gibt beträchtliche Hinweise darauf, dass Neuronen sowohl auf Aktionen als auch auf die akkumulierte Beobachtung von Aktionen reagieren. Ein vorgeschlagenes System zur Erklärung dieses Handlungsverständnisses besteht darin, dass visuelle Darstellungen von Handlungen auf unser eigenes motorisches System abgebildet werden. [47]

Einige Spiegelneuronen werden sowohl durch die Beobachtung zielgerichteter Aktionen als auch durch die damit verbundenen Geräusche aktiviert, die während der Aktion erzeugt werden. Dies deutet darauf hin, dass die auditive Modalität auf das motorische System zugreifen kann. [48] ​​[49] Während diese auditiv-motorischen Interaktionen hauptsächlich für Sprachprozesse untersucht wurden und sich auf das Broca-Areal und die vPMC konzentrierten, begannen seit 2011 Experimente, die Frage zu klären, wie diese Interaktionen für die musikalische Darbietung benötigt werden. Die Ergebnisse deuten auf eine breitere Beteiligung des dPMC und anderer motorischer Bereiche hin. [20]

Es wurde gezeigt, dass bestimmte Aspekte von Sprache und Melodie in nahezu identischen funktionellen Gehirnbereichen verarbeitet werden. Brown, Martinez und Parsons (2006) untersuchten die neurologischen strukturellen Ähnlichkeiten zwischen Musik und Sprache. [50] Unter Verwendung der Positronen-Emissions-Tomographie (PET) zeigten die Ergebnisse, dass sowohl linguistische als auch melodische Phrasen eine Aktivierung in fast identischen funktionellen Hirnarealen erzeugten. Diese Bereiche umfassten den primären motorischen Kortex, den ergänzenden motorischen Bereich, den Broca-Bereich, die vordere Insel, den primären und sekundären Hörkortex, den Schläfenpol, die Basalganglien, den ventralen Thalamus und das hintere Kleinhirn. Unterschiede wurden in Lateralisierungstendenzen gefunden, da Sprachaufgaben die linke Hemisphäre begünstigten, aber die Mehrheit der Aktivierungen war bilateral, was zu signifikanten Überschneidungen zwischen den Modalitäten führte. [50]

Syntaktische Informationsmechanismen in Musik und Sprache werden im Gehirn ähnlich verarbeitet. Jentschke, Koelsch, Sallat und Friederici (2008) untersuchten in einer Studie die Musikverarbeitung bei Kindern mit spezifischen Sprachbehinderungen (SLI). [51] Kinder mit typischer Sprachentwicklung (TLD) zeigten andere ERP-Muster als Kinder mit SLI, was ihre Herausforderungen bei der Verarbeitung musiksyntaktischer Gesetzmäßigkeiten widerspiegelte. Starke Korrelationen zwischen dem ERAN (Frühe rechtsanteriore Negativität—ein spezifisches ERP-Maß) Amplitude sowie sprachliche und musikalische Fähigkeiten liefern zusätzliche Belege für den Zusammenhang syntaktischer Verarbeitung in Musik und Sprache. [51]

Die Erzeugung von Melodie und die Erzeugung von Sprache können jedoch von verschiedenen neuronalen Netzen unterstützt werden. Stewart, Walsh, Frith und Rothwell (2001) untersuchten die Unterschiede zwischen Sprachproduktion und Songproduktion mit Hilfe der transkraniellen Magnetstimulation (TMS). [52] Stewartet al. fanden heraus, dass TMS, die auf den linken Frontallappen angewendet werden, die Sprache stört, aber nicht die Melodie, was die Idee unterstützt, dass sie von verschiedenen Bereichen des Gehirns unterstützt werden. Die Autoren vermuten, dass ein Grund für den Unterschied darin besteht, dass die Spracherzeugung gut lokalisiert werden kann, die zugrunde liegenden Mechanismen der melodischen Produktion jedoch nicht. Alternativ wurde auch vorgeschlagen, dass die Sprachproduktion weniger robust als die melodische Produktion und daher anfälliger für Störungen sein kann. [52]

Die Sprachverarbeitung ist eher eine Funktion der linken Gehirnhälfte als der rechten, insbesondere des Broca-Areals und des Wernicke-Areals, obwohl die Rolle der beiden Gehirnhälften bei der Verarbeitung verschiedener Aspekte der Sprache noch unklar ist. Musik wird sowohl von der linken als auch von der rechten Gehirnhälfte verarbeitet. [50] [53] Neuere Erkenntnisse deuten ferner auf eine gemeinsame Verarbeitung von Sprache und Musik auf konzeptioneller Ebene hin. [54] Es wurde auch festgestellt, dass unter Musikkonservatoriumsstudenten die Prävalenz der absoluten Tonhöhe bei Sprechern der Tonsprache viel höher ist, sogar bei der Kontrolle des ethnischen Hintergrunds, was zeigt, dass Sprache die Wahrnehmung von Musiktönen beeinflusst. [55] [56]

Unterschiede Bearbeiten

Die Gehirnstruktur von Musikern und Nichtmusikern unterscheidet sich deutlich. Gaser und Schlaug (2003) verglichen Hirnstrukturen von Berufsmusikern mit Nichtmusikern und entdeckten Volumenunterschiede der grauen Substanz in motorischen, auditiven und visuell-räumlichen Hirnregionen. [57] Insbesondere wurden positive Korrelationen zwischen Musikerstatus (Profi, Amateur und Nichtmusiker) und dem Volumen der grauen Substanz in den primären motorischen und somatosensorischen Bereichen, prämotorischen Bereichen, anterioren oberen Parietalbereichen und im Gyrus temporalis inferior bilateral entdeckt. Dieser starke Zusammenhang zwischen Musikerstatus und Unterschieden in der grauen Substanz unterstützt die Annahme, dass das Gehirn von Musikern nutzungsabhängige strukturelle Veränderungen aufweist. [58] Aufgrund der deutlichen Unterschiede in mehreren Hirnregionen ist es unwahrscheinlich, dass diese Unterschiede angeboren sind, sondern eher auf den langfristigen Erwerb und das wiederholte Einstudieren von musikalischen Fähigkeiten zurückzuführen sind.

Auch die Gehirne von Musikern weisen funktionelle Unterschiede zu denen von Nichtmusikern auf. Krings, Topper, Foltys, Erberich, Sparing, Willmes und Thron (2000) verwendeten fMRT, um die Beteiligung des Gehirns von professionellen Pianisten und einer Kontrollgruppe zu untersuchen, während sie komplexe Fingerbewegungen ausführten. [59] Krings et al. fanden heraus, dass die professionellen Klavierspieler eine geringere kortikale Aktivierung in motorischen Bereichen des Gehirns aufwiesen. Es wurde der Schluss gezogen, dass aufgrund der langfristigen motorischen Übung eine geringere Anzahl von Neuronen für die Klavierspieler aktiviert werden musste, was zu den unterschiedlichen kortikalen Aktivierungsmustern führt. Koeneke, Lutz, Wüstenberg und Jancke (2004) berichteten über ähnliche Befunde bei Keyboardern. [60] Erfahrene Keyboarder und eine Kontrollgruppe führten komplexe Aufgaben aus, die ein- und zweimanuelle Fingerbewegungen beinhalteten. Unter Aufgabenbedingungen zeigten Nichtmusiker und Keyboarder starke hämodynamische Reaktionen im Kleinhirn, aber Nichtmusiker zeigten die stärkere Reaktion. Dieser Befund weist darauf hin, dass aus der langjährigen motorischen Praxis unterschiedliche kortikale Aktivierungsmuster hervorgehen. Diese Beweise unterstützen frühere Daten, die zeigen, dass Musiker weniger Neuronen benötigen, um die gleichen Bewegungen auszuführen.

Es wurde gezeigt, dass Musiker ein deutlich stärker entwickeltes linkes Planum temporales haben und auch ein größeres Wortgedächtnis haben. [61] Chans Studie kontrollierte Alter, Notendurchschnitt und Bildungsjahre und stellte fest, dass die Musiker bei einem 16-Wort-Gedächtnistest im Durchschnitt ein bis zwei Wörter mehr als ihre nicht-musikalischen Kollegen lagen.

Ähnlichkeiten Bearbeiten

Studien haben gezeigt, dass das menschliche Gehirn eine implizite musikalische Fähigkeit besitzt. [62] [63] Koelsch, Gunter, Friederici und Schoger (2000) untersuchten den Einfluss des vorhergehenden musikalischen Kontextes, die Aufgabenrelevanz unerwarteter Akkorde und den Grad der Verletzungswahrscheinlichkeit auf die Musikverarbeitung sowohl bei Musikern als auch bei Nichtmusikern. [62] Die Ergebnisse zeigten, dass das menschliche Gehirn ungewollt Erwartungen über bevorstehende auditive Eingaben extrapoliert. Auch bei Nichtmusikern stimmen die hochgerechneten Erwartungen mit der Musiktheorie überein. Die Fähigkeit, Informationen musikalisch zu verarbeiten, unterstützt die Vorstellung einer impliziten musikalischen Fähigkeit des menschlichen Gehirns. In einer Folgestudie untersuchten Koelsch, Schroger und Gunter (2002), ob ERAN und N5 bei Nichtmusikern präattentiv evoziert werden können. [63] Die Ergebnisse zeigten, dass sowohl ERAN als auch N5 selbst in einer Situation ausgelöst werden können, in der der musikalische Reiz vom Hörer ignoriert wird, was auf eine hoch differenzierte präattentive Musikalität im menschlichen Gehirn hinweist.

Zwischen den Gehirnen von Männern und Frauen bestehen geringfügige neurologische Unterschiede bezüglich der hemisphärischen Verarbeitung.Koelsch, Maess, Grossmann und Friederici (2003) untersuchten die Musikverarbeitung durch EEG und ERPs und entdeckten geschlechtsspezifische Unterschiede. [64] Die Ergebnisse zeigten, dass Frauen Musikinformationen bilateral verarbeiten und Männer Musik mit einer rechtshemisphärischen Dominanz verarbeiten. Die frühe Negativität der Männer war jedoch auch über der linken Hemisphäre vorhanden. Dies deutet darauf hin, dass Männer nicht ausschließlich die rechte Hemisphäre für die musikalische Informationsverarbeitung nutzen. In einer Folgestudie fanden Kölsch, Grossman, Gunter, Hahne, Schroger und Friederici (2003) heraus, dass Jungen eine Lateralisation der frühen anterioren Negativität in der linken Hemisphäre zeigen, aber einen bilateralen Effekt bei Mädchen. [65] Dies weist auf einen Entwicklungseffekt hin, da frühe Negativität bei Männern in der rechten Hemisphäre und bei Jungen in der linken Hemisphäre lateralisiert wird.

Es hat sich gezeigt, dass Linkshänder, insbesondere diejenigen, die auch beidhändig sind, beim Kurzzeitgedächtnis für das Spielfeld besser abschneiden als Rechtshänder. [66] [67] Es wurde vermutet, dass dieser Händigkeitsvorteil darauf zurückzuführen ist, dass Linkshänder mehr Speicherduplizierung in den beiden Hemisphären aufweisen als Rechtshänder. Andere Arbeiten haben gezeigt, dass es zwischen Rechtshändern und Linkshändern (auf statistischer Basis) ausgeprägte Unterschiede in der Wahrnehmung von musikalischen Mustern gibt, wenn Klänge aus verschiedenen Raumregionen kommen. Dies wurde beispielsweise bei der Oktavillusion [68] [69] und der Scale-Illusion gefunden. [70] [71]

Musikalische Bilder beziehen sich auf die Erfahrung, Musik wiederzugeben, indem man sie sich im Kopf vorstellt. [72] Musiker zeigen aufgrund intensiver musikalischer Ausbildung eine überlegene Fähigkeit zur musikalischen Bildsprache. [73] Herholz, Lappe, Knief und Pantev (2008) untersuchten die Unterschiede in der neuronalen Verarbeitung einer musikalischen Bildaufgabe bei Musikern und Nichtmusikern. Mithilfe der Magnetenzephalographie (MEG) haben Herholz et al. untersuchten Unterschiede in der Bearbeitung einer musikalischen Bildaufgabe mit bekannten Melodien bei Musikern und Nichtmusikern. Konkret wurde in der Studie untersucht, ob die Mismatch-Negativität (MMN) ausschließlich auf der Bildsprache von Geräuschen beruhen kann. Die Aufgabe bestand darin, dass die Teilnehmer den Anfang einer Melodie hörten, die Melodie in ihrem Kopf fortsetzten und schließlich einen richtigen/falschen Ton als weitere Fortsetzung der Melodie hörten. Die Vorstellungskraft dieser Melodien war stark genug, um eine frühe voraufmerksame Reaktion des Gehirns auf unerwartete Verletzungen der imaginierten Melodien bei den Musikern zu erhalten. Diese Ergebnisse weisen darauf hin, dass man sich auf ähnliche neuronale Korrelate für die Bilder und Wahrnehmungen trainierter Musiker verlässt. Darüber hinaus legen die Ergebnisse nahe, dass die Modifikation der Imagery Mismatch Negativity (iMMN) durch intensives musikalisches Training zu einer überlegenen Fähigkeit zur Bildsprache und präaufmerksamen Verarbeitung von Musik führt.

Musikalische Wahrnehmungsprozesse und musikalische Bilder können ein neuronales Substrat im Gehirn teilen. Eine PET-Studie von Zatorre, Halpern, Perry, Meyer und Evans (1996) untersuchte Veränderungen des zerebralen Blutflusses (CBF) im Zusammenhang mit auditiven Bildern und Wahrnehmungsaufgaben. [74] Diese Aufgaben untersuchten die Beteiligung bestimmter anatomischer Regionen sowie funktionelle Gemeinsamkeiten zwischen Wahrnehmungsprozessen und Bildern. Ähnliche Muster von CBF-Änderungen lieferten Beweise für die Annahme, dass Bildprozesse ein wesentliches neuronales Substrat mit verwandten Wahrnehmungsprozessen teilen. Bilaterale neurale Aktivität im sekundären auditiven Kortex war sowohl mit der Wahrnehmung als auch mit der Vorstellung von Liedern verbunden. Dies impliziert, dass innerhalb des sekundären auditiven Kortex Prozesse dem phänomenologischen Eindruck imaginierter Klänge zugrunde liegen. Der ergänzende motorische Bereich (SMA) war sowohl bei Bild- als auch bei Wahrnehmungsaufgaben aktiv, was auf eine verdeckte Vokalisierung als Element der musikalischen Bildsprache hindeutet. CBF-Erhöhungen im unteren frontalen polaren Kortex und im rechten Thalamus deuten darauf hin, dass diese Regionen mit dem Abrufen und/oder der Erzeugung von auditiven Informationen aus dem Gedächtnis zusammenhängen.

Musik ist in der Lage, ein unglaublich angenehmes Erlebnis zu schaffen, das als "Chills" bezeichnet werden kann. [75] Blood und Zatorre (2001) verwendeten PET, um Veränderungen des zerebralen Blutflusses zu messen, während die Teilnehmer Musik hörten, von der sie wussten, dass sie ihnen „Gänsehaut“ oder jede Art von intensiv angenehmer emotionaler Reaktion gab. Sie fanden heraus, dass mit zunehmendem Schüttelfrost viele Veränderungen des zerebralen Blutflusses in Gehirnregionen wie der Amygdala, dem orbitofrontalen Kortex, dem ventralen Striatum, dem Mittelhirn und dem ventralen medialen präfrontalen Kortex beobachtet werden. Viele dieser Bereiche scheinen mit Belohnung, Motivation, Emotion und Erregung verbunden zu sein und werden auch in anderen angenehmen Situationen aktiviert. [75] Die resultierenden Lustreaktionen ermöglichen die Freisetzung von Dopamin, Serotonin und Oxytocin. Nucleus accumbens (ein Teil des Striatums) ist sowohl an musikbezogenen Emotionen als auch am rhythmischen Timing beteiligt.

[76] Nach Angaben des National Institute of Health konnten Kinder und Erwachsene, die an einem emotionalen Trauma leiden, auf vielfältige Weise von der Nutzung von Musik profitieren. Der Einsatz von Musik war von entscheidender Bedeutung, um Kindern zu helfen, die mit Konzentration, Angst und kognitiven Funktionen kämpfen, indem Musik auf therapeutische Weise eingesetzt wird. Musiktherapie hat auch Kindern geholfen, mit Autismus, Kinderkrebs und Schmerzen durch Behandlungen umzugehen.

Durch Musik ausgelöste Emotionen aktivieren ähnliche frontale Hirnregionen wie Emotionen, die durch andere Reize ausgelöst werden. [58] Schmidt und Trainor (2001) entdeckten, dass die Valenz (d. h. positiv vs. negativ) von musikalischen Segmenten durch Muster der frontalen EEG-Aktivität unterschieden wurde. [77] Fröhliche und fröhliche Musikabschnitte waren mit einer Zunahme der linksfrontalen EEG-Aktivität verbunden, während ängstliche und traurige Musikabschnitte mit einer Zunahme der rechtsfrontalen EEG-Aktivität verbunden waren. Darüber hinaus wurde die Intensität der Emotionen durch das Muster der gesamten frontalen EEG-Aktivität differenziert. Die Aktivität der gesamten Frontalregion nahm zu, wenn die affektiven musikalischen Reize intensiver wurden. [77]

Wenn unangenehme Melodien gespielt werden, aktiviert sich der posteriore cinguläre Kortex, was auf ein Gefühl von Konflikt oder emotionalem Schmerz hinweist. [16] Auch die rechte Hemisphäre korreliert mit Emotionen, die in Zeiten emotionalen Schmerzes, insbesondere sozialer Ablehnung, auch Areale im Cingulat aktivieren können (Eisenberger). Diese Beweise haben zusammen mit Beobachtungen viele Musiktheoretiker, Philosophen und Neurowissenschaftler dazu veranlasst, Emotion mit Tonalität zu verbinden. Dies scheint fast offensichtlich, denn die Töne in der Musik erscheinen wie eine Charakterisierung der Töne in der menschlichen Sprache, die auf emotionale Inhalte hinweisen. Die Vokale in den Phonemen eines Liedes werden für einen dramatischen Effekt verlängert, und es scheint, als ob musikalische Töne einfach Übertreibungen der normalen verbalen Tonalität sind.

Neuropsychologie des musikalischen Gedächtnisses Bearbeiten

Musikalisches Gedächtnis umfasst sowohl explizite als auch implizite Gedächtnissysteme. [78] Das explizite musikalische Gedächtnis wird weiter zwischen episodischen (wo, wann und was des Musikerlebnisses) und semantischen (Speicher für Musikwissen einschließlich Fakten und emotionaler Konzepte) unterschieden. Das implizite Gedächtnis konzentriert sich auf das „Wie“ von Musik und umfasst automatische Prozesse wie das prozedurale Gedächtnis und das Erlernen motorischer Fähigkeiten – also Fähigkeiten, die für das Spielen eines Instruments entscheidend sind. Samson und Baird (2009) fanden heraus, dass die Fähigkeit von Musikern mit Alzheimer-Krankheit, ein Instrument zu spielen (implizites prozedurales Gedächtnis) erhalten bleiben kann.

Neuronale Korrelate des musikalischen Gedächtnisses Bearbeiten

Eine PET-Studie, die die neuronalen Korrelate des musikalischen semantischen und episodischen Gedächtnisses untersuchte, fand unterschiedliche Aktivierungsmuster. [79] Das semantische musikalische Gedächtnis beinhaltet das Gefühl der Vertrautheit von Liedern. Das semantische Gedächtnis für die Musikbedingung führte zu einer bilateralen Aktivierung im medialen und orbitalen frontalen Kortex sowie zu einer Aktivierung im linken Gyrus Winkel und der linken vorderen Region des mittleren Temporalen Gyri. Diese Muster unterstützen die funktionelle Asymmetrie, die die linke Hemisphäre für das semantische Gedächtnis begünstigt. Linke anteriore temporale und inferiore frontale Regionen, die in der Aufgabe des musikalischen semantischen Gedächtnisses aktiviert wurden, erzeugten speziell während der Präsentation von Musikmaterial Aktivierungsspitzen, was darauf hindeutet, dass diese Regionen funktionell auf musikalische semantische Repräsentationen spezialisiert sind.

Das episodische Gedächtnis an Musikinformationen beinhaltet die Fähigkeit, sich an den früheren Kontext eines Musikausschnitts zu erinnern. [79] Bei der Erkrankung, die das episodische Gedächtnis für Musik hervorruft, wurden Aktivierungen bilateral im mittleren und oberen Frontalgyri und im Precuneus gefunden, wobei die Aktivierung in der rechten Hemisphäre vorherrschte. Andere Studien haben gezeigt, dass der Precuneus bei einem erfolgreichen episodischen Abruf aktiviert wird. [80] Da es im vertrauten Gedächtniszustand des episodischen Gedächtnisses aktiviert wurde, kann diese Aktivierung durch den erfolgreichen Abruf der Melodie erklärt werden.

Wenn es um das Gedächtnis für Tonhöhen geht, scheint es ein dynamisches und verteiltes Gehirnnetzwerk zu geben, das Tonhöhengedächtnisprozessen dient. Gaab, Gaser, Zaehle, Jancke und Schlaug (2003) untersuchten die funktionelle Anatomie des Tonhöhengedächtnisses mittels funktioneller Magnetresonanztomographie (fMRT). [81] Eine Analyse der Leistungswerte in einer Tonhöhengedächtnisaufgabe ergab eine signifikante Korrelation zwischen guter Aufgabenleistung und dem supramarginalen Gyrus (SMG) sowie dem dorsolateralen Kleinhirn. Die Ergebnisse weisen darauf hin, dass das dorsolaterale Kleinhirn als ein Tonhöhenunterscheidungsprozessor wirken kann und das SMG als eine kurzfristige Tonhöheninformationsspeicherstelle wirken kann. Es wurde festgestellt, dass die linke Hemisphäre bei der Tonhöhengedächtnisaufgabe stärker ausgeprägt ist als die rechte Hemisphäre.

Therapeutische Wirkungen von Musik auf das Gedächtnis Bearbeiten

Musikalisches Training unterstützt nachweislich das Gedächtnis. Altenmüller et al. untersuchten den Unterschied zwischen aktivem und passivem Musikunterricht und stellten fest, dass die aktiv unterrichteten Schüler über einen längeren (aber nicht kurzen) Zeitraum viel mehr Informationen behalten als die passiv unterrichteten Schüler. Bei den aktiv unterrichteten Schülern wurde auch eine stärkere Aktivierung der Großhirnrinde festgestellt. Die passiv unterrichteten Schüler verschwendeten ihre Zeit nicht, sie zeigten zusammen mit der aktiven Gruppe eine stärkere Aktivität der linken Hemisphäre, die für ausgebildete Musiker typisch ist. [82]

Untersuchungen legen nahe, dass wir aus musikalischer Nostalgie immer wieder dieselben Lieder hören. Eine große Studie, die in der Zeitschrift Memory & Cognition veröffentlicht wurde, ergab, dass Musik dem Geist ermöglicht, Erinnerungen an die Vergangenheit zu wecken. [83]

Trederet al. [84] identifizierten neuronale Korrelate der Aufmerksamkeit beim Hören von vereinfachten polyphonen Musikmustern. In einem musikalischen Oddball-Experiment ließen sie die Teilnehmer ihre Aufmerksamkeit selektiv auf eines von drei verschiedenen Instrumenten in Musik-Audioclips lenken, wobei jedes Instrument gelegentlich eine oder mehrere Noten spielte, die von einem sich ansonsten wiederholenden Muster abwichen. Im Gegensatz zu beaufsichtigten und unbeaufsichtigten Instrumenten zeigt die ERP-Analyse fach- und gerätespezifische Reaktionen, einschließlich P300 und frühe auditive Komponenten. Das betreute Instrument konnte mit hoher Genauigkeit offline klassifiziert werden. Dies deutet darauf hin, dass die Aufmerksamkeit, die einem bestimmten Instrument in polyphoner Musik zuteil wird, aus dem laufenden EEG abgeleitet werden kann, ein Befund, der potenziell relevant ist für den Aufbau ergonomischerer Musiklisten-basierter Gehirn-Computer-Schnittstellen. [84]

Bei musikalischen Vierjährigen wurde eine größere intrahemisphärische Kohärenz der linken Hemisphäre festgestellt. [82] In einer Studie von Cowell et al. im Jahr 1992. Dies wurde durch eine Studie von Schlaug et al. im Jahr 1995, dass klassische Musiker im Alter zwischen 21 und 36 Jahren deutlich größere vordere Corpora callosa haben als die nichtmusikalische Kontrolle. Schlaug fand auch einen starken Zusammenhang zwischen der musikalischen Exposition vor dem 7. Lebensjahr und einer starken Zunahme des Corpus callosum. [82] Diese Fasern verbinden die linke und rechte Hemisphäre und weisen auf eine verstärkte Weiterleitung zwischen beiden Gehirnhälften hin. Dies legt die Verschmelzung zwischen der räumlich-emotionalen Verarbeitung der rechten Gehirnhälfte und der linguistischen Verarbeitung der linken Gehirnhälfte nahe. Diese große Übertragung über viele verschiedene Bereiche des Gehirns könnte dazu beitragen, dass Musik die Gedächtnisfunktion unterstützt.

Fokale Handdystonie Bearbeiten

Die fokale Handdystonie ist eine aufgabenbezogene Bewegungsstörung, die mit beruflichen Tätigkeiten verbunden ist, die sich wiederholende Handbewegungen erfordern. [85] Die fokale Handdystonie ist mit einer abnormalen Verarbeitung im prämotorischen und primären sensomotorischen Kortex assoziiert. Eine fMRI-Studie untersuchte fünf Gitarristen mit fokaler Handdystonie. [86] Die Studie reproduzierte aufgabenspezifische Handdystonie, indem Gitarristen einen echten Gitarrenhals im Scanner verwenden sowie eine Gitarrenübung durchführen, um abnormale Handbewegungen auszulösen. Die dystonischen Gitarristen zeigten eine signifikant stärkere Aktivierung des kontralateralen primären sensomotorischen Kortex sowie eine beidseitige Unteraktivierung prämotorischer Bereiche. Dieses Aktivierungsmuster stellt eine abnormale Rekrutierung der kortikalen Bereiche dar, die an der motorischen Kontrolle beteiligt sind. Selbst bei professionellen Musikern ist eine weit verbreitete Beteiligung der bilateralen kortikalen Region erforderlich, um komplexe Handbewegungen wie Skalen und Arpeggien zu erzeugen. Die abnorme Verschiebung von der prämotorischen zur primären sensomotorischen Aktivierung korreliert direkt mit der gitarreninduzierten Handdystonie.

Musik-Agnosie Bearbeiten

Musikagnosie, eine auditive Agnosie, ist ein Syndrom der selektiven Beeinträchtigung der Musikerkennung. [87] Drei Fälle von Musikagnosie werden von Dalla Bella und Peretz (1999) C. N., G. L. und I. R. untersucht. Alle drei dieser Patienten erlitten eine beidseitige Schädigung des Hörkortex, die zu musikalischen Schwierigkeiten führte, während das Sprachverständnis intakt blieb. Ihre Beeinträchtigung ist spezifisch für das Wiedererkennen von einst bekannten Melodien. Sie werden beim Erkennen von Umgebungsgeräuschen und beim Erkennen von Texten verschont. Peretz (1996) hat die Musikagnosie von C.N. weiter untersucht und berichtet von einer anfänglichen Beeinträchtigung der Tonhöhenverarbeitung und der verschonten zeitlichen Verarbeitung. [88] C. N. später wieder in Tonhöhenverarbeitungsfähigkeiten zurückgewonnen, blieben jedoch in der Melodieerkennung und Vertrautheitsbeurteilungen beeinträchtigt.

Musikalische Agnosien können nach dem Prozess kategorisiert werden, der beim Individuum beeinträchtigt ist. [89] Apperzeptive Musikagnosie beinhaltet eine Beeinträchtigung auf der Ebene der Wahrnehmungsanalyse, die die Unfähigkeit beinhaltet, musikalische Informationen korrekt zu kodieren. Assoziative Musik-Agnosie spiegelt ein beeinträchtigtes Repräsentationssystem wider, das die Musikerkennung stört. Viele der Fälle von Musik-Agnosie sind auf Operationen an der mittleren Hirnarterie zurückzuführen. Patientenstudien haben eine große Menge an Beweisen überwunden, die belegen, dass die linke Seite des Gehirns besser geeignet ist, Repräsentationen von Musik im Langzeitgedächtnis zu speichern, und dass die rechte Seite für die Kontrolle des Zugangs zu diesen Repräsentationen wichtig ist. Assoziative Musik-Agnosien werden in der Regel durch eine Schädigung der linken Hemisphäre erzeugt, während eine apperzeptive Musik-Agnosie eine Schädigung der rechten Hemisphäre widerspiegelt.

Angeborene Amusie Bearbeiten

Angeborene Amusie, auch als Tontaubheit bekannt, ist ein Begriff für lebenslange musikalische Probleme, die nicht auf geistige Behinderung, mangelnde Musikexposition oder Taubheit oder Hirnschäden nach der Geburt zurückzuführen sind. [90] In fMRT-Studien wurde festgestellt, dass amusische Gehirne weniger weiße Substanz und einen dickeren Kortex aufweisen als Kontrollen im rechten unteren frontalen Kortex. Diese Unterschiede deuten auf eine abnormale neuronale Entwicklung im auditiven Kortex und dem unteren Frontalgyrus hin, zwei Bereichen, die für die Tonhöhenverarbeitung wichtig sind.

Studien an Menschen mit Amusie legen nahe, dass unterschiedliche Prozesse an der Sprachtonalität und der musikalischen Tonalität beteiligt sind. Angeborene Amusmusik fehlt die Fähigkeit, Tonhöhen zu unterscheiden, und wird so beispielsweise von Dissonanzen und dem Spielen der falschen Taste auf einem Klavier unbewegt. Es kann ihnen auch nicht beigebracht werden, sich eine Melodie zu merken oder ein Lied zu rezitieren, aber sie sind immer noch in der Lage, die Intonation der Sprache zu hören, zum Beispiel zwischen "Du sprichst Französisch" und "Du sprichst Französisch?" zu unterscheiden. wenn gesprochen.


Als Musiker, Komponist und Neurowissenschaftler untersucht Mark Tramo, wie das Gehirn Musik wahrnimmt und emotional darauf reagiert. Der dunkle Streifen auf dem Modellhirn, das er hält, markiert einen Bereich, der für Rhythmus, Melodie und Harmonie besonders empfindlich ist. (Mitarbeiterfoto von Justin Ide)

Babys kommen mit musikalischen Vorlieben auf die Welt. Sie beginnen bereits im Mutterleib auf Musik zu reagieren. Im Alter von 4 Monaten führen dissonante Töne am Ende einer Melodie dazu, dass sie sich winden und sich wegdrehen. Wenn sie eine Melodie mögen, können sie gurren.

Wissenschaftler führen solche Reaktionen als Beweis an, dass bestimmte Regeln für Musik im Gehirn verankert sind und Musiker sie verletzen, auf die Gefahr hin, dass ihr Publikum sich windet. Sogar die Smashing Pumpkins, eine Hardrock-Gruppe, spielen nach einigen der gleichen Harmonieregeln wie Johann Sebastian Bach im 18. Jahrhundert.

“Musik liegt uns in den Genen”, sagt Mark Jude Tramo, Musiker, produktiver Songwriter und Neurowissenschaftler an der Harvard Medical School. “Viele Forscher wie ich versuchen, Melodie, Harmonie, Rhythmus und die Gefühle, die sie erzeugen, auf der Ebene einzelner Gehirnzellen zu verstehen. Auf dieser Ebene kann es ein universelles Regelwerk geben, das regelt, wie eine begrenzte Anzahl von Klängen auf unendlich viele Arten kombiniert werden kann.”

“Alle Menschen kommen mit einer angeborenen Fähigkeit zur Musik auf die Welt”, stimmt Kay Shelemay, Professorin für Musik in Harvard, zu. “Diese Fähigkeit wird schon in jungen Jahren durch das Musiksystem der Kultur geprägt, in der ein Kind aufwächst. Diese Kultur beeinflusst den Bau von Instrumenten, die Art und Weise, wie Menschen beim Singen klingen, und sogar die Art und Weise, wie sie Töne hören. Durch die Kombination der Gehirnforschung mit einem kulturellen Verständnis von Musik erwarte ich, dass wir viel mehr lernen werden, als wir es mit beiden Ansätzen allein tun würden.”

Tramo glaubt, dass das Studium der Biologie der Musik nicht nur das grundlegende Verständnis verbessert, sondern auch zu praktischen Anwendungen in Bezug auf Lernen, Taubheit und persönliche Verbesserung führen kann. Es gibt zum Beispiel Beweise dafür, dass Musik helfen kann, den Blutdruck zu senken und Schmerzen zu lindern.

Auf der Suche nach einem Musikzentrum

Ein menschliches Gehirn ist in zwei Hemisphären unterteilt, und die rechte Hemisphäre wurde traditionell als Sitz der Musikwahrnehmung identifiziert. Allerdings hat dort noch niemand ein “music center” gefunden. Studien zum musikalischen Verständnis von Menschen mit Schädigungen einer der beiden Hemisphären sowie Gehirnscans von Menschen, die beim Hören von Melodien gemacht wurden, zeigen, dass die Musikwahrnehmung aus dem Zusammenspiel von Aktivitäten auf beiden Seiten des Gehirns entsteht.

Einige Gehirnschaltkreise reagieren spezifisch auf Musik, aber erwartungsgemäß nehmen Teile dieser Schaltkreise an anderen Formen der Klangverarbeitung teil. Zum Beispiel ist die Region des Gehirns, die der perfekten Tonhöhe gewidmet ist, auch an der Sprachwahrnehmung beteiligt.

Musik und andere Geräusche, die in die Ohren eindringen, gehen zur Hörrinde, einer Ansammlung von Zellen direkt über beiden Ohren.Die rechte Seite des Kortex ist entscheidend für die Wahrnehmung der Tonhöhe sowie bestimmter Aspekte von Melodie, Harmonie, Klangfarbe und Rhythmus. (Alle getesteten Personen waren Rechtshänder, daher können die Gehirnpräferenzen bei Linkshändern unterschiedlich sein.)

Die linke Gehirnhälfte der meisten Menschen zeichnet sich durch die Verarbeitung schneller Frequenz- und Intensitätsänderungen aus, sowohl in Musik als auch in Worten. Solche schnellen Veränderungen treten auf, wenn jemand eine Geigensaite zupft, anstatt einen Bogen darüber zu streichen.

Sowohl die linke als auch die rechte Seite sind für die vollständige Wahrnehmung des Rhythmus notwendig. Zum Beispiel müssen beide Hemisphären arbeiten, um den Unterschied zwischen Dreiviertel- und Vierviertelzeit zu erkennen.

Auch der vordere Teil Ihres Gehirns (frontaler Kortex), in dem Arbeitserinnerungen gespeichert werden, spielt eine Rolle bei der Rhythmus- und Melodiewahrnehmung.

“Es ist nicht klar, welche Rolle diese Hörzentren, wenn überhaupt, beim ‘Fühlen’ von Musik spielen,” Tramo. “Andere Bereiche des Gehirns befassen sich mit Emotionen und Freude. Es werden große Anstrengungen unternommen, um Verbindungen zwischen dem auditiven Kortex und Teilen des Gehirns, die an Emotionen beteiligt sind, zu kartieren.”

Forscher haben Aktivität in Hirnregionen gefunden, die Bewegungen steuern, selbst wenn Menschen nur Musik hören, ohne einen Teil ihres Körpers zu bewegen. “Wenn Sie nur daran denken, einen Rhythmus abzuklopfen, leuchten Teile des motorischen Systems in Ihrem Gehirn auf,” Tramo bemerkt.

“Musik ist ebenso motorisch wie auditiv,”, fährt er fort. “Viele von uns ‘verhalten’, während sie klassische Musik hören, zu Showmelodien summen oder zu populärer Musik tanzen. Fügen Sie die Beiträge von Mimik, Bühnenlicht und Emotionen hinzu, und Sie schätzen die Komplexität dessen, was unser Gehirn zusammensetzt, während wir in einem Konzertsaal oder Moshpit Musik hören und mit ihr interagieren.”

Praktische Anwendungen

Das Verständnis der Biologie der Musik könnte es den Menschen ermöglichen, sie in medizinischen und anderen Bereichen besser zu nutzen, in denen Beweise dafür sprechen, dass Musik über die Unterhaltung hinaus Vorteile bringt.

Nach einer Herz-Bypass-Operation kommt es bei Patienten oft zu sprunghaften Veränderungen des Blutdrucks. Solche Veränderungen werden mit Medikamenten behandelt. Studien zeigen, dass Patienten auf Intensivstationen, auf denen Hintergrundmusik gespielt wird, niedrigere Dosen dieser Medikamente benötigen als Patienten auf Stationen, auf denen keine Musik gespielt wird.

Wissenschaftler und Ärzte untersuchen den Wert von musikähnlichen Spielen zur Unterstützung von Legasthenikern. Wenn Legastheniker ein Spiel spielen, das Antworten auf sehr schnelle Töne erfordert, hilft ihnen das angeblich, besser zu lesen. “Der Ansatz ist umstritten,” Tramo räumt ein, “ aber es gibt genug positive Beweise für Forscher, um ihn weiter zu testen.”

Einige Krankenhäuser spielen auf Intensivstationen für Frühgeborene leise Hintergrundmusik. Forscher haben herausgefunden, dass solche Musik sowie das Summen von Schwestern oder Müttern Babys helfen, schneller an Gewicht zuzunehmen und die Einheit früher zu verlassen als Frühchen, die diese Geräusche nicht hören.

Am anderen Ende der Altersskala wurde Musik verwendet, um Alzheimer-Patienten zu beruhigen. Bei den Mahlzeiten in Pflegeheimen oder Krankenhäusern kann es schwierig sein, diese Personen zu organisieren. Es kommt sogar zu Kämpfen. Es hat sich gezeigt, dass die richtige Art von Musik Verwirrung und Meinungsverschiedenheiten reduziert.

Die Ermittler haben auch herausgefunden, dass Musik in bestimmten Situationen den Blutdruck senkt und die Effizienz des Sauerstoffverbrauchs durch das Herz zu erhöhen scheint. “Eine Studie hat gezeigt, dass der Herzmuskel von Menschen, die auf Laufbändern trainieren, nicht so hart arbeitet, wenn sie Musik hören, wie wenn sie schweigend trainieren,” Tramo.

Dann gibt es endlose Anekdoten über Sportler, die Musik verwenden, um ihre Leistung zu verbessern. Pitcher Trevor Hoffman von den San Diego Padres zum Beispiel hört AC/DC, um sich in einem Spiel aufzuregen. Tramo lief zu “Brown Sugar” von den Rolling Stones, als er in der High School eine Goldmedaille im 100-Yard-Lauf gewann. Um jedoch festzustellen, wie viel Unterschied Musik macht, müsste die Leistung eines Sportlers, der Musik hört, mit der in Spielen verglichen werden, in denen er oder sie nicht zuhörte.

Tramo glaubt, dass Musik und Tanz der Sprache vorausgingen. Archäologen haben vor mehr als 50.000 Jahren Flöten entdeckt, die von in Osteuropa lebenden Neandertalern aus Tierknochen hergestellt wurden. Es ist keine menschliche Kultur bekannt, die keine Musik hat.

“Trotzdem bestehen große Lücken in unserem Wissen über die zugrunde liegende Biologie,” Tramo weist darauf hin. Wir wissen nicht, wie das Gehirn entscheidet, ob Musik konsonant und dissonant ist. Wir wissen nicht, ob das Üben von Musik den Menschen hilft, andere Fähigkeiten wie Mathematik oder das Lesen von Diagrammen zu erlernen, obwohl Beweise dafür, dass das bloße Hören von Mozart im Mutterleib den IQ verbessert, schwach oder nicht vorhanden sind.

Tramo entschied sich am Ende des Medizinstudiums zwischen dem Komponieren von Musik und dem Studium der Biologie. Als er und sein Mitbewohner in Yale ein Demo-Album namens “Men With Tales” aufnahmen, sagten sowohl RCA als auch Columbia Records, sie wollten mehr hören. Aber Tramo beschloss, bei der Medizin zu bleiben. Er hörte jedoch nicht mit der Musik auf. Kürzlich nahmen er und seine Band einen Song auf, “Living in Fantasy”, der in den Top 40 der MP3-Aufnahmen (mit Computer zugänglich) in Boston rangiert.

„Ich arbeite an der Neurobiologie der Harmonie“, sagt Tramo, „aber ich finde Zeit zum Komponieren und Musizieren. Beides zusammenzubringen ist, als würde man Arbeit und Spiel zusammenbringen.”


Wichtige Lektüre für Depressionen

Neue Studien verbinden übermäßige Facebook-Nutzung mit Depressionen

Wie Beziehungsprobleme Depressionen verursachen können

Das Hören von Musik beeinflusst uns hauptsächlich, indem es unsere Stressreaktion verändert. In einer Studie wurden die Teilnehmer zum Beispiel zufällig zugewiesen, um entweder Musik zu hören oder Anti-Angst-Medikamente zu nehmen. Die Patienten, die Musik hörten, hatten weniger Angst und weniger Cortisol als Menschen, die Drogen nahmen. Musik ist wohl weniger teuer als Medikamente, schont den Körper und hat keine Nebenwirkungen (Finn & Fancourt, 2018).

Eerola T, Vuoskoski JK, Peltola HR, Putkinen V, Schäfer K. (2018), Ein integrativer Rückblick auf den mit Musik verbundenen Traurigkeitsgenuss. Phys Life Rev.25:100-121.

Finn S, Fancourt D. (2018)Die biologischen Auswirkungen des Musikhörens in klinischen und nichtklinischen Umgebungen: Eine systematische Überprüfung. Prog Brain Res237:173-200.

Huron D., Margulis E. H. (2011). „Musikerwartung und Nervenkitzel“, in Handbook of Music and Emotion: Theory, Research, Applications, Hrsg. Juslin P. N., Sloboda J. A., Herausgeber. (New York: Oxford University Press), 575–604

Julian PN. (2013), Was drückt Musik aus? Grundemotionen und darüber hinaus Front Psychol. 64:596.

Kawakami, A., Furukawa, K., Katahira, K. und Okanoya, K. (2013). Traurige Musik löst angenehme Emotionen aus. Vorderseite. Psychol. 4:311.

Sachs ME, Damasio A, Habibi A. (2015), Die Freuden trauriger Musik: eine systematische Übersicht. Front Hum Neurosci. 249:404.


Darum lassen menschliche Schreie deine Haut kriechen

Der menschliche Schrei löst eine Reihe von Emotionen aus. Es ist eine der wenigen Urreaktionen, die wir mit anderen Tieren teilen. Nur wenige Geräusche sind so kraftvoll wie der erste Schrei eines Neugeborenen. Aber die Schreie desselben Säuglings werden eines Tages die Nerven anderer Flugzeugreisender erschüttern.

Eine neue Studie beleuchtet, wie unser Gehirn und unser Körper auf diesen Klang reagieren, der uns packt und verzehrt. Der Neurowissenschaftler Luc Arnal von der Universität Genf und Kollegen zeigen, dass Schreie eine einzigartige Klangeigenschaft besitzen, die außerhalb der Grenzen der menschlichen Sprache existiert. Unabhängig von der Lautstärke oder den verwendeten Wörtern schockiert diese akustische Funktion unsere zentralen Angstzentren. Die Studie wurde am Donnerstag in der Zeitschrift Current Biology veröffentlicht.

Alle Geräusche entstehen durch die Schwingung von Objekten, seien es Trommeln oder Ihre Stimmbänder. Die Schwingungsrate, auch Frequenz genannt, bestimmt den Klang. Wenn Sie ein hohes Quietschen hören, nehmen Ihre Ohren und Ihr Gehirn tatsächlich ein Geräusch mit einer hohen Vibrationsrate wahr.

Obwohl zwei menschliche Stimmen äußerst unterschiedlich klingen können – denken Sie an Gilbert Gottfried und James Earl Jones – verwenden Menschen (und Tiere) bei der Kommunikation nur eine begrenzte Anzahl von Tonfrequenzen. Wenn Biologen wie Arnal diese Klangmuster messen – unter Verwendung eines Modells zur Organisation von Lautstärke und Frequenz, das als „Modulationsleistungsspektrum“ bezeichnet wird –, stellen sie fest, dass unsere Sprache nicht unregelmäßig ist. Stattdessen verfügt es über eine einheitliche Melodie von Frequenzen und Intensitäten, die sowohl Menschen als auch Tiere bei der Kommunikation immer wieder verwenden – typischerweise sind es „tiefe Töne mit feinen Harmonien“. Tatsächlich fallen alle natürlichen Geräusche in diesen universellen Geräuschbereich.

Frühere Studien haben gezeigt, dass Stimmen immer die gleichen Klangmuster verwenden (linkes Feld). Geschlechtsbezogene Töne und Intensitäten fallen in ihren eigenen Bereich (blau im linken Feld), während die Bedeutung unserer Worte in einem anderen landet (grün im linken Feld). Schreie erzeugen eine akustische Eigenschaft namens Rauheit, die außerhalb der Grenzen der normalen Sprache liegt (braun in der linken Tafel), die Wissenschaftler bemerkten, wenn eine Person einen Satz schrie (mittlere Tafel) oder ihn normal rezitierte. Mit freundlicher Genehmigung von Arnal et al., 2015, Current Biology.

Aber als Arnal diese Klangspektren von Sätzen untersuchte, die von 19 Erwachsenen gesprochen oder geschrien wurden, fiel ihm etwas Ungewöhnliches auf. Im Gegensatz zum Sprechen durchlaufen Schreie in kurzer Zeit eine Vielzahl von Geräuschen. Das Ergebnis ist ein akustisches Phänomen, das einem unangenehmen Rasseln ähnelt und als Zona incognita oder „Rauheit“ bekannt ist.

„Rauheit ist bekannt, wurde aber nie als wichtig für die Kommunikation angesehen“, sagte Arnal. „Unsere Arbeit zeigt erstmals, dass Rauheit nützlich ist, um Informationen zu vermitteln, insbesondere über Gefahren in der Umwelt.“

Arnals Team bat 20 Probanden, Schreie als neutral (1 Punkt) oder ängstlich (5 Punkte) zu beurteilen, und stellte fest, dass die gruseligsten Schreie fast immer mit Rauheit korrespondierten. Die rauesten Geräusche machten die gruseligsten Schreie. (Sie können die rangierten Schreie im interaktiven Bereich rechts hören).

Das Team untersuchte dann mit fMRT-Gehirnscannern, wie das menschliche Gehirn auf Rauheit reagiert. Wie erwartet, nahm die Aktivität in den Hörzentren des Gehirns nach dem Hören eines Schreis zu, wo der in die Ohren kommende Schall verarbeitet wird. Aber auch in der Amygdala, dem Angstzentrum des Gehirns, leuchteten die Scans.

Die Amygdala misst, ob eine Bedrohung real ist, und reguliert unsere emotionale und physiologische Reaktion auf Gefahren. So funktioniert es: Wir werden wütend oder ärgern uns. Unser Adrenalin steigt und die Sicht wird klarer. Diese Studie ergab, dass Schreie einen ähnlichen Einfluss auf den Körper haben.

„Es wird nirgendwo ausdrücklich gesagt, dass Menschen Rauheit verwenden sollten, um Alarmsignale zu erzeugen. Toningenieure haben sich die Rauheit zufällig angezapft, nur durch Versuch und Irrtum.

„Wir haben festgestellt, dass Rauheit das Verhalten auf verschiedene Weise verbessert“, sagte Arnal, indem sie beispielsweise die Reaktionszeit einer Person auf Alarme verlängert und ihre Wahrnehmung von Geräuschen verfeinert.

Sein Team fand auch heraus, dass Rauheit nicht zu hören ist, wenn wir natürlich sprechen, unabhängig von der Sprache, aber bei künstlichen Klängen weit verbreitet ist. Laut der Studie besitzen die nervigsten Wecker, Autohupen und Feuermelder eine hohe Rauheit.

„Es wird nirgendwo ausdrücklich gesagt, dass Menschen Rauheit verwenden sollten, um Alarmsignale zu erzeugen. Toningenieure haben sich die Rauheit zufällig zunutze gemacht, nur durch Versuch und Irrtum“, sagte Arnal.

Wie erwartet dringen Schreie in unsere Ohren ein und erhöhen die Gehirnaktivität bei fMRT-Scans in unserem auditiven Kortex, der Schall verarbeitet. Aber diese Schreie lösen auch unser Angstzentrum, die Amygdala, aus, was erklären könnte, warum sie unsere Aufmerksamkeit auf sich ziehen. Mit freundlicher Genehmigung von Arnal et al., 2015, Current Biology.

Die Reaktionen, die Rauheit hervorruft, gehen über das rein Negative hinaus. Manche Leute genießen die Angst, die zum Beispiel durch einen blutrünstigen Schrei in einem Horrorfilm ausgelöst wird. Dies liegt daran, dass die Stimulation der Amygdala nicht nur das Adrenalin erhöht, sondern auch natürliche Schmerzmittel, die Endorphine genannt werden, die Freudengefühle erzeugen.

Das Team stellte fest, dass dissonante Töne, die von Musikern verwendet werden – zwei harmonische Töne, die aufeinanderprallen – auch Rauheit aufweisen.

„Dissonanz wird in Rockmusik mit gesättigten Gitarren häufig verwendet, und wir könnten diese unangenehmen Klänge hinzufügen, weil sie uns bewegen“, sagte Arnal.

Links: Eine neue Studie untersucht die Wissenschaft der Schreie. Foto von Tara Moore / über Getty Images.


III. Vorteile des Musiklernens

Der Einfluss von Musik auf das Gehirn ist signifikant und umfasst therapeutische Verbesserungen, Heilung, Bildung und kognitive Vorteile. Campbell (2011b), Autor des Buches Healing at the Speed ​​of Sound: How What We Hear Transforms Our Brains and Our Lives, sagt: „Ein Kind, das sich bewegt, tanzt und singt, lernt früh die Koordination zwischen Auge, Ohr und Klang . Und [die Erfahrung der Teilnahme an der Musikausbildung] hilft, den sozialen, den emotionalen und den realen Kontext unseres Lernens zu integrieren. Es gibt Studien, die zeigen, dass Kinder, die Musik spielen, höhere SAT-Werte haben, dass das Lernen, Rhythmus und Tempo zu kontrollieren, ihnen nicht nur hilft, mit anderen auszukommen, sondern auch Samen für ähnliche Vorteile pflanzt, wenn wir viel älter werden.“

Musik trägt nicht nur dazu bei, das verbale Gedächtnis von Kindern zu verbessern und den Gedächtnisverlust während des Alterns zu reduzieren, sondern hilft auch Menschen bei der schnelleren Heilung nach einem Schlaganfall, reduziert Stress und Angst, erhöht die Gedächtnisspeicherung, hilft Transplantationsempfängern und lindert Schmerzen.

Musik hat einen positiven Einfluss auf die

  • Sehvermögen, Körperbewusstsein sowie Grob- und Feinmotorik
  • Direktionalität – sich ausdrucksstark als Reaktion auf Anweisungen und den Einsatz von Musikinstrumenten bewegen
  • Erwerb von rezeptiver und expressiver Sprache, Stimme im Singen
  • Die kognitiven Fähigkeiten des Auswendiglernens, Sequenzierens, Nachahmens und Klassifizierens von Beziehungen und Entscheidungen beeinflussen die Fähigkeit jedes Kindes, neue Texte, Melodien, Harmonien und Rhythmen zu kreieren und Wahrnehmungen von Dynamik, Stimmung, Form und Klangfarbe auszudrücken
  • und Aufmerksamkeitsfähigkeit.

In einer Studie aus dem Jahr 2006 haben Tallal et al. schlagen Zusammenhänge zwischen musikalischer Ausbildung, auditiver Verarbeitung, Sprache und literarischen Fähigkeiten vor. Die Studie zeigt, dass sich Musikausbildung und musikalische Begabung verbessern bzw. positiv korrelieren mit:

  • Musikbearbeitung (Melodie, Rhythmus, Metrum, Timbre, Harmonie usw.)
  • Allgemeine auditive Verarbeitung (Tonhöhenunterscheidung, Tonhöhengedächtnis, auditive schnelle spektrozeitliche Verarbeitung)
  • Sprach- und literarische Fähigkeiten (Lesen, phonologisches Bewusstsein, Tonhöhenverarbeitung in der Sprache, Prosodie-Wahrnehmung, verbale Erinnerung, verbale Gewandtheit)

Die Studie zeigt auch, dass nach der musikalischen Ausbildung eine Verbesserung der Aufmerksamkeit, der Sequenzierfähigkeiten und der Verarbeitung literarischer Komponenten wie Silben, Sprachfähigkeiten und Lesefähigkeiten zu verzeichnen war.

Eine zwei- bis dreijährige Studie kam zu dem Schluss, dass Kinder, die eine Musikschule besuchten, signifikante Unterschiede in der auditiven Diskriminierung und Aufmerksamkeit im Vergleich zu Kindern aufwiesen, die sich nicht mit Musik beschäftigten. Kinder, die mehr musikalischen Aktivitäten ausgesetzt waren, zeigten eine ausgereiftere Verarbeitung auditiver Merkmale und eine erhöhte Sensibilität in Bezug auf zeitliche Aspekte von Geräuschen, während überraschende Geräusche die Aufmerksamkeit der Kinder weniger ablenkten (Putkenin et al., 2013).

Studie um Studie zeichnet signifikante Erkenntnisse über Gehirnveränderungen bei Musikern auf, insbesondere in den motorischen, auditiven und visuell-räumlichen Regionen von Instrumentalmusikern (Gaser, 2003). Dieselben Gehirnveränderungen treten bei kleinen Kindern, die Musik spielen, in sehr jungen Jahren auf. Kinder mit nur 15 Monaten musikalischer Ausbildung zeigten in der frühen Kindheit strukturelle Gehirnveränderungen, die mit Verbesserungen relevanter motorischer und auditiver Fähigkeiten korrelierten (Hyde et al., 2009).

  1. Was hat Musik mit Kreativität zu tun? Dieser TED-Talk von Charles Limb diskutiert genau das und mehr.
  2. „Wie Musik unser Gehirn verändert“: Ein Artikel darüber, wie Musik das Gehirn beeinflusst.
  3. Ein unglaubliches Video, das ein dreijähriges Kind zeigt, das Beethoven dirigiert.
  4. Ein Artikel und ein Video über die psychologischen Auswirkungen von Musik auf die Gesundheit und um dem Körper beim Einschlafen zu helfen.

Mathematik hinter der Musiktheorie

Musiknoten sind nur die Bezeichnungen für bestimmte Frequenzen von Schallwellen in der Musik. Beispielsweise haben hohe Töne eine hohe Frequenz. Der Abstand zwischen den Noten wird “Intervals” genannt und es gibt eine Ästhetik, die durch diese Intervalle erzeugt wird. Wenn die Abstände der Noten mit ästhetisch wahrgenommenen Intervallen positioniert werden, erscheinen zuerst 7 Noten in der Dur-Tonleiter und dann 12 Noten. Die Frequenzen der Töne werden nach einer bestimmten Regel gewählt, damit sie bei der Auswahl der Töne angenehm klingen. Die Töne sollten so gewählt werden, dass ihre Abstände voneinander die maximale Anzahl harmonischer Intervalle enthalten.

Das harmonischste Intervall zwischen Intervallen ist eine Oktave. Die unteren oder oberen Oktaven einer Note klingen für das Ohr „gleich“, aber nur in höheren oder niedrigeren Versionen. Der Grund für diese Harmonie liegt in der Einfachheit des Frequenzverhältnisses. Je einfacher das Verhältnis der beiden Frequenzen zueinander ist, desto mehr Dopamin neigt das menschliche Gehirn dazu, diese beiden Töne gleichzeitig zu hören oder die Melodien aus diesen beiden Tönen zu hören. Bei Oktaven ist dieses Verhältnis 2 und es hat das einfachste Verhältnis unter den Intervallen. Während der Ton von A4 440 Hertz beträgt, ist A3 mit einer unteren Oktave 220 Hertz und der A5 mit einer oberen Oktave ist 880 Hertz.

Das Oktavintervall gibt uns immer den gleichen Ton. Daher benötigen wir ein anderes Intervall, um verschiedene Noten zu finden. Nach der Oktave sind die perfekte Quinte und die perfekte Quarte die harmonischsten Intervalle. Die meisten Melodien, Lieder und klassischen Stücke enthalten die perfekte Quarte und die perfekte Quinte. Auf der anderen Seite sind die dissonanten Intervalle kleine & große Sekunden und kleine & große Septimen. Diese Intervalle sind jeweils ein, zwei, acht bzw. neun Halbtöne lang. Es ist schwierig, sich diese dissonanten Intervalle anzuhören. Komponisten nutzen jedoch die Spannung und das chaotische Gefühl, die durch die dissonanten Intervalle erzeugt werden, um das Gefühl der Auflösung zu verstärken, das durch harmonische Intervalle erzeugt wird. Harmonische Intervalle nach dissonanten Intervallen werden oft verwendet, um Musik eingängig zu machen und mehr Emotionen zu erzeugen. Wenn ein Musikstück nur aus harmonischen Intervallen besteht, wird es schön klingen, aber das ist alles.


Musik und Therapie

Die Forschung zu Groove hat auch potenzielle therapeutische Anwendungen. Beispielsweise hat der Einsatz von rhythmischer Musik zur Behandlung motorischer Symptome der Parkinson-Krankheit, wie z. B. Gangstörungen, vielversprechende Ergebnisse gezeigt. Die Groove-Forschung hat das Potenzial, die Zusammenhänge zwischen Musik, Bewegung und Vergnügen aufzuklären, die für das Verständnis und die Verbesserung rhythmischer Therapien entscheidend sein können.Darüber hinaus kann die Groove-Forschung dazu beitragen, die Freude an der Musik, die in dieser Art von Therapie verwendet wird, zu maximieren, was die Motivation der Patienten erhöhen und die therapeutische Erfahrung verbessern könnte.

Dieser Artikel wurde von The Conversation unter einer Creative Commons-Lizenz neu veröffentlicht. Lesen Sie den Originalartikel.

Kosmos

Cosmos ist ein vierteljährlich erscheinendes Wissenschaftsmagazin. Unser Ziel ist es, Neugier auf „The Science of Everything“ zu wecken und die Welt der Wissenschaft für jeden zugänglich zu machen.

Lesen Sie wissenschaftliche Fakten, keine Fiktion.

Es gab noch nie einen wichtigeren Zeitpunkt, um die Fakten zu erklären, evidenzbasiertes Wissen zu schätzen und die neuesten wissenschaftlichen, technologischen und technischen Durchbrüche zu präsentieren. Cosmos wird von The Royal Institution of Australia herausgegeben, einer Wohltätigkeitsorganisation, die es sich zum Ziel gesetzt hat, Menschen mit der Welt der Wissenschaft zu verbinden. Finanzielle Beiträge, egal ob groß oder klein, helfen uns, Zugang zu vertrauenswürdigen wissenschaftlichen Informationen zu einer Zeit zu bieten, in der die Welt sie am dringendsten benötigt. Bitte unterstützen Sie uns noch heute mit einer Spende oder einem Abonnement.

Spenden


Schau das Video: Afslappende Musik - Koralrevsfisk (Kann 2022).