Ihre Gehirnwellen verraten, welche Musik Sie gerade hören

In einem Experiment wurde anhand von Gehirnscans und EEG-Daten herausgefunden, welche Musik die Testperson hörte. Für den Forscher Ian Daly ist dieses Modell ein erster Schritt zu größeren Zielen. „Diese Methode hat viele Anwendungsmöglichkeiten“

Musikalisches Gedankenlesen: Allein mit Hilfe von Gehirnscans und EEG-Daten lässt sich entschlüsseln, welche Musik eine Testperson hört, wie ein Experiment zeigt. Eine entsprechend trainierte künstliche Intelligenz identifizierte anhand der nicht-invasiv erfassten neuronalen Signale das passende Musikstück mit einer Trefferquote von 71,8 Prozent. Die Ergebnisse könnten ein erster Schritt auf dem Weg zum nicht-invasiven Auslesen von Sprache aus Gehirnströmen sein.

Musik entfacht ein wahres Signalfeuerwerk

Musik ist tief in unserer Natur verwurzelt. Wenn wir vertraute Geräusche hören, identifiziert unser Gehirn sie in sich von Sekundenbruchteilen . Gehirnwellenmessungen zeigen, dass Musik ein Feuerwerk an Signalen auslösen kann, begleitet von starken Emotionen und Gänsehaut. Verschiedene Forschungsteams haben sich bereits damit beschäftigt, was die Gehirnströme beim Musikhören verraten können – etwa über die Emotionen der Probanden oder über die Musik selbst.

Ian Daly von der School of Computer Science and Electronic Engineering an der University of Essex in Großbritannien hat nun gezeigt, dass sich anhand der Gehirnströme erkennen lässt, welche Musik ein Mensch gerade hört. Während vorherige Studien Um beispielsweise Sprache aus der Gehirnaktivität zu lesen, oft mit invasiven Methoden wie der Elektrokortikographie (EKoG), bei der Elektroden im Schädel platziert werden, verwendete Daly Daten aus nicht-invasiven Elektroenzephalographie-Messungen (EEG).

Musikalisches Gedankenlesen: Gehirnwellen verraten, welche Musik Sie gerade hören

Um die Genauigkeit der Vorhersagen zu erhöhen, kombinierte Daly die EEG-Daten mit Messungen der funktionellen Magnetresonanztomographie (fMRT), die den Blutfluss im Gehirn zeigen und so Aufschluss darüber geben, welche Hirnregionen beim Musikhören bei einer bestimmten Person besonders aktiv sind. Die Forscher nutzten diese Informationen, um genau die EEG-Daten für die weitere Analyse auszuwählen, die diesen Bereichen entsprachen.

Die Daten stammen aus einer früheren Studie, die sich ursprünglich auf die Emotionen von Musikhörern konzentrierte. Die 18 in die Analyse eingeschlossenen Probanden hatten 36 kurze Klaviermusikstücke gehört, während ihre Gehirnaktivität per fMRT und EEG aufgezeichnet wurde. Anschließend trainierte Daly ein Deep-Learning-Modell darauf, die Muster im EEG so zu entschlüsseln, dass es das jeweilige Musikstück rekonstruieren konnte, das die Testperson während der Messung gehört hatte.

Tatsächlich war das Modell in der Lage, das Tempo, den Rhythmus und die Amplitude der Musik teilweise zu reproduzieren. Die Ähnlichkeit zu den Originalmusikstücken war hoch genug, dass der Algorithmus mit einer Trefferquote von 71,8 Prozent vorhersagen konnte, welches der 36 Musikstücke die Person gehört hatte.

Um die Ergebnisse zu validieren, verwendete Daly eine unabhängige Stichprobe von 19 anderen Probanden, die die entsprechenden Musikstücke ebenfalls gehört hatten. Da von diesen Personen nur EEG-Daten und keine fMRT-Daten verfügbar waren, verwendete Daly die Informationen aus der ersten Stichprobe, um die relevanten EEG-Daten zu bestimmen.

„Diese Methode hat viele Anwendungsmöglichkeiten“

„Auch ohne personenspezifische fMRT-Daten konnten wir die Musik, die wir gehört haben, allein anhand der EEG-Daten identifizieren“, berichtet Daly. Allerdings weist er darauf hin, dass die Lokalisation der relevanten Gehirnreaktionen auf Musik von Mensch zu Mensch unterschiedlich ist. Konnte das Modell demnach nicht mit personenspezifischen fMRT-Daten ausgestattet werden, war es ungenauer und erreichte nur eine Trefferquote von 59,2 Prozent.

Daly sieht sein Modell als ersten Schritt zu größeren Zielen. „Diese Methode hat viele Anwendungsmöglichkeiten“, sagt er. “Wir haben gezeigt, dass wir Musik entschlüsseln können, was darauf hindeutet, dass wir eines Tages Sprache aus dem Gehirn entschlüsseln können.” Experimente zeigen . Bisher funktioniert das aber nur mit invasiver Technik wie Elektroden im Gehirn.

Für Menschen mit Locked-in-Syndrom, die aufgrund von Lähmungen nicht mit anderen Menschen kommunizieren können, könnte dies ein Tor zur Außenwelt öffnen. „Offensichtlich ist noch ein langer Weg zu gehen, aber wir hoffen, dass wir eines Tages, wenn wir Sprache erfolgreich entziffern können, diese zum Bau von Kommunikationshilfen nutzen können“, sagt Daly. (Wissenschaftliche Berichte, 2023, doi: 10.1038/s41598-022-27361-x)

Quelle: Universität Essex

Dieser Artikel wurde von Nadja Podbregar verfasst