Inhalt
newsletter Newsletter

Künstliche Intelligenz soll in von Gehirn-Elektroden gesammelten Daten Sprachmuster identifizieren und erklingen lassen.

Eine besondere Herausforderung bei diesem Unterfangen ist die limitierte Datenmenge: Gehirnaktivitäten müssen parallel zur Sprachverarbeitung gemessen werden.

Das klappt nur bei Menschen, die kurzfristig Elektroden implantiert bekommen - beispielsweise während einer Tumoroperation oder bei Untersuchungen wegen Epilepsie.

Auf Sprachmustersuche in Hirnsignalen

Die Computerwissenschaftlerin Nima Mesgarani von der Columbia Universität und ihr Team sammelten Hirnsignale von fünf an Epilepsie erkrankten Menschen.

Anzeige
Anzeige

Gemessen wurden Aktivitäten des auditiven Kortex, der beim Sprechen und Zuhören aktiv ist, während sich die Probanden Geschichten anhörten und eine Aufzählung der Ziffern Null bis Neun.

Mit diesen Daten trainierten die Forscher ein neuronales Netz. Das Netz analysierte die Muster, in denen sich einzelne Neuronen im Kontext einer Ziffer ein- und ausschalteten.

Nach dem Training war es in der Lage, die Ziffernmuster in den Hirnsignalen wiederzuerkennen und diese in Ton umzuwandeln. Das klingt dann so:

Audio: H. AKBARI ET AL., DOI.ORG/10.1101/350124

Eine Testgruppe konnte die Zahlen mit einer Zuverlässigkeit von circa 75 Prozent verstehen.

Empfehlung

Allerdings ist die Mustererkennung laut Mesgarani nicht von einer auf die andere Person übertragbar. Neuronale Netze müssten also für jede einzelne Person neu trainiert werden passend zur individuellen Hirnaktivität.

Außerdem funktioniert das Verfahren derzeit nur mit gesprochenen und nicht mit vorgestellten Worten. Eine Stimmprothese ist so beispielsweise nicht umsetzbar.

Daten sammeln während der Hirn-OP

Ein zweites Forscherteam unter der Leitung des Neurowissenschaftlers Miguel Angrick von der Universität Bremen und Christian Herff von der Universität Maastricht trainierte ein neuronales Netz mit Daten von sechs Tumorpatienten, die während einer Hirnoperation gemessen wurden.

Die Patienten mussten einsilbige Worte laut vorlesen. Dabei zeichneten die Elektroden Hirnaktivität im Sprachzentrum und im motorischen Kortex auf, deren Signale direkt an den Sprachtrakt gehen.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
M. ANGRICK ET AL., DOI.ORG/10.1101/478644
M. ANGRICK ET AL., DOI.ORG/10.1101/478644

Durch die Kombination der Elektrodenwerte mit den Audioaufzeichnungen konnte ein neuronales Netz in bislang unbekannten Hirndaten Wörter erkennen, rekonstruieren und vorlesen. Nach einer maschinellen Analyse sollen 40 Prozent der Wörter verstehbar sein.

Audio: Ein von einer Probandin gesprochenes Wort wird von einem neuronalen Netz wiederholt. M. ANGRICK ET AL., DOI.ORG/10.1101/478644

Quelle: Sciencemag.org

Weiterlesen über Hirn-Computer-Schnittstellen:

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!