Gehirnimplantate werden immer besser. Nun verspricht eine neue KI-Technologie, Gedanken in gesprochene Sprache zu übersetzen; und das in Echtzeit
von Uwe Kerkow
Fast zwei Jahrzehnte, nachdem sie im Alter von 30 Jahren einen Schlaganfall erlitten hatte, der ihren Hirnstamm schwer schädigte und sie stumm machte, erlangte eine Frau in den USA nun die Fähigkeit zurück, ihre Gedanken dank eines neuen Gehirn-Computer-Schnittstellen-Verfahrens (brain-computer interface, BCI) in Worte zu verwandeln – und das in Echtzeit.
Die Technologie ähnelt damit im Ansatz dem, was die Firma Neuralink von Elon Musk anstrebt, wenn sie versucht, die Gehirne von Menschen mit ihren Smartphones zu verbinden.
Wie Science Alert berichtet, haben die Forscher von der University of California, Berkeley, unter der Leitung des Informatikingenieurs Kaylo Littlejohn dazu die Gehirnaktivität der Frau in Schritten von je 80-Millisekunden Länge analysiert und übersetzt. So überwanden die Wissenschaftler mit ihrer innovativen Methode die frustrierenden Verzögerungen, die frühere Versionen der Technologie geplagt hatten.
Klänge formen, noch während wir sie denken
Die Fähigkeit unseres Körpers, Klänge zu formen, noch während wir sie denken, betrachten wir als selbstverständlich. Nur in seltenen Momenten, wenn wir gezwungen sind, auf einen Übersetzer zu warten, oder wenn wir unsere Sprache verzögert durch einen Lautsprecher hören, lernen wir das ungemeine Tempo wertzuschätzen, in dem unser Körper Reize verarbeitet.
Doch diese Artikulationsfähigkeit kann aufgrund verschiedener Ursachen von den Sprachzentren ihres Gehirns getrennt werden, sei es etwa durch Beschädigungen von kritischen Teilen des Nervensystems oder Erkrankungen wie amyotrophe Lateralsklerose bei der das motorische Nervensystem seine Funktionsfähigkeit verliert.
In Verbindung mit spezialisierter Software verspricht der Einsatz derartiger Gehirnimplantate den Betroffenen nun neue Lebensperspektiven. In letzter Zeit haben verschiedene BCI-Sprachumsetzungsprojekte Erfolge erzielt. Dabei zielten alle darauf ab, den Zeitraum zu verkürzen, der benötigt wird, um Sprache aus Gedanken zu erzeugen.
KI wird direkt auf Signale des Gehirns trainiert
Bei den meisten Methoden werden vollständige Textblöcke analysiert, damit die Software deren Bedeutung entschlüsseln kann. Das kann Sekunden dauern und den Zeitraum zwischen dem Gedanken und der Vokalisierung quälend verlängern. Das wirkt nicht nur unnatürlich, es kann auch frustrierend und unangenehm für diejenigen sein, die das System verwenden. Dieser Effekt wird noch dadurch verstärkt, dass die Sprachsynthese zusätzliche Zeit zum Abspielen benötigt und der Zuhörer, um das synthetisierte Audio zu verstehen.
Ferner basieren die meisten bestehenden Methoden darauf, dass der “Sprecher” die Schnittstelle trainiert, indem er die Bewegungen des Sprechens durchführt. Für Personen, die aus der Übung sind, immer schon Schwierigkeiten beim Sprechen hatten oder deren Motorik unter einer Erkrankung leidet, kann es daher sehr schwierig werden, ihrer Dekodierungssoftware genügend Daten zu liefern.
Um solche Hürden zu überwinden, trainierten die Forscher ein flexibles, tief lernendes neuronales Netzwerk auf die sensomotorische-Kortex-Aktivität der 47-jährigen Teilnehmerin, während sie 100 ausgewählte Sätze mit einem Wortschatz von etwas mehr als tausend Wörtern still für sich sprach – also letztlich dachte. Die Frau brauchte also gar nicht erst zu versuchen, Worte hervorzubringen – sie musste sich die Sätze lediglich vorstellen.
Natürlich wirkender Sprachfluss
Durch diesen neuartigen Ansatz konnte die durchschnittliche Anzahl der pro Minute übersetzten Wörter gegenüber früheren Methoden nahezu verdoppelt werden. Zudem kann die Technik die neuronalen Befehle kontinuierlich und in Echtzeit interpretieren. Dadurch floss die Sprache der Teilnehmerin auf eine weitaus natürlichere Weise – und zwar etwa achtmal schneller als bei anderen Methoden.
Dank eines Sprachsynthese-Programms, das auf vorherigen Aufnahmen von der Patientin basierte klang das Ergebnis sogar wie ihre eigene Stimme. Um zu zeigen, dass ihr Verfahren sogar neuronale Signale korrekt interpretieren kann, die Wörter repräsentierten, auf die es nicht vorab trainiert worden war führten sie auch Versuche offline und ohne Zeitbeschränkungen durch.
Wörter gebildet, auf die die KI nicht trainiert worden war
Die Autoren merken an, dass es noch viel Raum für Verbesserungen gibt, bevor die Methode klinisch eingesetzt werden kann. Obwohl die Sprache verständlich war, blieb sie bislang noch weit hinter den Ergebnissen zurück, die Methoden erzielen, die Text dekodieren.
In Anbetracht dessen, wie weit die Technologie in nur wenigen Jahren gediehen ist, gibt es jedoch Grund zum Optimismus, dass Menschen, die bisher ohne Stimme waren, die Forscher und ihre gedankenlesenden Geräte bald lauthals loben könnten.
Wir können nur mit Ihrer Hilfe überleben!
Ihnen gefallen unsere Inhalte? Zeigen Sie Ihre Wertschätzung. Mit Ihrer Spende von heute, ermöglichen Sie unsere investigative Arbeit von morgen: Unabhängig, kritisch und ausschließlich dem Leser verpflichtet. Unterstützen Sie jetzt ehrlichen Journalismus mit einem Betrag Ihrer Wahl!