Forscher der UC San Francisco (UCSF) und der UC Berkeley haben eine Brain-Computer-Schnittstelle (BCI) entwickelt, die es einer Frau mit schwerer Lähmung nach einem Hirnstamm-Schlaganfall ermöglicht, durch einen digitalen Avatar zu sprechen. Dieser Durchbruch ist das erste Mal, dass Sprache und Gesichtsausdruck aus Gehirnsignalen synthetisiert wurden. Das System kann Signale mit einer Geschwindigkeit von fast 80 Worten pro Minute in Text umwandeln, eine signifikante Verbesserung gegenüber der aktuellen Technologie. Die Forscher streben an, in Zukunft ein von der FDA zugelassenes System für Sprache aus Gehirnsignalen zu entwickeln. Das System verwendet Elektroden, die auf der Oberfläche des Gehirns der Frau implantiert sind, um Signale abzufangen, die normalerweise zur Muskulatur für Sprache und Gesichtsbewegung gehen würden. Das Team trainierte die KI-Algorithmen, um die Gehirnsignale der Frau für Sprache anhand verschiedener wiederholter Phrasen zu erkennen. Das System wandelt Wörter von Phonemen, den Untereinheiten der Sprache, um und verwendet personalisierte Algorithmen, um Sprache zu synthetisieren und das Gesicht des Avatars zu animieren. Die Forscher planen, in Zukunft auch eine drahtlose Version des BCI-Systems zu entwickeln.
Einführung
Forscher der UC San Francisco und der UC Berkeley haben einen bedeutenden Durchbruch in der Brain-Computer-Interface-Technologie erzielt. Sie haben ein System entwickelt, das es einer Frau mit schwerer Lähmung aufgrund eines Hirnstammschlags ermöglicht, über einen digitalen Avatar zu kommunizieren. Dieses innovative System ist in der Lage, Sprache und Gesichtsausdrücke aus Gehirnsignalen zu synthetisieren und ermöglicht der Frau, mit einer Geschwindigkeit von fast 80 Wörtern pro Minute zu sprechen. Die Forscher haben es sich zum Ziel gesetzt, ein von der FDA zugelassenes System zur Sprachsynthese aus Gehirnsignalen zu entwickeln, was einen bedeutenden Fortschritt in der Assistenztechnologie für gelähmte Personen bedeutet.
Die Entwicklung der Brain-Computer-Schnittstelle
Um Kommunikation zu ermöglichen, implantierten die Forscher Elektroden auf der Oberfläche des Gehirns der Frau. Diese Elektroden fangen Signale ab, die normalerweise die Muskeln kontrollieren, die für Sprache und Gesichtsbewegungen verantwortlich sind. Indem diese Gehirnsignale erfasst werden, kann das System sie in Text umwandeln und in Sprache und animierte Gesichtsausdrücke über einen Avatar übersetzen. Dieser Ansatz umgeht die körperlichen Einschränkungen der Frau und ermöglicht es ihr, ihre Gedanken auszudrücken und effektiv zu kommunizieren.
Die Entwicklung der Brain-Computer-Schnittstelle beinhaltete das Training von KI-Algorithmen, um die einzigartigen Gehirnsignale der Frau für die Sprache zu erkennen. Dies wurde erreicht, indem ein Satz repetitiver Phrasen verwendet wurde, den die Frau wiederholte, während die Gehirnaktivität überwacht wurde. Durch Analyse und Identifizierung von Mustern innerhalb dieser Signale waren die personalisierten KI-Algorithmen in der Lage, die Wörter aus Phonemen zu dekodieren, die die Unterbausteine der Sprache sind. Dieser Prozess bildet die Grundlage für die Synthese von Sprache und die Animation des Avatars in Echtzeit.
Wörter aus Phonemen dekodieren
Das System setzt auf ausgeklügelte Algorithmen, um die Gehirnsignale zu analysieren und Wörter aus Phonemen zu decodieren. Durch Untersuchung der Muster und Korrelationen in der neuronalen Aktivität können die KI-Algorithmen die beabsichtigten Wörter genau identifizieren. Dieser Prozess beinhaltet die Zuordnung der Gehirnsignale zu einer Reihe von Phonemen und die anschließende Rekonstruktion der Wörter mithilfe linguistischer und statistischer Modelle. Durch den Einsatz von maschinellem Lernen kann das System seine Genauigkeit kontinuierlich verbessern und sich im Laufe der Zeit an die individuellen neuronalen Muster anpassen.
Sprach- und Gesichtsausdrücke synthetisieren
Sobald die Wörter aus den Gehirnsignalen decodiert sind, werden sie mithilfe fortschrittlicher Text-to-Speech-Algorithmen in natürliche Sprache synthetisiert. Die personalisierten KI-Algorithmen berücksichtigen die stimmlichen Merkmale und Vorlieben der Person, um eine Stimme zu erzeugen, die ihrer natürlichen Sprache ähnelt. Gleichzeitig animiert das System das Gesicht des digitalen Avatars, um die Gesichtsausdrücke der Frau nachzuahmen. Dies ermöglicht eine umfassende Kommunikationsmöglichkeit, die über gesprochene Worte hinausgeht.
Die Versprechen und Zukunft der Brain-Computer-Schnittstelle
Der erfolgreiche Entwicklung dieser Brain-Computer-Schnittstelle birgt immense Versprechen für Menschen mit schwerer Lähmung oder Kommunikationsstörungen. Durch die Möglichkeit der Kommunikation über einen digitalen Avatar können gelähmte Personen ihre Fähigkeit zur Selbstäußerung wiedererlangen, mit anderen interagieren und aktiver am gesellschaftlichen Leben teilnehmen. Diese bahnbrechende Technologie eröffnet neue Möglichkeiten für Assistenzgeräte und könnte das Leben von Millionen von Menschen auf der ganzen Welt revolutionieren.
Die Forscher haben vor, das System weiter zu verbessern und zu verfeinern. Sie planen die Entwicklung einer drahtlosen Version der Brain-Computer-Schnittstelle, um Komfort und Benutzerfreundlichkeit zu verbessern. Darüber hinaus streben sie eine Zulassung durch die FDA an, um eine weitreichende Zugänglichkeit und Akzeptanz dieser Technologie zu ermöglichen. Durch kontinuierliche Fortschritte und Integration mit anderen Assistenztechnologien hat diese Brain-Computer-Schnittstelle das Potenzial, gelähmten Personen mehr Selbstbestimmung zu ermöglichen und die Art und Weise, wie sie kommunizieren, zu transformieren.