Abbildung: Chelsea Beck (Gizmodo)
Durch die Erfassung Gehirn Signale, die im Zusammenhang mit der mechanischen Aspekte des Sprechens, wie z.B. Bewegungen des Kiefers, Lippen und Zunge, erstellten Forscher eine virtuelle, computer-basierte Vokaltrakt in der Lage verständlichen Sprache. Das system könnte schließlich verwendet werden, von Menschen, die verloren haben, die Fähigkeit zu sprechen.
Konventionelle Rede-erzeugende Geräte, wie die von der späten Stephen Hawking, in der Regel verwenden nonverbalen Bewegungen, wie Zuckungen der Augen oder den Kopf, um Worte zu produzieren. Benutzer haben zu buchstabieren jedes Wort einen Buchstaben nach dem anderen, die Zeit und Mühe nimmt. Am besten, diese Hilfsmittel herzustellen Worten zu Preisen zwischen sechs und 10 Wörter pro minute, die—weit entfernt von der natürlichen Rede, die produziert etwa 100 bis 150 Wörter pro minute.
Für Menschen, die verloren haben, die Fähigkeit zu sprechen, ob es von Parkinson, ALS, Schlaganfall oder andere Verletzung des Gehirns, konventionelle Rede-erzeugende Geräte sind gut, aber nicht großartig. In einer Anstrengung, um etwas zu schaffen, mehr Effizienz, ein Forschungs-team unter der Leitung von Gopala Anumanchipalli von der Universität von Kalifornien in San Francisco entwickelte ein system, das simuliert die mechanischen Aspekte der verbalen Sprache durch Antippen direkt in das Gehirn.
Das system sammelt und ordnet Gehirn Signale, die trigger Bewegungen des Kiefers, des Kehlkopfes, der Lippen und der Zunge. Ein computer dekodiert diese Signale, um klare Sätze mit einem Sprach-synthesizer. Bei einer Pressekonferenz gestern, die Forscher beschrieben das neue Gerät als “virtuelles Stimm-Trakt.” Die details dieser Arbeit wurden heute veröffentlicht in der Natur.

Neurowissenschaftler Übersetzen-Gehirn-Wellen In Erkennbare Sprache
Mittels Gehirn-scanning-Technologie, künstliche Intelligenz und Sprachsynthesizer, haben Wissenschaftler…
Lesen Sie mehr Lesen
Diese Letzte Rede generierenden Gerät ist der zweite erscheint in diesem Jahr, dass mit brain-Signale zu produzieren, die Rede. Zurück im Januar, ein team unter Leitung der neurowissenschaftlerin Nima Mesgarani von der Columbia University ein system geschaffen, das zeichnet eine person, die Antworten auf auditive Rede, die war dann dekodiert durch maschinelles lernen zu produzieren synthetisiert Rede. Der Ansatz der UC San Francisco Forscher ist ein bisschen anders. Es tippt auch in Gehirn, sondern der Dekodierung auditive Rede, es decodiert hirnsignale verantwortlich für die wörtliche Rede.
Wichtig ist, weder system sammelt eine person verdeckte, oder eingebildet -, die Rede—die Worte, die wir sagen zu uns selbst in unserem Kopf. Aktuelle Wissenschaft und Technologie sind bei weitem nicht das Niveau der Raffinesse. Diese neuen Ansätze noch nutzen Gehirn Signale, aber diese müssen mit der neuronalen Aktivität in den sensorischen Kortex (Sprachwahrnehmung, wie in der Mesgarani system) oder die neuronale Aktivität im motorischen cortex (Sprachproduktion, wie Sie in das neue Gerät).

Zum erstellen des virtuellen Stimm-Trakt, Anumanchipalli und seine Kollegen rekrutiert fünf Patienten, die geplant wurden, zu Unterziehen Gehirn-Chirurgie zur Behandlung Ihrer Epilepsie. Keiner der Teilnehmer hatte Probleme mit der Herstellung wörtliche Rede, und alle waren englische Muttersprachler. Gehirn-Chirurgen implantierten Elektroden-arrays direkt auf Ihr Gehirn, speziell die Bereiche, die im Zusammenhang mit Sprache-Produktion. Die Patienten Sprach dann mehrere hundert Sätze laut vor, während die Forscher ermittelten die damit verbundenen kortikalen Aktivität.
Über die Monate, die folgten, diese Daten dekodiert und mit spezifischen Bewegungen des vokaltrakts. In einer Weise, die Forscher von reverse Engineering, die mechanik der mündliche Vortrag über die Darstellung der verschiedenen Möglichkeiten, Klänge hergestellt werden, zum Beispiel durch die Zunge auf dem Dach der Mund oder die Verschärfung der Stimmbänder. Ein machine-learning-Algorithmus dekodiert diese Signale, wodurch eine intelligente Sprachsynthese, zu konvertieren und drücken die Signale als akustische Sprachausgabe. Das Ergebnis war eine computer-basierte, virtuelle vocal-Trakt, die—in der Theorie—gesteuert werden konnte, indem die Aktivität des Gehirns.
Drehen Sie die Theorie in Aktion, dann testeten die Forscher das system auf freiwilliger, war bis zu dem system angeschlossen—intrakranielle Elektroden und alle. Die person wurde angewiesen, die beiden unterhalten sich laut, und in mime, oder in den Mund, wörtliche Rede ohne Geräusche. Die letztere Methode, bekannt als subvocal speech, getan wurde, um zu simulieren eine person, die den Verlust der Fähigkeit zur Rede, doch noch vertraut mit den mechanischen Aspekten, zu reden. Gefüttert mit diesen Daten, die virtuelle vocal-Trakt war in der Lage zu produzieren, die wörtliche Rede mit überraschender Klarheit. Beide Methoden resultierten in verständlicher Sprache, obwohl die wörtliche Rede wirkte ein bisschen besser als die subvocal speech.
In followup-tests, ein Gremium von mehreren hundert englische Muttersprachler rekrutiert wurden, entschlüsseln Sie die synthetisierte Rede. Die Teilnehmer erhielten einen pool von Wörtern, zum von zu wählen und sagte, wählen Sie die beste übereinstimmung. In tests, etwa 70 Prozent der Wörter wurden korrekt transkribiert. Begrüßenswert ist, dass viele der fehlenden Worte wurden in der Nähe Näherungen, wie die Verwechslung von “nagetier” für “Kaninchen”, als ein Beispiel.
“Wir haben noch weisen zu gehen, um perfekt zu imitieren, die gesprochene Sprache,” Josh Chartier, ein co-Autor der neuen Studie, sagte in einer Erklärung. “Wir sind ganz gut bei der Synthese langsamer Rede klingt wie ‘sh’ und ‘z’ sowie die Aufrechterhaltung der Rhythmen und Intonationen der Rede und der Sprecher von Geschlecht und Identität, aber einige der abrupte klingt wie ‘b’ und ‘p’ s um ein bisschen unscharf. Noch immer wird das Niveau der Genauigkeit, die wir hier produziert würden, werden Sie eine erstaunliche Verbesserung in der real-time-Kommunikation im Vergleich zu dem, was derzeit verfügbar ist.”
Wie gesagt, das system ist konzipiert für Patienten, die verloren haben, die Kapazität für Sprache. Bei der Pressekonferenz gestern, Studie co-Autor Edward Chang sagte, es bleibt “eine offene Frage”, ob das system könnte verwendet werden, von Menschen, die noch nie in der Lage zu sprechen, wie Menschen mit zerebraler Lähmung. Es ist “etwas, das muss untersucht werden, in der Zukunft,” sagte er, “aber wir sind zuversichtlich,” das hinzufügen, dass “die Rede sein müsste, gelernt von unten nach oben.”
Eine wichtige Einschränkung dieses virtuelle vocal-Trakt ist die Notwendigkeit einer Gehirnoperation und Schädel-Implantaten anpassen, das system für jede person. Für die absehbare Zukunft zu bleiben, invasiv, da keine technischen Geräte, die derzeit existieren, die fähig sind, das sammeln der notwendigen Auflösung außerhalb des Gehirns.
“Diese Studie stellt einen wichtigen Schritt in Richtung der Verwirklichung der Rede neuroprothese Technologien,” Mesgarani, wer war nicht beteiligt mit der neuen Forschung, sagte Gizmodo in einer E-Mail. “Eines der wichtigsten Hindernisse für solche Geräte wurde die geringe Verständlichkeit der synthetisierten Klang. Mit der jüngsten Fortschritte in der machine-learning-Verfahren und Sprachsynthese-Technologien, diese Studie und uns zu zeigen, eine deutliche Verbesserung in der Verständlichkeit der decodierten Sprache. Welche Herangehensweise letztlich besser für die Decodierung der imaginierten Rede, die Bedingung bleibt abzuwarten, aber es ist wahrscheinlich, dass eine Mischung aus den beiden vielleicht die beste.”
In der Tat, ein spannender Aspekt in diesem Feld ist die rasante Geschwindigkeit der Entwicklung und die Anwendung von verschiedenen Techniken. Als Mesgarani richtig darauf hingewiesen, es ist möglich, dass mehrere Ansätze könnten kombiniert werden in einem einzigen system, wodurch möglicherweise mehr genaue Ansprache Ergebnisse.
Als Letzte, spekulative beiseite, diese Gehirn-computer-Schnittstellen könnten möglicherweise verwendet werden, eines Tages zu produzieren, eine form von technologisch aktiviert Telepathie, oder Geist-zu-Geist Kommunikation. Zum Beispiel vorstellen, ein Gerät wie das one, entwickelt von der UC San Francisco Forscher, sondern mit der Sprache-synthesizer hakte direkt zu einem empfangenden person auditorischen cortex, ähnlich wie ein Cochlea-Implantat (der auditorische Kortex ist im Zusammenhang mit dem Gehör). Mit dem zwei Elemente miteinander verbunden über WLAN, zwei miteinander verbundenen Menschen könnten theoretisch kommunizieren, nur durch mimik, lautlos (oder das vorstellen der Bewegungen, der mimik) Rede—würden Sie sich gegenseitig hören die Worte, aber sonst niemand.
Aber ich werde immer vor dieser neuesten Forschung. Am wichtigsten ist, das neue system könnte schließlich verwendet werden, um zu helfen, Patienten mit ALS, multipler Sklerose, Schlaganfall und Schädel-Hirn-Verletzungen wieder klarer Sprache. Und, wie die Forscher vorgeschlagen, es könnte möglicherweise sogar eine Stimme zu verleihen Einzelpersonen, die noch nie hatte die Kapazität für Sprache.
Teilen Sie Diese Geschichte