Bild: Ghost in the Shell 2: Innocence
Die rasante Entwicklung im Bereich Gehirn-Maschine-Schnittstellen und Neuroprothetik sind revolutioniert die Art, wie wir Behandlung von gelähmten Menschen, aber die gleichen Technologien konnte schließlich gestellt werden, um allgemeinere Anwendung—eine Entwicklung, die wieder viele von uns in die wahre cyborgs. Bevor wir zu diesem Punkt, aber wir müssen sicherstellen, dass diese neuronalen Geräte sind sichere, sicheren, und als hacker-proof möglich.
In Vorfreude auf unsere cyborg-Zukunft, Forscher des Wyss Center for Bio-und Neuroengineering in Genf, Schweiz, veröffentlicht haben, eine neue Policy Forum Papier in der Wissenschaft mit dem Titel “Hilfe, Hoffnung und hype: Ethische Dimensionen der Neuroprothetik.” Die Absicht der Autoren ist es, Bewusstsein für diese neue Art von neurotechnologies, und die verschiedenen Möglichkeiten, Sie können missbraucht werden. Wichtiger ist, die Forscher kommen mit einigen Möglichkeiten zur Minderung potenzieller Probleme, bevor Sie entstehen.
Kein Zweifel, die Arbeit in neurotech geht zügig voran. Forscher sind der Entwicklung von brain-machine-interfaces (BMIs), die dadurch ermöglicht werden Tetras, um wieder die Nutzung Ihrer Hände und Finger, amputierte sich zu bewegen Prothesen, indem Sie einfach über Ihre Gedanken, und Patienten mit degenerativen Erkrankungen zu buchstabieren Nachrichten mit Ihren Köpfen. Unglaublich, paraplegiker tragen Roboter-exosuits können jetzt kick den Fußball-Bälle, und die Affen begonnen haben, zu kontrollieren, Rollstühle mit Ihrem Geist. Gehirn-zu-Gehirn-Kommunikation-Schnittstellen (BBIs) sind erlaubt Spielern, Kontrolle der Bewegungen der anderen Spieler und spielen ein Spiel von 20 Fragen, ohne dass er ein Wort. Mit jedem Durchbruch, wir lernen ein bisschen mehr über das Gehirn und wie es funktioniert. Am wichtigsten ist, sind diese Werkzeuge geben, Entscheidungsfreiheit und Unabhängigkeit zurück zu amputierten und gelähmten Personen.
Aber es gibt auch eine dunkle Seite zu diesen Technologien. Als Wyss Center Director John Donoghue Punkte in der neuen Policy Forum, schwerwiegende ethische Fragen rund um dieses Feld, und es ist nicht zu früh, sich Gedanken über die Möglichkeiten, in die Neuroprothetik und Gehirn-Maschine-Schnittstellen könnten missbraucht werden.
“Obwohl wir noch nicht vollständig verstehen, wie das Gehirn funktioniert, wir sind näher, um in der Lage, zuverlässig zu Dekodieren, die bestimmte Gehirn-Signale. Wir sollten nicht selbstgefällig werden, was dies bedeuten könnte für die Gesellschaft”, sagte Donoghue in einer Erklärung. “Wir müssen sorgfältig abwägen, die Folgen des Zusammenlebens mit semi-intelligente Gehirn-gesteuerten Maschinen, und wir sollten bereit sein, mit Mechanismen, um sicherzustellen, dass Sie sicher und ethischen verwenden.”
Das Wyss Center ist besorgt, dass, da diese neuro-Geräte immer geben in unseren Welten, die Verwendungszwecke für diese tools steigern Sie Leistung und Umfang. Derzeit BMI wird verwendet, um pick-up-Körbchen oder schreiben Sie Wörter auf einem Bildschirm, aber schließlich wurden diese Geräte könnten verwendet werden, durch eine not der Arbeiter zu beheben eine gefährliche gas-Leck, oder einer Mutter zu Holen Ihr weinendes baby.
Sollte etwas schief gehen in diesen Fällen—wie die gas-Arbeiter, semi-autonome Roboter drehen die falsche Kurbel oder die Mutter fallen die baby— es ist wichtig, sich zu Fragen, wo Verantwortlichkeit beginnt und endet, und wer ist Schuld. Künftige Gesetze haben zu erkennen, ob der Hersteller verantwortlich ist (z.B. ein bug oder ein glitch in der Konstruktion) oder den Benutzer (z.B. vorsätzlicher Missbrauch oder Manipulation mit dem Produkt vorgesehen). Zur Entschärfung dieser Probleme, die Autoren schlagen vor, dass die halb-autonomen system sollte auch eine form des “veto-Kontrolle,”—das heißt, ein not-Stopp ausgeführt werden kann, indem der Anwender zu überwinden, Mängel in der direkten Gehirn-Maschine-Interaktion. Wenn eine Prothese des Körpers oder der remote-kontrollierten Schritte zu tun, etwas, das der Benutzer hat nicht die Absicht, dieser kill switch würde ein sofortiges Ende der Aktivitäten.
Andere Problembereiche sind zudem Sicherheits-und Privatsphäre, und die eventuelle Notwendigkeit zum Schutz der empfindlichen biologischen Daten, die aufgezeichnet wird, die durch diese Systeme. Wenn BMIs sind und sammeln Sie eine fülle von neurologischen Daten, die auf einen Rechner übertragen. Dies natürlich stellt Datenschutz-Bedenken, und das Wyss Center Forscher sind besorgt, dass diese Informationen gestohlen werden könnten und missbraucht.
“Der Schutz von sensiblen neuronalen Daten von Menschen mit vollständiger Lähmung, die Benutzung eines BMI als Ihre einzige Mittel der Kommunikation, ist besonders wichtig”, sagt Niels Birbaumer, Senior Research Fellow am Wyss Center. “Die erfolgreiche Kalibrierung Ihres BMI hängt von Gehirn-Antworten auf persönliche Fragen zur Verfügung gestellt von der Familie (zum Beispiel “Ihre Tochter’ s name ist Emily?”). Strengen Datenschutz angewendet werden müssen, um alle beteiligten, das schließt den Schutz der persönlichen Informationen gefragt-Fragen sowie der Schutz von neuronalen Daten, um sicherzustellen, dass das Gerät ordnungsgemäß funktioniert.”
Erschreckend, das Wyss-Forscher auch sorgen über jemanden hacking in einem Gehirn angeschlossen Gerät—ein Akt, der konnte buchstäblich bedrohen das Leben des Benutzers. Bekannt als “brainjacking,” es würde bedeuten, die böswillige manipulation von Gehirn-Implantate. Hacker könnten in zu gehen und Steuern eine person Bewegungen.
Mögliche Lösungen für diese Probleme umfassen die Verschlüsselung von Daten, information hiding, Netzwerk-Sicherheit und eine offene Kommunikation zwischen Herstellern und Anwendern. Es werde eine Herausforderung sein, zu implementieren, viele dieser vorgeschlagenen Maßnahmen, die jedoch aufgrund der fehlenden einheitlichen standards in allen Ländern. Aber wie die Wyss-Forscher weisen darauf hin, jetzt ist eine ausgezeichnete Zeit, sich Gedanken über Möglichkeiten zur Verbesserung der Koordination und Industrie-standards.
“Einige der Bedenken, die die Autoren aufwerfen, eines Tages die Menge zu realen Problemen, und so ist es ratsam, daran zu denken, ein bisschen der Zeit Voraus,” sagte Adam Keiper, ein Fellow an der Ethik und Public Policy Center und der Herausgeber der Neu-Atlantis, in einem interview mit Gizmodo. “Aber Sie sind keine großen Bedenken.”
Kepier, wer war nicht beteiligt, in der Policy Forum von Papier, ist skeptisch, dass jemand würde wollen, um hack in der BMI eines hochgradig Behinderten person oder einer Gehirn-Maschine-Schnittstelle für die neurofeedback – “Gehirn-training” (d.h. Programme, die die Nutzung nicht-invasiver brain-Scanner, wie EEG, zu trainieren, Menschen zu verwalten Verhaltensweisen, der Abbau von stress, meditieren, etc). “Was hätte ein hacker davon?,” fragte er. “So die Bedenken über Sicherheit und Privatsphäre könnte eine Rolle spielen in der Zukunft, aber Sie haben nicht die Angelegenheit noch.”

Ihre Selbstfahrendes Auto Wird so Programmiert Werden, dass Sie Töten—Deal With It
Eine aktuelle Umfrage zeigt, dass die Menschen wollen, selbstfahrende Autos zu Programmieren, zu minimieren Verluste…
Lesen Sie mehr
Er fügt hinzu, dass die Bedenken über BMI und semi-autonome Roboter sind eine interessante Variante auf Fragen, die derzeit erhoben über Roboter—Fragen, die “sehr klugen Juristen wird wahrscheinlich machen Vermögen aussortieren”, sagte er. Die vorgeschlagenen Vorschriften, sagte Kepier meisten Sinn machen, aber in seiner Ansicht, ein paar sind geradezu albern. “Die Autoren sagen, wir sollten” fördern die Verbesserung der Gesundheit Alphabetisierung und neuro-Alphabetisierung in der breiten Gesellschaft’”, sagte er, “Geben Sie mir eine Pause.” Kepier ist skeptisch, dass das Publikum kein Interesse an diesen eher berauschend und Arkane Bereichen der Untersuchung.
Aber als Kepier bekannt, ist es oft schwierig zu wissen, Wann ist der richtige Zeitpunkt zu beginnen, öffentlich zu lüften ethische und politische Bedenken über die entstehenden Technologien. “Es ist immer ein Risiko sprechen, vorzeitig aus—so geschehen mit der ‘nanoethicists’ von vor einem Jahrzehnt, die denken, dass advanced nanotechnology würde kommen bald, versucht, den Aufbau einer akademischen Disziplin, die sich Ihrer Anliegen”, sagte er. “In diesem Fall denke ich, die Autoren sollten gelobt werden, für die Aufzucht, Ihre Anliegen in einem nicht-alarmierenden, relativ bescheiden Weg.”
In der Tat, die Wyss-Forscher der Erziehung ein wichtiges Thema. Schließlich werden viele dieser Technologien verbreiten sich Ihren Weg in den mainstream, dienen als zustimmungsschalter für diejenigen, die nicht deaktiviert. Nicht-invasive BMIs könnte verwendet werden, um eine Art von telekinetischer Verbindung zu unserer Umwelt, wo wir unsere Gedanken nutzen, um das Licht anzuschalten oder ändern Sie die Kanäle auf dem Fernseher. Schließlich, diese Technologien könnten dazu führen, technologisch aktiviert Telepathie. Als Wyss Forscher treffend darauf hin, das Potenzial für Missbrauch ist nicht trivial—und das wollen wir am besten anfangen, darüber nachzudenken es jetzt.
[Wissenschaft]