Künstliche Intelligenz kann schon die Zukunft Vorhersagen. Die Polizei nutzt es für die Erstellung der Karten, reflektierend, Wann und wo Verbrechen passieren kann. Ärzte verwenden es für die Prognose, wenn bei einem Patienten passieren kann einen Schlaganfall oder Herzinfarkt. Die Wissenschaftler sogar versuchen, geben die KI-Darstellung, damit er unerwartete Ereignisse antizipieren.
Viele Entscheidungen in unserem Leben erfordern eine gute Prognose, Agenten und KI fast immer besser mit Ihnen zurecht als Menschen. Allerdings für alle diese technologischen Fortschritte wir immer noch nicht genug Vertrauen in den Prognosen, die künstliche Intelligenz gibt. Die Menschen sind nicht daran gewöhnt, sich auf die KI und lieber Vertrauen die Experten in das Gesicht der Menschen, auch wenn diese Experten falsch.
Wenn wir wollen, dass künstliche Intelligenz trug zugunsten der Menschen, müssen wir lernen, ihm zu Vertrauen. Dazu müssen wir verstehen, warum die Leute so beharrlich weigern Vertrauen KI.
Vertrauen Sie dem Doktor Roboter
Der Versuch der IBM präsentieren суперкомпьютерную Programm ärzte-Onkologen (Watson for Oncology) war ein Fehlschlag. KI versprochen, hochwertige Empfehlungen für die Behandlung von 12 Krebsarten, davon entfallen 80% der Fälle in der Welt. Bis heute haben mehr als 14 000 Patienten erhielten die Empfehlung auf der Grundlage seiner Berechnungen.
Aber als die ärzte die erste Begegnung mit Watson, fanden Sie sich in einer ziemlich schwierigen Situation. Einerseits, wenn Watson gab Anweisungen bezüglich der Behandlung, die mit Ihren eigenen Meinungen, die ärzte nicht gesehen haben großen Wert in den Empfehlungen der KI. Supercomputer einfach erzählte Ihnen, was Sie bereits wussten, und diese Empfehlungen nicht verändert tatsächlichen Behandlung. Vielleicht gab ärzte die Ruhe und das Vertrauen in die eigenen Entscheidungen. Aber IBM ist noch nicht bewiesen, dass Watson wirklich erhöht die überlebensrate von Krebs.
Andererseits, wenn Watson gab die Empfehlung, die auseinander mit der Meinung von Experten, die ärzte haben festgestellt, dass Watson inkompetent. Und die Maschine konnte nicht erklären, warum Sie die Behandlung sollte funktionieren, weil Ihre algorithmen des maschinellen Lernens zu Komplex waren, dass Ihre Menschen verstehen konnten. Dementsprechend führte dies zu einem noch größeren Misstrauen, und viele ärzte einfach ignoriert Empfehlung der KI, die sich auf die eigene Erfahrung.
Infolge der Chief Medical Partner von IBM Watson — MD Anderson Cancer Center berichtete kürzlich über den Rücktritt vom Programm. Die Dänische Krankenhaus wurde auch berichtet, dass sich weigert, aus dem Programm, nachdem festgestellt, dass die Onkologen sind nicht einverstanden mit Watson in zwei von drei Fällen.
Das Problem onkologischen Watson war, dass die ärzte ihm einfach nicht Vertrauen. Das Vertrauen der Menschen hängt oft von unserem Verständnis dafür, wie andere Leute denken, und eigene Erfahrungen, stärken das Vertrauen in Ihre eigene Meinung. Dies schafft eine psychologische Gefühl der Sicherheit. KI, andererseits relativ neu und unverständlich für Menschen gebastelt. Er trifft Entscheidungen, basierend auf einem komplexen System analysieren, um mögliche versteckte Zusammenhänge und schwache Signale, die sich aus großen Datenmengen.
Auch wenn seine technischen Sprache erklärt werden kann, den Entscheidungsprozess der KI in der Regel zu kompliziert, um ihn verstehen konnten die meisten Menschen. Interaktion mit etwas, was wir nicht verstehen, kann einen Alarm auslösen und ein Gefühl des Verlustes der Kontrolle. Viele Menschen einfach nicht verstehen, wie und mit was funktioniert die KI, weil Sie sich irgendwo hinter einem Bildschirm, im hintergrund.
Aus diesem Grund bemerken Sie akut Fälle, in denen die KI ist falsch: denken Sie an Google Algorithmus, Stuft die farbigen Menschen wie Gorillas; чатбот Microsoft, wurde die Nazi weniger als einen Tag; Auto Tesla, der im Autopilot-Modus, in Folge dessen ereignete sich ein Unfall mit tödlichem Ausgang. Diese schlechten Beispiele haben unverhältnismäßig große mediale Aufmerksamkeit, die Tagesordnung der Unterstreichung der Tatsache, dass wir nicht verlassen sich auf die Technologie. Machine learning ist nicht 100% zuverlässig, zum Teil, weil seine projektieren Menschen.
Die Spaltung der Gesellschaft?
Gefühle, die künstliche Intelligenz verursacht, gehen Sie tief in die Natur des menschlichen Wesens. Vor kurzem haben Wissenschaftler ein Experiment durchgeführt, in dessen Verlauf die Menschen haben, die angesehenen Filme über künstliche Intelligenz (fantastische), zum Thema Automatisierung im Alltag. Es stellte sich heraus, dass unabhängig davon, wurde die KI der Film schildert in einer positiven oder einer negativen Art und Weise, eine einfache Wiedergabe der filmischen Darstellung unserer technologischen Zukunft polarisiert die Beziehungen der Teilnehmer. Die Optimisten sind noch optimistischer und Skeptiker noch stärker geschlossen.
Diese besagt, dass Menschen voreingenommen KI, ausgehend von der eigenen Argumentation, das ist die tief verwurzelte Tendenz, Vorurteile zu bestätigen: der Trend suchen oder Informationen zu interpretieren, so dass im Voraus bestätigen die Konzeption. Da die KI immer häufiger blitzte in den Medien, kann es dazu beitragen, die Tiefe Spaltung der Gesellschaft, einer Spaltung zwischen denen, die es benutzt die KI, und denen, die ihn ablehnt. Die vorherrschende Gruppe von Menschen bekommen kann, einen großen Vorteil oder Handicap.
Drei Ausgänge aus der Krise des Vertrauens KI
Zum Glück haben wir die Gedanken zum Thema, wie man mit dem Vertrauen auf die KI. Allein das Vorhandensein von Erfahrung mit KI erheblich verbessern kann die Einstellung der Menschen gegenüber dieser Technologie. Es gibt auch Beweise, die darauf hinweisen, dass je öfter Sie eine bestimmte Technologie (z.B. Internet), desto mehr werden Sie Ihnen Vertrauen.
Eine andere Lösung könnte darin bestehen, zum öffnen der «BLACK Box» algorithmen für maschinelles lernen und machen Ihre Arbeit transparenter. Unternehmen wie Google, Airbnb und Twitter, bereits veröffentlichen Berichte Transparenz über Staatliche Anfragen und Weitergabe von Informationen. Diese Praxis in KI-Systemen hilft, Menschen zu einem richtigen Verständnis davon, wie die algorithmen treffen Entscheidungen.
Studien zeigen, dass die Einbeziehung von Menschen in den Entscheidungsprozess auch die KI fördert das Vertrauen und ermöglicht die KI der menschlichen Erfahrung zu lernen. Die Studie ergab, dass Menschen, denen die Möglichkeit gegeben etwas zu verändern Algorithmus, fühlten große Zufriedenheit von den Ergebnissen seiner Arbeit, am wahrscheinlichsten, von-für Gefühle der überlegenheit und der Möglichkeit, Einfluss auf das zukünftige Ergebnis.
Wir müssen nicht verstehen, das komplexe Innenleben des KI-Systeme, aber wenn den Menschen zumindest ein wenig Informationen und Kontrolle darüber, wie diese Systeme implementiert, Sie werden mehr Vertrauen und dem Wunsch, KI im täglichen Leben.
Menschen kein Vertrauen in die KI. Wie man es beheben?
Ilja Hel