Künstliche Intelligenz bereits in irgendeiner Weise hilft, Ihre Zukunft zu entscheiden. Wenn Sie suchen etwas in einer Suchmaschine, den Dienst wie Netflix oder die Bank bewertet Ihre EIGNUNG für die Hypothek. Aber was, wenn die künstliche Intelligenz noch definieren, Sie schuldig sind oder nicht, vor Gericht? Seltsam genug, in einigen Ländern ist es bereits möglich, geschieht. Vor kurzem amerikanischen hohen Richter John Roberts fragte, ob er den Tag vorstellen, wenn «intelligente Maschinen, gesteuerte künstliche Intelligenz, helfen bei der Suche nach Indizien oder sogar die Annahme von urteilen». Er antwortete: «Dieser Tag ist schon gekommen, und er trägt im wesentlichen die Justizbehörden bei der Herstellung von Angelegenheiten».
Vielleicht Roberts meinte der jüngste Fall von Eric Loomis ausgezeichnet, der verurteilt zu sechs Jahren Haft auf Empfehlung des geheimen proprietärer Software ist ein privates Unternehmen. Loomis, der bereits Vorstrafen hatte und dafür verurteilt wurde, entkam der Polizei auf einem gestohlenen Auto, jetzt behauptet, dass sein Recht auf ein Verfahren verletzt wurde, da weder er noch seine Vertreter nicht prüfen konnten oder gegen die der Algorithmus Empfehlungen.
Der Bericht wurde auf die produzierte Programm Compas, die verkauft Notrpointe Schiffe. Das Programm verkörpert einen neuen Trend in der KI-Forschung: es hilft, die Richter nehmen die «besten» (oder zumindest mehr fokussiert auf die Daten) eine Entscheidung vor Gericht.
Obwohl die spezifischen Einzelheiten des Falles geschlossen bleiben Loomis ausgezeichnet, darin sicherlich enthalten Diagramme und zahlen, die ein Leben beschreiben, das Verhalten und die Wahrscheinlichkeit eines Rückfalls Loomis ausgezeichnet. Darunter Alter, Rasse, Geschlechtsidentität, Gewohnheiten, Browserverlauf und einige Dimensionen des Schädels. Genau weiß niemand.
Es ist bekannt, dass der Staatsanwalt in der Sache sagte dem Richter, dass Loomis gezeigt «hohes Risiko рецидивизма, Gewalt, Vorverfahren». Dies ist Standard, wenn es um die Aburteilung. Der Richter stimmte zu und sagte Лумису, dass «nach Einschätzung der Compas er wurde definiert als die Person, die ein hohes Risiko für die Gesellschaft».
Das Wisconsin-oberste Gericht verurteilte Loomis ausgezeichnet, fügte hinzu, dass der Bericht Compas brachte wertvolle Informationen in seine Entscheidung, wies aber darauf hin, dass ohne ihn, er hat den gleichen Satz. Testen es ist sicher, natürlich, wird nicht funktionieren. Was könnte kognitive Vorurteile, wenn in der Tat beteiligt ist allmächtig «intelligentes» System wie Compas, rät die Richter, wie Sie zu handeln?
Unbekannte Verwendung
Seien wir ehrlich, es ist nichts «illegal» ist, was machte das Gericht von Wisconsin — dies ist nur ein Beispiel. Andere Gerichte können und werden das gleiche tun.
Leider wissen wir nicht, in welchem Umfang verwendet die KI und andere algorithmen bei der Strafzumessung. Es gibt die Meinung, dass einige Gerichte «testen» Systeme wie Compas in geschlossenen Studien, aber können sich nicht lautstark über Ihre Partnerschaft. Es gibt auch die Meinung, dass einige Startups KI entwickeln ähnliche intelligente Systeme.
Allerdings ist die Verwendung von KI in der Gesetzgebung nicht beginnt und nicht endet mit dem Erlass des Urteils, es beginnt mit der Untersuchung. In Großbritannien bereits ein System entwickelt VALCRI, die erledigt zeitraubende analytische Arbeit in wenigen Sekunden — schleicht sich durch Tonnen von Daten wie Texte, Laborberichte und polizeiliche Dokumente, um Sachen hervorzuheben, die erfordern weitere Untersuchungen.
Die Polizei West Midlands in Großbritannien testet VALCRI in den nächsten drei Jahren mit anonymen Daten, die mehr als 6,5 Millionen Datensätze. Ähnliches Test wird von der Polizei von Antwerpen in Belgien. Doch in der Vergangenheit die Projekte der KI und Tiefe der Ausbildung, die massiven Datenmengen, waren problematisch.
Vorteile für die wenigen
Technologie zur Verfügung stellten viele nützliche Utensilien Hallen des Gerichts, vom Kopierer bis zum extrahieren von DNA aus Fingerabdrücken und komplexe Methoden der Beobachtung. Aber das bedeutet nicht, dass jede Technologie ist eine Verbesserung.
Obwohl die Verwendung von KI in die Ermittlungen und Urteile kann potenziell sparen Sie Zeit und Geld, es spawnen akute Probleme. In dem Bericht über die Compas von ProPublica wurde klar gesagt, dass die schwarzen das Programm fälschlicherweise glaubt anfälliger für рецидивизму Beklagten als weiße. Auch die komplexe KI-System können Erben rassistische und sexistische Vorurteile derer, die Sie schafft.
Außerdem, welchen Sinn Beschlussfassung zu verlagern (zumindest teilweise) auf Fragen, die einzigartig für Menschen, die Algorithmus? In den USA gibt es eine gewisse Schwierigkeit, wenn die Jury richtet Ihre Altersgenossen. Standards in den Gesetzen wurden nie Referenz, weil diese Jurys gelten als die demokratischen und leistungsfähigen Systemen Verurteilung. Wir machen Fehler, aber mit der Zeit sammeln wissen darüber, wie Sie nicht machen,, die System aktualisiert Fasten.
Compas und ähnliche Systeme stellen eine «BLACK Box» im Rechtssystem. Solcher sollte nicht sein. Rechtssysteme sind abhängig von der Kontinuität, der Transparenz von Informationen und die Fähigkeit zur Entscheidung. Die Gesellschaft will nicht die Entstehung des Systems, fördert die Rasse mit der Gründung von Start-UPS KI, die machen eine schnelle, billige und exklusive Lösungen. Hastig gemacht die KI ist schrecklich.
Eine aktualisierte Version der Compas mit Open-Source wäre eine Verbesserung. Aber zuerst müssen Sie heben die Standards der Justiz, bevor wir anfangen zu Schießen Verantwortung zugunsten der algorithmen.
Warum die KI, dass die Richter die Verbrecher, — ist das gefährlich?
Ilja Hel