Top 5 am Meisten Sorgen bereitet AI Trends 2018, Nach Oben Forscher

Foto: Tomohiro Ohsumi (Getty)

Künstliche Intelligenz ist schon die Spirale außerhalb unserer Kontrolle, ein neuer Bericht von der top-Forscher warnt. Nicht so sehr in einem Skynet Art von Sinn, sondern eher in einer ‘Technologie-Unternehmen und Regierungen sind schon mit AI in einer Weise, die amp-up-überwachung und weiter marginalisieren gefährdeten Populationen’ Art und Weise.

Am Donnerstag, den AI Nun-Institut, das verbunden ist mit der New York University und ist die Heimat von top-KI-Forscher mit Google und Microsoft, veröffentlichte einen Bericht, der detailliert, im wesentlichen den Zustand von AI im Jahr 2018, und die Reihe von beunruhigende trends, die sich in das Feld. Was wir allgemein definieren als KI—maschinelles lernen, automatische Systeme, etc.—ist momentan schneller entwickelt, als unser Regelwerk ist gut vorbereitet, sagt der Bericht. Und es droht zu konsolidieren macht in der tech-Unternehmen und repressiven Regierungen, die Bereitstellung von AI beim Rendern nur etwa jeder andere mehr anfällig für seine Neigungen, Kapazitäten für die überwachung, und Vielzahl von Dysfunktionen.

Der Bericht enthält 10 Empfehlungen für politische Entscheidungsträger, die scheinen, sound, sowie eine Diagnose der potenziell zerstörerischen Tendenzen. “Die Regierungen müssen Regeln AI”, die erste Empfehlung ermahnt, “durch die Erweiterung der Befugnisse der Sektor-spezifischen Agenturen zu überwachen, zu überprüfen und überwachen Sie diese Technologien durch die Domäne.” Eine riesige Abteilung von AI oder so, das versucht zu Regeln, das Spielfeld groß geschrieben wird nicht schneiden Sie es, Forscher warnen—der Bericht schlägt vor, die Regulierungsbehörden Folgen Beispiele wie die von der Federal Aviation Administration und Bewältigung von AI, wie es sich manifestiert, Feld für Feld.

Aber es vermittelt auch eine die lapidare Einschätzung der wichtigsten Problemfelder in der AI, wie Sie stehen, im Jahr 2018. Wie detaillierte durch AI Nun, Sie sind:

  1. Die Verantwortlichkeit Kluft zwischen denen, die bauen das KI-Systeme (und der Gewinn aus von Ihnen) und diejenigen, die sich betroffen von den Systemen (du und ich) wächst. Weiß nicht, wie die Idee des seins unterzogen, um künstlich intelligente Systeme, die Ernte Ihrer persönlichen Daten oder bestimmen verschiedene Ergebnisse für Sie? Schade! Der Bericht stellt fest, dass der Rückgriff meisten öffentlichen Bürger auf die sehr künstlich intelligente Systeme, die Auswirkungen auf Sie schrumpft, nicht wächst.
  2. AI wird verwendet, um zu verstärken, überwachung, oft in abscheulicher Weise. Wenn Sie denken, dass die überwachung der Kapazitäten der Gesichts-Anerkennung Technologie, stören, warten, bis Sie sehen, wird es noch weniger Skrupel Vetter, beeinflussen Anerkennung. Der Schnittpunkt des Sam Biddle hat eine gute write-up des Berichts ist die Behandlung der Auswirkungen auf die Anerkennung, die im Grunde ist modernisiert phrenology, praktiziert in Echtzeit.
  3. Die Regierung umfassende autonome Entscheidung, die software im Namen von Kosten-Einsparungen, aber diese Systeme sind oft eine Katastrophe für die benachteiligten. Von Systemen, die den Anspruch haben, zu rationalisieren Vorteile Anwendung Prozesse online, um diejenigen, die behaupten in der Lage zu bestimmen, wer ist berechtigt für den Wohnungsbau, so genannte ADS-Systeme sind in der Lage das hochladen von bias und fälschlicherweise Ablehnung von Bewerbern auf haltlosen Gründen. Als Virginia Eubanks details in Ihrem Buch die Automatisierung von Ungleichheit, die Menschen, die diese Systeme Versagen, sind diejenigen, die die wenigsten aufbringen können, die Zeit und Ressourcen erforderlich, um Sie zu lösen.
  4. KI-Tests “in the wild” ist weit verbreitet bereits. “Silicon Valley ist bekannt für seine” move fast and break things ” – Mentalität,” der Bericht stellt fest, und das ist, was zu Unternehmen testen KI-Systeme im öffentlichen Sektor—oder er Sie in den consumer-Bereich geradezu—ohne wesentliche Kontrolle. Die jüngste Erfolgsbilanz von Facebook—das original move fast, break thingser-und AI-evangelist—allein ist Beispiel genug, warum diese Strategie kann als desaströs erweisen.
  5. Technologische Verbesserungen zu voreingenommen oder problematisch KI-Systeme sind unzureichend erweist. Google hat Wellen, wenn es angekündigt, es war der Kampf gegen die Ethik des maschinellen Lernens, aber Bemühungen wie diese sind bereits aufgezeigt, zu eng und zu technisch orientiert. Ingenieure neigen zu denken, Sie können fix engineering Probleme mit, naja, mehr Technik. Aber was ist wirklich erforderlich, ist der Bericht argumentiert, ist ein viel tieferes Verständnis für die Geschichte und die gesellschaftlichen Zusammenhänge der Datensätze, die KI-Systeme geschult sind.

Der vollständige Bericht ist sehr lesenswert, sowohl für eine tour durch die unzähligen Möglichkeiten der KI in den öffentlichen Raum—und kollidierte mit dem öffentlichen Interesse—im Jahr 2018, und für eine detaillierte Rezept, wie unsere Institutionen könnten, bleiben auf top-immer-erschwert die situation.

Diese Geschichte ist Teil des Automaten, eine laufende Untersuchung zu den Auswirkungen von KI und Automatisierung auf die menschliche Landschaft. Für Tipps, feedback, oder andere Ideen über das Leben mit dem Roboter, ich kann erreicht werden unter bmerchant@gizmodo.com.

Teilen Sie Diese Geschichte


Date:

by