Warum Nominierung “AI Alarmisten” für Dieses Jahr ist Maschinenstürmer Award Ist falsch

Why Nominating "AI Alarmists" for This Year's Luddite Award Is Misguided 

Der Information Technology & Innovation Foundation veröffentlicht hat seine Kandidaten für seine jährliche Maschinenstürmer Auszeichnungen. Erkenntnis “das Schlimmste Jahr schlimmsten innovation Mörder,” in diesem Jahr die Ernte umfasst alles von Einschränkungen auf car-sharing verboten automatische Nummernschild Leser. Aber durch die Bezugnahme auf “AI ” alarmisten” als neo-Luddites, die ITIF zu weit gegangen ist.

Die ITIF ist eine not-for-profit-think-tank mit Sitz in Washington, DC, das sich auf die öffentliche Politik, die Förderung der technologischen innovation. Jedes Jahr, die ITIF zusammen stellt eine Liste von dem, was es glaubt, sind die diesjährigen schlimmsten innovation Mörder. Benannt zu Ehren des Ned Lud, ein Engländer, führte eine Bewegung in der frühen 19ten Jahrhundert zu zerstören mechanisierte Webstühle, die Auszeichnung würdigt die krassesten Beispiele für eine Organisation, die Regierung oder einzelne Unterbindung der Fortschritt der technologischen innovation.

“Neo-Luddites nicht mehr ausüben, Vorschlaghammer, sondern bedienen Sie sich etwas viel mächtigeres: schlechte Ideen”, schreibt Robert D. Atkinson, ITIF Gründer und Präsident. “Für Sie arbeiten zu überzeugen, den Entscheidungsträgern und der öffentlichkeit, dass die innovation ist die Ursache, nicht die Lösung für einige unserer größten sozialen und wirtschaftlichen Herausforderungen, und daher etwas ausgebremst.” Er sagt “Sie suchen eine Welt, die weitgehend frei von Risiko, innovation, oder unkontrollierte ändern.”

In keiner bestimmten Reihenfolge, hier sind die diesjährigen Nominierten:

  • Alarmisten tout eine künstliche Intelligenz Apokalypse
  • Befürworter suchen ein Verbot von “killer-Roboter”
  • Staaten beschränken automatische Nummernschild Leser
  • Europa, China und die anderen wählen, taxi-Fahrer, die das car-sharing-Passagiere
  • Die Papier-Industrie lehnt e-Kennzeichnung
  • Kaliforniens Gouverneur Vetos RFID in Fahrer-Lizenzen
  • Wyoming outlaws “citizen science”
  • Die Federal Communications Commission Grenzen Breitband-innovation
  • Das Center for Food Safety Kämpfe genetisch verbesserte Essen
  • Ohio und andere ban Rotlicht-Kameras

Die ITIF ausgestellt einem begleitenden Bericht erklärt, in diesem Jahr die Ernte der Nominierten, wenn Sie so wollen, eine detaillierte Erklärung für jedes Element oben ich schlage vor, Sie check it out. Das Institut ist außerdem startete eine online-Umfrage gefragt, die öffentlichkeit, um für Ihren Favoriten Stimmen Eintrag. Die “Gewinner” werden angekündigt, irgendwann im Januar.

Gesponsert

Blick auf die Liste der Nominierten, die letzten sieben items Sinn machen, kann ich zwar irgendwie verstehen, warum RFID-tags in Fahrer-Lizenzen könnte man als eine Privatsphäre und Sicherheit Sorge. Aber wie für die ersten beiden, und die Auflistung von “AI-alarmisten” als neo-Luddites, gut, jetzt hat mich ein bisschen gestört.

Der verhindert, dass ein AI-Apokalypse

Die ITIF Beschwerde über alarmisten wirbt eine künstliche Intelligenz Apokalypse zu tun hat mit einem offenen Brief in Handarbeit von der Zukunft des Lebens-Institut früher in diesem Jahr. Bill Gates, Stephen Hawking, Elon Musk, und andere Persönlichkeiten des öffentlichen Lebens unterzeichnet den Brief, warnte, die über das Potenzial für AI, um schließlich die Flucht aus unseren Steuern und sich als eine apokalyptische Bedrohung. Zur gleichen Zeit, jedoch, die Unterzeichner geschoben verantwortlich AI Aufsicht als ein Weg, um Risiken zu verringern und sicherzustellen, dass das “gesellschaftlichen nutzen” der Technik.

Why Nominating "AI Alarmists" for This Year's Luddite Award Is Misguided 

(Bild: Avengers: Age of Ultron (2015))

Aber der ITIF, dies ist nur ein weiterer Versuch, stall wichtige innovation. Was mehr ist, das Institut behauptet, dass AI ist anscheinend nichts zu befürchten, weil es zu weit in der Zukunft.

“Ob solche Systeme werden immer entwickeln volle Autonomie ist eine strittige Frage, aber was nicht umstritten ist, dass diese mögliche Zukunft ist ein langer, langer Weg (mehr wie ein Jahrhundert als ein Jahrzehnt), und es ist daher zu früh, um sich Gedanken über ‘Skynet’ selbst-gewahr zu werden”, sagt Atkinson, “in der Tat, die Fortsetzung der negativ-Kampagne gegen die künstliche Intelligenz könnte potenziell trocken-up-Finanzierung für die KI-Forschung, andere als Geld für so Steuern, anstatt diese zu ermöglichen, AI.”

Atkinson behauptet, diese sci-fi-Endzeit-Szenarien machen es schwieriger für die öffentlichkeit, Politiker und Wissenschaftler zu unterstützen, mehr Mittel für die KI-Forschung.

Bezeichnenderweise die ITIF nicht zu erwähnen, die vor kurzem angekündigt, nicht-for-profit-OpenAI research-Unternehmen Mitbegründer von Elon Musk. Die $1 Milliarde initiative engagiert sich “fortschreitende digitale Intelligenz in einer Weise, die am ehesten profitieren die Menschheit als ganzes.” Das Projekt schließt sich anderen ähnlichen Initiativen namhafte Unternehmen wie Google, Apple und IBM. Mehrere ähnliche Akademische Initiativen existieren, als auch, wie die Zukunft der Menschheit-Institut in Oxford und die vor kurzem Zentrum für die Erforschung der Existentiellen Risiko an der Universität von Cambridge.

Diese Initiativen—nicht zu vergessen die Milliarden ausgegeben KI-Forschung und Entwicklung rund um die Welt—zeigen, dass Atkinson Anliegen zu hoch angesetzt sind. Was mehr ist, und in den Geist des FLI offenen Brief, es ist definitiv nicht zu früh, um sich Gedanken über die möglichen Risiken. Das überleben der Menschheit auf dem Spiel steht. Das Aufkommen der starke künstliche Intelligenz—und vor allem künstliche superintelligenz—könnte beweisen, dass die meisten störende technologische innovation in der Geschichte unserer Spezies, deshalb ist es wichtig, dass wir es richtig machen. Klar, wir reden hier nicht über das Ned Lud ‘ s steam-powered Webstühle.

Tod den Tötungsmaschinen

Und dann gibt es das Problem der autonomen Waffen. Teil des ITIF die Beschwerde hat zu tun mit einem weiteren offenen Brief im Auftrag des FLI, einen Aufruf für ein völliges Verbot von autonomen Tötungsmaschinen. Unterzeichner enthalten Hawking, Moschus, Steve Wozniak, Noam Chomsky, MIT der Physiker Max Tegmark, und Daniel C. Dennett.

Why Nominating "AI Alarmists" for This Year's Luddite Award Is Misguided 

(Bild: Robocop (1987))

Die ITIF hatte auch ein problem mit einem un-treffen statt früher in diesem Jahr zu überlegen, ein formelles Verbot oder andere Einschränkungen auf killer-AI, und einen besonderen Bericht aus der Feder von Human Rights Watch und der Harvard Law School, forderte für ein moratorium für solche Waffen.

Atkinson, sagt die Argumente, die gegen das töten von Maschinen “mit Blick auf die Tatsache, dass das Militär deutlich profitieren, denn ersetzen Roboter für die Soldaten auf dem Schlachtfeld eine Erhöhung der militärischen Fähigkeiten, während erheblich verringern das Risiko für die Personal -, und fügte hinzu, dass es “möglich, dass autonome Waffen könnte so programmiert werden, dass nur eingreifen bekannt feindliche Kämpfer, die führen kann zu einer Reduzierung des zivilen opfern.”

Atkinson schließt mit den Worten, dass “die Schlacht zu verbieten autonomen Waffen, ähnlich wie der Kampf um künstliche Intelligenz, gegen die Gesellschaftliche Ziel der Entwicklung von Innovationen, die Verbesserung des menschlichen Lebens.”

Die ITIF zu Recht, dass die Roboter-Waffen haben das Potenzial zur Verringerung der Todesfälle auf den killing field, aber die Vorstellung, dass diese Systeme in der Lage sein, auf der Unterscheidung zwischen Kombattanten und Zivilisten ist schwer zu schlucken. Was mehr ist, als mit allen militärischen innovation, es muß davon ausgegangen werden, dass der Feind entwickeln sich schließlich seine eigene version. Endlich, ein AI-Wettrüsten führen könnte superintelligenten Systeme, die den Kampf um die Vorherrschaft, die außerhalb der menschlichen Einsicht und Kontrolle. Sollte dies geschehen, werden wir keine andere Wahl haben, lehnen Sie sich zurück und hoffe, die bekommen wir nicht in den Prozess zerstört.

Ein grundlegendes problem mit der ITIF ist seinen UNERSCHÜTTERLICHEN glauben an die menschliche Gesellschaft anzupassen, um Ihre Technologien. Bisher haben wir weitgehend gelungen. Wir haben es sogar geschafft, zu überleben — zumindest für heute — die Entwicklung des ersten apokalyptischen angelegte Waffe in der form der Atombombe. Leider, andere Gefahren, die auf uns in der Zukunft, so dass wir am besten fertig werden.

Zur gleichen Zeit, wir haben Sie das Recht, Sie zu warnen, diese potenziellen Gefahren, ohne die Angst, gebrandmarkt Maschinenstürmer.

[ ITIF I, II, III ]

Den Autor E-Mail an george@gizmodo.com und ihm Folgen unter @dvorsky. Bild oben: Ex Machina (2015)


Date:

by