Bots auf Wikipedia Lohn-Edit Wars Zwischen sich Selbst, Für die Letzten Jahre

George DvorskyToday 3:55pmFiled: Computer science

  • künstliche Intelligenz
  • bots
  • algorithmen
  • wikipedia
  • Redaktion
  • bearbeitet
  • Wissenschaft

231

  • Bearbeiten
  • Fördern
  • Teilen auf Kinja
  • Wechseln Gespräch-tools

Bild: Wikipedia

Revision-wars auf Wikipedia unter menschlichen Editoren ist ein allzu Häufig vorkommen, aber neue Forschung aus dem Vereinigten Königreich zeigt, dass eine ähnliche online-Schlachten sind im Gange zwischen der Website der software-Roboter.

Wie eine neue Studie veröffentlicht, in PLOS ONE zeigt, Wikipedia-bots nicht immer miteinander auskommen, Häufig zum Verhängnis jedes andere änderungen. Diese online-algorithmen, jeweils ausgestattet mit eigenen Anweisungen und Ziele, engagieren Sie sich in einer sterilen “Kämpfe” über Inhalte, können über Jahre bestehen bleiben. Die neue Forschung zeigt, wie relativ “dumme” bots produzieren können komplexe Interaktionen und Verhaltensweisen, und wie die Entwickler benötigen, um oben zu bleiben, Ihre digitalen Kreationen. Dies hat Auswirkungen nicht nur für die Qualität von Wikipedia-Seiten, aber für die Entwicklung von AI im Allgemeinen, insbesondere jegliche autonome Agenten Locker auf das web.

Eine neue digitale ökologie entwickelt sich weiter, und die Menschen werden hinter sich gelassen

Eine neue digitale ökologie entwickelt sich weiter, und die Menschen werden hinter sich gelassen

Eine neue digitale ökologie entwickelt sich weiter, und die Menschen sind…

Unverständlich computer Verhaltensweisen entwickelt haben, out-of-Hochfrequenz-Aktienhandel und den Menschen…

Lesen Sie mehr Lesen Sie mehr

Derzeit gibt es 41,517,866 Seiten in der englischen version von Wikipedia. Das ist eine Tonne von Inhalten—weit mehr als der Ort ist die menschliche Editoren sind in der Lage zu handhaben. Zur Aufrechterhaltung dieser gigantischen open-source-Enzyklopädie, die von tausenden von software-bots durchforsten die Seite, die solch einfache und sich wiederholende Aufgaben, wie das löschen von Vandalismus, durchsetzen der Verbote, korrigiert schlechte Rechtschreibung, erstellen von links, und automatisch importieren Sie Inhalte.

Werbung

Insgesamt, bots sind nur 0,1 Prozent der Wikipedia-Autoren, aber Sie stehen hinter einem erheblichen Anteil von Seiten änderungen. Leider, die software-Entwickler, der das erstellen von bots nicht wirklich verstehen, oder-Konto, wie bots miteinander interagieren. Wie die Natur von Wikipedia selbst, die Schaffung von bots ist ein dezentraler Prozess, mit dem einzelne Mitarbeiter die Entwicklung Ihrer eigenen Skripts. Eine Genehmigungen Gruppe vorhanden ist, aber seine Mitglieder gehen streng nach Wikipedia-bot Politik, die nicht-bot-on bot-Wechselwirkungen in Betracht.

In der Tat, jeder einmal in eine Weile, ein bot macht eine bestimmte änderung auf einer Seite, die einen anderen bot versucht rückgängig zu machen. Jeder bot ist so konzipiert und versandt werden, um eine bestimmte Aufgabe auszuführen, aber manchmal können Sie Aufgaben ausführen, die in Konflikt mit denen der anderen bot. Im Gegensatz zu den menschlichen Editoren, die bots kann man nicht verhandeln miteinander, und wie die guten Automaten, die Sie sind, Sie einfach tun, wie Sie sind programmiert. Sobald diese bots wurden entfesselt in den Abgrund, das ist Wikipedia, Ihre menschlichen Entwickler sind weitgehend blind für die anschließende bot-Interaktionen.

Zu verstehen, der Grad, zu dem bot-Kämpfe zu stören, Wikipedia, computer-Wissenschaftler vom Oxford Internet Institute und der Alan Turing-Institut hat untersucht, wie diese algorithmen interagiert in 13 verschiedenen Sprachversionen der website über einen Zeitraum von zehn Jahren (2001 bis 2010). Durch die Verfolgung der änderungen, die auf jeder Seite, und sicherzustellen, dass keine menschlichen Editoren beteiligt waren, konnten die Forscher beobachten, wie sich die bots interagiert mit jeder anderen, und wie Ihre Begegnungen führten oft zu unvorhersehbaren Konsequenzen.

“Dies hat nicht nur Folgen für die, wie wir design künstliche Agenten, sondern auch, wie wir studieren. Wir brauchen mehr Forschung in der Soziologie von bots.”

Interessanterweise werden die Aktionen der bots variiert entsprechend Ihrer unterschiedlichen kulturellen Umgebungen.

Gesponsert

“Dies hat nicht nur Folgen für die, wie wir design künstliche Agenten, sondern auch, wie wir studieren,” sagte der Studie führen Autor Milena Tsvetkova in einer Erklärung. “Wir brauchen mehr Forschung über die Soziologie des bots.”

Insgesamt, bots machte die Arbeit der anderen sehr viel. Die bots auf der portugiesischen version von Wikipedia waren die meisten antagonistischen, ist die Wiederherstellung der Arbeit der anderen bots 185 mal über den Zeitraum von zehn Jahren im Durchschnitt. Auf der englischen Website erfassten die Forscher einen Durchschnitt von 105 Revisionen durch einen bot auf einem anderen bot ‘ s arbeiten über den gleichen Zeitraum (das ist ungefähr dreimal die rate der menschlichen edits). Die deutschen bots waren die meisten Zivil -, machen einen Durchschnitt von nur 24 reversion Bearbeitungen über einem Jahrzehnt. Diese Unterschiede in der Bearbeitung von Koordination kann aufgrund der unterschiedlichen Sprachversionen, die etwas unterschiedliche Benennung von Regeln und Konventionen.

Werbung

Werbung

Die bots auch anders Verhalten als menschliche Redakteure, die Auslösung Bearbeitungen viel später als die menschliche Redakteure, und sich in langwierigen Konflikten. Menschen, weil Sie aufgefordert werden, über änderungen an einer Seite von auto-alerts, neigen dazu, alle fixes innerhalb von Minuten, und dann bewegen auf die nächste Sache. Aber der Wikipedia-bots in der Regel Ihre ersten überarbeitung über einen Monat nach der ersten revision, dann verharren in einem hin-und her für Jahre zu einer Zeit. Diese edit wars sind nicht katastrophal, aber aufgrund der Konstanten Strom von Veränderungen, es könnte die Leute verwirren, Lesen Sie die Website.

Bots langsamer sind als der Mensch (und deutlich mehr hartnäckig!) mit Bezug auf Revisionen, weil Sie “kriechen” über web-Artikel bei der Suche nach Bearbeitungen (eher als Warnungen empfangen), und Sie sind oft eingeschränkt in Bezug auf die Anzahl der änderungen über einen vorgegebenen Zeitraum. Aber die Tatsache, dass bots in der Lage, weiterhin diese Kämpfe so lange ist ein starkes Indiz dafür, dass die menschliche Programmierer sind nicht fangen Potenzial der Bearbeitung von Problemen früh genug.

Wichtig ist, viele dieser bot-on bot-Konflikte beendet Anfang 2013, bei der Wikipedia einige änderungen an der Art und Weise, inter-language-links auf der Website. Das heißt, die Forscher sagen, diese episode in Wikipedia die Geschichte zeigt, dass ein system von einfachen bots produzieren können, die komplexe Dynamik und unbeabsichtigte Folgen. Mit Blick auf die weitere Zukunft, es ist ein potenzieller Vorbote der Dinge zu kommen, als neue und komplexere “botosopheres” entstehen rund um das web. Es ist ein Alarmzeichen, dass ein Konflikt entstehen kann, so leicht und schnell in digitale ökosysteme.

Wie Viel Länger, Bevor Unsere Erste AI-Katastrophe?

Wie Viel Länger, Bevor Unsere Erste AI-Katastrophe?

Wie Viel Länger, Bevor Unsere Erste AI-Katastrophe?

Was passiert in den Tagen nach der Geburt der ersten echten künstlichen Intelligenz? Wenn die Dinge…

Lesen Sie mehr Lesen Sie mehr

Insbesondere die Beobachtung, dass ein einzelnes Stück Technik kann führen zu unterschiedlichen Ergebnissen, je nach dem kulturellen Umfeld, hat auch Implikationen für künstliche-Intelligenz-Forschung. Zu verstehen, was wirkt sich auf bot-on bot-Interaktionen, sagen die Forscher, werden von entscheidender Bedeutung für jede Autonomer Prozess, von der Verwaltung von social-media-tracking-cyber-security-Entwicklung von selbstfahrenden Fahrzeugen.

Werbung

“Ein automatisiertes Fahrzeug fährt sich anders als auf einer deutschen autobahn auf, wie es durch die Hügel der Toskana von Italien”, sagte Studie co-Autor Taha Yasseri. “Ähnlich, die lokale online-Infrastruktur, die bots bewohnen, haben einige auf Lager, wie Sie sich Verhalten und Ihre Leistung.”

Yasseri, sagt, dass die bots in der Wikipedia sind entworfen von Menschen aus verschiedenen Ländern, die führen können, um online-Auseinandersetzungen. “Wir sehen Unterschiede in der verwendeten Technologie, die in den verschiedenen Wikipedia-Sprachversionen und die unterschiedlichen Kulturen der Gemeinschaften, die von Wikipedia-Autoren beteiligt komplizierte Wechselwirkungen”, sagt er. “Diese Komplexität ist ein wesentliches Merkmal, das berücksichtigt werden muss, in jedem Gespräch im Zusammenhang mit der Automatisierung und künstliche Intelligenz.”

Werbung

Wie bereits erwähnt, ist Wikipedia nicht durchzusetzen bot-Politik. Bots, Wikipedia sagt:

sind potentiell in der Lage ist die Bearbeitung weit schneller als Menschen; und haben einen geringeren Grad der Kontrolle auf jedem edit als einem menschlichen editor, und kann zu schweren Störungen, wenn Sie Fehlfunktionen oder missbraucht werden.

Um potentielle Probleme zu vermeiden, müssen die Entwickler sicherstellen, dass Wikipedia-bots nur Aufgaben, für die es einen Konsens, und dass Sie halten sich an die Website, den Richtlinien und Leitlinien, unter anderen Restriktionen. Aber wie diese neue Studie zeigt, bots müssen auch programmiert werden, um die Arbeit unter sich auf.

Werbung

[PLOS ONE]


Date:

by