Wikipedia Bruker kunstig INTELLIGENS til å Hjelpe Menneskelige Redaktører

Den
Wikimedia Foundation denne uken rullet ut en tjeneste utviklet for å forbedre kvaliteten på Wikipedia-artikler.

Wikipedia Uses AI to Assist Human Editors

Målet Revisjon Evaluering Tjenesten bruker kunstig intelligens og machine learning for å hjelpe Wikipedia redaktører identifisere skadelig artikler mer raskt og tilordne kvalitetspoeng til dem raskere.

Hver dag, Wikipedia er redigert noen 500 000 ganger, Wikimedia sa. Redaktører, de fleste av dem frivillige, har til å gjennomgå alle disse endringene.

MALMER gjør at de redaktører-til-node-til innkommende innhold for å identifisere potensielt skadelige endringer raskt og isolere dem for fremtiden gransking.

En skade rediger kan omfatte innsetting av personlige mening eller uanstendig i en artikkel.

Rediger Triage

“Hvis du er i media i det hele tatt, det er en sjanse for at noen kommer til å mislike noe som du sa, og kommer til å prøve å skade Wikipedia-side,” sa Rob Enderle,
rektor analytiker på Enderle Group.

At atferden, om, passer til et mønster, et mønster som et system som MALMER kan adresse. “Lav-nivå AI er virkelig god på å identifisere mønstre og ta foreskrevet tiltak mot mønstre den anerkjenner,” fortalte han TechNewsWorld.

“Med mindre du har massevis flere mennesker enn Wikipedia har, vil du aldri være i stand til å holde tritt med den dårlige redigeringer,” Enderle sa.

Med MALM, “Wikipedia kan være mer pålitelige og mindre sannsynlig å bli brukt som et verktøy for å skade noen,” la han til.

Det gir Wikipedia redaktører med en suite av verktøy de kan bruke til å hjelpe dem med å sortere endringer av sannsynligheten for at de er skadelige.

“Som gjør at editor til å skrive en anmeldelse mest sannsynlig å være skadelig redigeringer først,” sa Wikimedia Senior Research Scientist Aron Halfaker. “Som kan redusere arbeidsmengden til å gjennomgå endringer med om lag 90 prosent.”

Mindre Redigering, Flere Artikler

MALMER anslår sannsynligheten for at en endring er skadelig ved å trekke på kunnskap er det gevinster å sammenligne før-og-etter-redigering av alle artikler som vises i Wikipedia.

Det bruker denne kunnskapen til å tilordne en poengsum til en foreslåtte endringen. Score kan hentes raskt — i 50 til 100 millisekunder — og kan brukes til å identifisere problematiske redigeringer raskt.

Om 3 til 4 prosent av den daglige endringer av Wikipedia-artikler er skadelig. Luke de skadelige endringer fra firehose av endringer flom Wikipedia hver dag er en tung oppgave for redaktører. Det er i mindre grad med MALM, sa Wikipedia.

“Vår maskin læring modellen er god nok på å sortere de endringer av sannsynligheten for at de er skadelige for at du ville ha til å skrive en anmeldelse 10 prosent av innkommende redigeringer å vite at du har tatt alle de skadelige endringer,” Halfaker fortalte TechNewsWorld. “Uten dette verktøyet, vil du ha å gjennomgå alle endringer skal vite at du fanget alle de skadelige endringer.”

Selv om MALMER seg ikke direkte til å forbedre kvaliteten på artikler i Wikipedia, det gjør det indirekte ved å sørge for at redaktører fange all skadelig innhold og frigjøre disse redaktørene å opprette flere artikler av sine egne.

“En av grunnene til at vi ønsker å redusere arbeidsmengden rundt kvalitetskontroll er slik at redaktører kan bruke mer av sin tid med å arbeide på nye artikkelen som innhold i stedet for å fjerne vandalisme,” Halfaker sa.

Wikipedia får om lag 12 millioner timer frivillig arbeid i året. “Mye av det disse kunstig intelligens-systemer gjør er mer effektivt gjelder at menneskelig oppmerksomhet til problemet med å skrive en høy kvalitet leksikon,” sa han.

Teknologi er Begrensninger

Mens MALM-adresser ett aspekt av kvalitetskontroll på Wikipedia, som er et større problem gjenstår, bemerket Sorin Adam Matei, førsteamanuensis ved

Purdue University (universitet) som studerer forholdet mellom informasjonsteknologi og sosiale strukturer i kunnskap markeder.

Ren science artikler som omfatter et smalt bånd av faktiske sannhet, som oppføring på pi, og er svært nøyaktige i Wikipedia. “Det er ikke lett å forfalske disse typer artikler,” fortalte han TechNewsWorld.

I samfunnsvitenskap og humaniora områder, men at artikler blir mer og mer uklar informasjon som er lagt til dem, Matei fortsatte.

“Nøyaktighet blir en moot punkt. Det er ikke det at de er ikke nøyaktige. Det er historiene som de bygger er så kompleks og vanskelig å lese, at når du kommer til enden av dem, vet du ikke hva du tror,” sa han.

“Jeg tror Wikipedia er problemet er at det er produktet av mange sinn å trekke det i alle slags retninger, og en ren teknisk løsning for det har ikke blitt oppfunnet ennå,” Matei sa.

“De prøver ikke å håndtere den virkelige meningsfylt problem som Wikipedia konfronterer oss med,” la han til. “Det er ikke det at Wikipedia fører oss på villspor fra den ene sannhet, men det har bygget inn det alle typer sannheter som du trenger å se gjennom nøye.”

John Mello er en freelance teknologi forfatter og bidragsyter til Chief Security Officer magazine. Du kan få kontakt med ham på
Google+.


Date:

by