DeepMind kunngjør etikk gruppe til å fokusere på problemer av AI

Firmaet bringer i veiledere fra akademia og kjærlighet sektor for å ‘hjelpe teknologer sette etikk i praksis” i forsøk på å hjelpe samfunnet takle kunstig intelligens

@alexhern

Onsdag 4. oktober 2017 10.46 BST

Sist endret onsdag 4. oktober 2017 11.02 BST

Deepmind, Google ‘ s London-basert AI-forskning søsken, har åpnet en ny enhet fokusert på de etiske og samfunnsmessige spørsmål som reises av kunstig intelligens.

Den nye research unit vil ta sikte på “å hjelpe teknologer sette etikk i praksis, og å bidra til samfunnet forventer og direkte virkningen av AI, slik at det fungerer til fordel for alle”, ifølge selskapet, som rammet overskrifter i 2016 for å bygge den første maskinen til å slå verdensmester på den gamle Asiatiske styret spillet Gå.

Selskapet er å bringe inn eksterne veiledere fra akademia og veldedige sektor, inkludert Columbia utvikling av professor Jeffrey Sachs, Oxford AI-professor Nick Bostrom, og klimaendringer kampanjeleder Christiana Figueres til å gi råd til enheten.

“Disse Guttene er viktig ikke bare for den kompetansen de bringer, men for mangfoldet trodde de representerer ikke,” sa enhet ‘ s co-fører, Sannhet Harding og Sean Legassick, i innlegget annonsere sin skapelse.

Apparatet, kalt DeepMind Etikk og Samfunn, er ikke AI Etikk Styret som DeepMind ble lovet når det er avtalt å bli kjøpt opp av Google i 2014. Styret, som ble sammenkalt av januar 2016, var ment å føre tilsyn med alle selskapets AI-forskning, men ingenting har blitt hørt av det i tre-og-et-halvt år siden oppkjøpet. Det er fortsatt et mysterium som er på det, hva de diskuterer, eller selv om det offisielt er oppfylt.

DeepMind Etikk og Samfunn er heller ikke det samme som DeepMind Helse er Uavhengige Review-Panelet, en tredje kroppen satt opp av selskapet å gi etiske tilsyn – i dette tilfellet, av sine spesifikke operasjoner i helsevesenet.

DeepMind leverer tjenester til en rekke BRITISKE sykehus, inkludert dens Bekker app, som har som mål å bringe moderne mobile-first kommunikasjon i NHS, samt en rekke AI-fokusert forskningsprosjekter som ser på bruk av maskinlæring for å hjelpe deg med å diagnostisere visuelle problemer og behandle kreft. Den review-panelet har møtt flere ganger, og laget sin første årlige rapport i juli 2017, et par dager etter DeepMind er NHS partner Royal Free mottatt en dask på håndleddet fra Information Commissioner ‘ s Office for feil data overføringer.

Eller er det nye research unit Partnerskap på Kunstig Intelligens, til Fordel for Folk og Samfunn, er en ekstern gruppe grunnlagt i en del av DeepMind og ledet av selskapets co-grunnlegger Mustafa Suleyman. Dette partnerskapet, som også var co-grunnlagt av Facebook, Amazon, IBM og Microsoft, som eksisterer for å “drive forskning, anbefaler beste praksis, og publisere forskning under en åpen lisens i områder som etikk, rettferdighet og inclusivity”.

Musk

Facebook

Twitter

Pinterest

Tekniske ledere som Elon Musk og Mark Zuckerberg har ført til diskusjon om potensielt katastrofal effekt av super-intelligent AI. Foto: Evan Vucci/AP

Likevel, etableringen er kjennetegnet av en endring i holdningen fra DeepMind løpet av det siste året, som har sett selskap revurdere sin tidligere lukkede og hemmelighetsfull outlook. Det er fortsatt kjemper for en bølge av dårlig publisitet i gang når det inngått samarbeid med det Kongelige Gratis i hemmelighet, å bringe app Strømmer til aktiv bruk i sykehus i London uten å være åpen for publikum om hvilke data som ble delt, og hvordan.

Forskning enhet reflekterer også en haster på en del av mange AI utøvere til å komme i forkant av økende bekymring på den delen av det offentlige om hvordan den nye teknologien vil forme verden rundt oss. Noen teknologien ledere, for eksempel Elon Musk og Mark Zuckerberg, har ført til diskusjon om potensielt katastrofal effekt av super-intelligent AI. Andre eksperter er mer bekymret for den kortsiktige risikoen for outsourcing stadig mer komplekse og alvorlige beslutninger til systemer som operasjon vi fortsatt ikke fullt ut forstår, men som synes å være utsatt for å kroppsliggjøre den verste i menneskehetens pre-eksisterende skjevheter og fordommer.

Ett par av forskere, Ryan Calo og Kate Crawford, anerkjennende sitert av DeepMind, skrev i publikasjonen Natur: “Autonome systemer er allerede utplassert i våre mest avgjørende sosiale institusjoner, fra sykehus til å courtrooms. Det finnes ennå ingen enighet om metoder for å vurdere vedvarende effekter av slike programmer på menneskelige populasjoner.”

Designere og forskere, Calo og Crawford skrev, “behov for å vurdere virkningen av teknologi på sine sosiale, kulturelle og politiske innstillinger”.

  • Elon Musk fører 116 eksperter kaller for regelrett forbud mot killer roboter

Date:

by