Trussel mod menneskeheden: hvorfor har vi brug for intelligente kunstig intelligens?

Når Norbert Wiener, far af Kybernetik, skrev sin bog “den Menneskelige udnyttelse af de menneskelige væsener” i 1950, vakuumrør, der var stadig den vigtigste elektroniske byggesten og i øvrigt, at der kun var et par computere. Men han forestillede sig den fremtid, vi nu iagttager, med hidtil uset præcision, har lavet en fejl kun i ubetydelige detaljer.

Før nogen anden filosof af kunstig intelligens, at han indså, at AI er ikke blot at efterligne og erstatte mennesker i mange typer af intellektuel aktivitet, men også ændre mennesker i processen. “Vi er bare spabade i floden for evigt strømmende vand,” skrev han. “Vi er ikke noget, der bare liv, vi er mønstre, der fastholder sig selv.”

For eksempel, når der er en masse attraktive funktioner, vi er villige til at betale for og acceptere en mindre omkostninger ved at drive forretning for at få adgang til nye muligheder. Og meget snart er vi blevet afhængige af nye værktøjer, vi mister evnen til at eksistere uden dem. Valg blive obligatorisk.

Dette er en meget gammel historie om evolution, og et Kapitel fra hendes velkendt for os. De fleste pattedyr kan syntetisere deres eget C-vitamin, men primater, spiser mest frugt, har mistet denne indbyggede evne. Self-mønstre, som vi kalder mennesker, nu afhænger af klæder, forarbejdede fødevarer, vitaminer, sprøjter, kreditkort, smartphones og Internet. Og i morgen, hvis ikke i dag, — fra kunstig intelligens.

Wiener forudså flere problemer med denne situation er, at Alan Turing og de andre tidlige optimister AI i høj grad overset. Den virkelige trussel, han sagde, var:

…at sådanne maskiner, selvom hjælpeløs af sig selv, kan anvendes af den person eller blok af mennesker for at øge deres kontrol over resten af race eller politiske ledere kan forsøge at tage kontrol over mennesker, ikke maskiner selv, og politiske metoder, stjal så smal og ligeglade med den person, som, hvis de blev opfundet for mekanisk.

Selvfølgelig, disse farer er nu meget relevant.

I medierne, for eksempel, innovationer i digital lyd og video giver os mulighed for at betale en lille pris (i øjnene af entusiaster og film elskere) for afvisning analoge formater, og får til gengæld meget simpelt — alt for simpel måde at spille poster med næsten ingen begrænsninger.

Men der er en enorm skjult pris. Ministeriet for sandhed, Orwell blev en reel mulighed. Metoder fra AI til at skabe stort set umulig at skelne falske “poster” for at gøre forældede værktøjer, som vi har brugt til de undersøgelser, der i de sidste 150 år.

Vi er bare nødt til at opgive den korte periode fotografisk dokumentation og vende tilbage til den gamle verden, hvor en persons hukommelse, og den tillid, som var det guld-standarden. Eller kan vi udvikle nye metoder til forsvar og angreb i kamp for sandheden. En af de spændende seneste eksempler var, at ødelægge omdømmet for en del billigere end den samme ry for at tjene og beskytte. Wiener så dette fænomen er meget bredt: “På lang sigt er der ingen forskel mellem at bevæbne os selv og bevæbne fjenden.” De oplysninger, alder, var også en alder af misinformation.

Hvad kan vi gøre? Det centrale er, observation af Wiener, at “disse biler” “hjælpeløs af sig selv.” Vi skaber værktøjer, ikke kolleger, og den reelle trussel er, at vi ikke kan se forskellen.

Kunstig intelligens i sin nuværende manifestationer, er en parasit på den menneskelige intelligens. Han temmelig rask væk tager i besiddelse af alle, der var skabt af mennesker-skaberne, og fjern mønstre — herunder vores mest hemmelige vaner. Disse maskiner endnu ikke har mål eller strategier er ikke i stand til selv-kritik og innovation, er de kun på at studere vores databaser uden at have dine egne tanker og mål.

De er, siger Wiener, hjælpeløse, ikke i den forstand, at de er lænket, eller tilbageholdende, nej, de er ikke agenter — de har ingen mulighed for at “handle fra grunden,” som Kant ville.

På lang sigt “stærk AI” eller kunstige Generelle intelligens er mulig i princippet, men uønskede. Endnu mere begrænset AI, der er muligt i praksis i dag, vil ikke være onde. Men han er en trussel, dels fordi det kan forveksles med stærk AI.

Hvor stærk kunstig intelligens i dag?

Forskellen mellem nutidens systemer og science-fiction-system, oversvømmelser den populære fantasi, er stadig enormt, selv om mange mennesker, både Amatører og professionelle, der har tendens til at undervurdere det. Lad os se på Watson fra IBM, der kan godt være værdig til respekt i vores tid.

Denne supercomputer blev resultatet af en meget omfattende proces, R&D (forskning og udvikling), som var at inddrage mange mennesker og udvikling af design intelligens i mange århundreder, og det bruger tusindvis af gange mere energi, end den menneskelige hjerne. Hans sejr i Jeopardy! blev en stor triumf, som blev mulig på grund af formulary begrænsninger af reglerne for Jeopardy!, men at han kunne tage del, selv disse regler var nødt til at blive revideret. Vi var nødt til at opgive universalitet og tilføje menneskeheden til at gøre showet.

Watson — bad company, på trods af den vildledende reklame fra IBM, der løfter samtale evner AI på volumen niveau, men henvender sig Watson i en multi-facetteret den mest sandsynlige agent ville være beslægtet med en konvertering regnemaskine til at Watson. Watson kunne være en god sag for computing sådan en agent, men snarere cerebellum eller amygdala, men ikke i sindet — i bedste fald, et delsystem af særlige kræfter, i en støtterolle, men ikke næsten-system til planlægning og målsætning-indstilling, afhængigt af de modtagne talt oplevelser.

Og hvorfor skulle vi ønsker at skabe en tænkende og kreative agent Watson? Måske en genial idé Turing ‘ s berømte Turing-test — lokket os i en fælde: vi bliver besat med oprettelse af mindst illusionen om en virkelig person, der sidder foran en skærm, uden den “uhyggelige dal”.

Faren er, at da Turing præsenteret sit mål, som var, først og fremmest den opgave at vildlede dommerne — skaberne af AI har prøvet at gøre det med sjove menneskelignende dukker, “cartoon” – version, der vil fortrylle og afvæbne de uindviede. ELIZA Joseph Weizenbaum, den første chatbot, var et lysende eksempel på at skabe en sådan illusion, og det er yderst simpel algoritme, der kunne overbevise folk om, at de er oprigtige og inderlige samtaler med andre mennesker.

Det var forstyrret af den lethed, med hvilken folk er villige til at tro på det. Og hvis vi har lært noget fra den årlige konkurrence for at videregive et begrænset Turing-test, loebner-prisen er den kendsgerning, at selv de mest intelligente folk, der ikke er kompetente i computer programmering, er meget let at disse simple tricks.

Holdningen hos befolkningen inden for AI, at sådanne metoder varierer fra fordømmelse til opmuntring, og konsensus er, at alle disse tricks er ikke særlig dybt, men det kan være nyttigt. Et skift i holdning, som ville være meget nyttigt, er en oprigtig erkendelse af, at den malede dukker androider er falsk reklame, som skal blive fordømt, ikke fremmes.

Hvordan til at opnå dette? Når vi forstår, at folk begynder at træffe beslutninger om liv og død, efter den “gode råd” af AI-system, den indre drift, som er næsten utænkeligt, at vi vil se en god grund for dem, der opfordrer folk til at stole på sådanne systemer, til at begynde at stole på regler for moral og lovgivning.

Kunstig intelligens-system — meget kraftfuldt værktøj. Så stærk, at selv de eksperter, der har en god grund til ikke at stole på min egen dømmekraft, når der er “domme”, der leveres af disse værktøjer. Men hvis disse er brugere af værktøjer kommer til at gavne, finansielle eller andre, fra popularisering af disse værktøjer, de har til at sørge for, at du ved, hvordan du gør dette med alle mængden af ansvar, maksimal kontrol og begrundelse.

Licens og godkendelse af de aktioner, der for operatører af sådanne systemer — lige som vi har licens farmaceuter, operatører af kraner og andre fagfolk, fejl og misforståelser, som kan få alvorlige konsekvenser — måske med støtte af forsikringsselskaber og andre organisationer, til at forpligte skaberne af AI-system til at gå den lange vej, på udkig efter svaghed og fejl på deres produkter, og for at uddanne dem, der kommer til at arbejde med dem.

Kan du forestille dig en form for omvendt Turing-test, hvor vurderingen vil være dommer; indtil han finder en svaghed, overtrædelse af grænser, huller i systemet, licenser, den modtager. For at opnå certifikat, en dommer som vil kræve seriøs træning. Ønsket om at tillægge objektet menneskets evne til at tænke, som vi plejer at gøre, møde med en rimelig agent, er meget, meget stærk.

I virkeligheden, evnen til at modstå lysten til at se noget af en menneskelignende menneske — en mærkelig ting. Mange mennesker ville have fundet pleje af disse talent er tvivlsom, fordi selv den mest pragmatiske system brugere med jævne mellemrum henvise til deres instrumenter “venligt”.

Ligegyldigt hvor omhyggeligt designere af kunstig intelligens vil fjerne den falske “menneskelige” touch i deres produkter, bør vi forvente storhedstid genveje, omveje og tilladte fordrejning af de faktiske “forståelse” af, hvordan systemer og deres operatører. Lige som på tv-reklamer, lægemidler med en lang liste af bivirkninger eller alkohol, der giver den film med masser af små print med alle fastsat ved lov, og de advarsler, og udviklerne af kunstig intelligens vil overholde loven, men for at Udmærke sig i advarsler.

Hvorfor har vi brug for kunstig intelligens?

Vi har ikke brug for kunstig bevidste agenter. Der er masser af naturlige bevidste agenter, hvilket er nok til at udføre alle de opgaver, der er beregnet til eksperter og en god par. Vi har brug for intelligente værktøjer. Værktøjer har ingen rettigheder, og de skal ikke have følelser, der kan være til skade, eller som kan blive “misbrugt”.

En af de grunde til ikke at gøre det bevidst kunstige midler er, at selv om de kan blive Autonome (og i princippet kan de være så Selvstændige, Smoluchowski eller samostoiatelnyi som alle de andre), og de bør ikke uden særlig tilladelse — til at dele vores naturlige bevidste agenter for vores sårbarhed og vores dødelighed.

Daniel Dennett, Professor i filosofi fra tufts University, sætte gang, før eleverne den opgave på en workshop om kunstig agenter og selvstændighed: give mig specifikationer af den robot, der vil være i stand til at underskrive en kontrakt med dig, ikke et surrogat, som er ejet af en anden person, og sig selv. Det er ikke et spørgsmål om at forstå årsagerne eller manipulation af pen og papir, men snarere ejendomsret og besiddelse af de ærede juridiske status og moralsk ansvar. Små børn kan ikke underskrive kontrakter, såsom personer med handicap, juridisk status, der forpligter dem til at være under pleje og giver os et ansvar på the guardians.

Problemet med robotter, der måske ønsker at opnå en sådan ophøjet status, at ligesom Superman, de er for sårbare til at gøre sådanne udsagn. Hvis de nægter, hvad der vil ske? Hvad er straffen for en overtrædelse af love? De vil være låst inde i et bur eller fra hinanden? Fængslet for kunstig intelligens vil ikke være til besvær, hvis vi kun første download længsel efter frihed, som ikke kan ignoreres eller deaktiveres af AI. Afmontering AI vil ikke dræbe de oplysninger, der er gemt på disken, og i software.

Nem digital registrering og overførsel af data — et gennembrud, der tillod software og data, i det væsentlige, udødelighed gør robotter uovervindelig. Hvis det ikke synes oplagt, at tænke over, hvordan du vil ændre moral for det folk, hvis vi kunne lave “backup” af mennesker hver uge. At hoppe ud fra en bro uden tyggegummi søndag efter fredag backup kan være en forhastet beslutning, du kan derefter se en optagelse af hans alt for tidlige død senere.

Det er derfor, vi er ikke at skabe en bevidst — jeg vil gerne skabe menneskelignende agenter, men snarere en helt ny type af væsener, nogle orakler, uden bevidsthed, uden frygt for døden, uden at blive distraheret af en elsker og hader ingen personlighed: spejle af sandheden, der vil næsten helt sikkert blive smittet af de menneskelige løgne.

Den menneskelige udnyttelse af mennesker er ved at ændre sig — igen — for evigt, men hvis vi tager ansvar for vores evolutionære forløb, kan vi undgå unødvendige farer.

Ikke du enig? Fortæl os om din mening i vores chat i Telegrammet.


Date:

by