Top 5 Meest Verontrustend AI Trends van 2018, Volgens de Onderzoekers Top

Foto Tomohiro Ohsumi (Getty)

Kunstmatige intelligentie is reeds begin om de spiraal van onze controle, een nieuw rapport van boven onderzoekers waarschuwt. Niet zozeer in een Skynet soort van gevoel, maar meer in een ‘technologische bedrijven en overheden zijn al met de AI op een manier die amp tot surveillance en verder marginaliseren kwetsbare bevolkingsgroepen’ manier.

Op donderdag, de AI Nu Instituut, verbonden aan de Universiteit van New York is de thuisbasis van de top AI-onderzoekers met Google en Microsoft, een rapport uitgebracht waarin, in wezen, de staat van AI in 2018, en de reeks van verontrustende trends zich op het veld. Wat we in grote lijnen definiëren als AI—machine learning, geautomatiseerde systemen, enz.—momenteel wordt ontwikkeld, sneller dan onze wettelijke systeem is voorbereid, zegt het rapport. En het dreigt om macht te consolideren in de tech bedrijven en onderdrukkende regeringen die het implementeren van AI tijdens het renderen van alle anderen meer kwetsbaar te zijn vooroordelen, capaciteit voor toezicht, en de talloze disfuncties.

Het rapport bevat 10 aanbevelingen voor beleidsmakers, die allemaal lijken geluid, evenals een diagnose van de meest potentieel destructieve tendensen. “Regeringen moeten regelen AI,” de eerste aanbeveling spoort, “door de uitbreiding van de bevoegdheden van sector-specifieke agentschappen toezicht, controle en bewaking van deze technologieën door het domein.” Een grote Afdeling van AI of dergelijke die u probeert te reguleren het veld exploot groot niet knippen, onderzoekers waarschuwen—het rapport suggereert toezichthouders volgen voorbeelden zoals opgesteld door de Federal Aviation Administration en de aanpak van AI als het zich manifesteert in het veld door het veld.

Maar het brengt ook een beknopte beoordeling van de belangrijkste probleemgebieden, in AI, als ze staan in 2018. Zoals beschreven door AI Nu zijn ze:

  1. De verantwoording kloof tussen degenen die het bouwen van de AI-systemen (en de winst af van hen) en degenen die staan te worden beïnvloed door de systemen (u en mij) is groeiende. Niet van het idee om slachtoffer te worden van kunstmatig intelligente systemen die de oogst van uw persoonlijke gegevens of om te bepalen of verschillende uitkomsten voor u? Te slecht! Het rapport stelt vast dat het gebruik van de meeste openbare burgers hebben om de zeer kunstmatig intelligente systemen die van invloed kunnen zijn ze krimpt, groeit niet.
  2. AI wordt gebruikt voor het versterken van toezicht, vaak op gruwelijke manieren. Als je denkt dat het toezicht op de capaciteiten van de gezichtsherkenning technologie zijn verontrustend, wacht maar tot je ziet haar ook minder scrupuleuze neef, invloed hebben op de erkenning. Het Snijpunt s Sam Biddle heeft een goede schrijf-up van het rapport van de behandeling van invloed zijn op de erkenning, die in feite is gemoderniseerd frenologie, beoefend in real-time.
  3. De regering is het omarmen van de autonome beslissing van de software in de naam van kosten-besparingen, maar deze systemen zijn vaak een ramp voor de kansarmen. Van de systemen die strekken tot het stroomlijnen van de voordelen applicatie processen online om degenen die beweren dat ze in staat zijn om te bepalen wie in aanmerking komen voor huisvesting, de zogenaamde ADS-systemen zijn geschikt voor het uploaden van de afwijking en de ten onrechte weigeren van aanvragers op ongefundeerde gronden. Als Virginia Eubanks details in haar boek het Automatiseren van Ongelijkheid, de mensen die deze systemen niet zijn degenen die het minst in staat om zich te verzamelen voor de tijd en middelen die nodig zijn om ze aan te pakken.
  4. AI testen “in het wild” is ongebreideld al. “Silicon Valley is bekend om zijn ‘snel bewegen en dingen breken’ mentaliteit,” het rapport merkt op, en dat leidt tot bedrijven testen AI-systemen in de publieke sector—of het vrijgeven van hen in de consument de ruimte outright—zonder veel toezicht. De recente track record van Facebook—de originele snel breken thingser en AI evangelist—alone is bijvoorbeeld genoeg van de reden waarom deze strategie kan desastreuze gevolgen hebben.
  5. Technologische oplossingen te bevooroordeeld of problematisch AI systemen blijken onvoldoende. Google maakte de golven toen het aangekondigd werd de aanpak van de ethiek van machine learning, maar de inspanningen zoals deze reeds blijkt te smal en technisch georiënteerd. Ingenieurs hebben de neiging te denken dat ze kunnen oplossen technische problemen met, nou ja, meer techniek. Maar wat echt nodig is, het rapport stelt, is een veel dieper begrip van de geschiedenis en de sociale context van de datasets AI systemen zijn opgeleid.

Het volledige rapport is de moeite waard om te lezen, zowel voor een tour van de talloze manieren waarop AI ingevoerd in de openbare sfeer—en botste met het openbaar belang in 2018, en voor een gedetailleerd recept voor hoe onze instellingen kunnen verblijven op de top van dit steeds complicerende situatie.

Dit verhaal is een onderdeel van de Automaton, een doorlopend onderzoek naar de effecten van kunstmatige intelligentie en automatisering op het menselijk landschap. Voor tips, feedback of andere ideeën over het leven met de robots, ik kan bereikt worden op bmerchant@gizmodo.com.

Deel Dit Verhaal


Date:

by