Karim AI giver psykologisk støtte til Syriske flygtninge

Mere end 1m Syrere er flygtet til Libanon, siden konflikten begyndte med så mange som en femte, der lider af psykiske lidelser, siger, at DER

The WHO estimates as many as 200,000 of the 1m Syrians who have fled to Lebanon are suffering from mental health disorders.

WHO anslår, at så mange som 200.000 af 1m Syrere, der er flygtet til Libanon, der lider af psykiske lidelser.
Foto: Ukrediteret/AP

Tirsdag, 22 Marts 2016 13.08 GMT

Sidst opdateret tirsdag den 22 Marts 2016 13.09 GMT

Mere end 1 million Syrere er flygtet til Libanon siden starten af konflikten, og så mange som en femtedel af dem kan blive ramt af psykiske lidelser, ifølge World Health Organisation.

Men Libanon ‘ s mental health services er for det meste private og behov for flygtninge – som har mistet deres kære, deres hjem og levebrød og fællesskab – er for det meste kommer uopfyldte.

I håb om at støtte de bestræbelser, overanstrengt psykologer i regionen, Silicon Valley X2AI har skabt et kunstigt intelligente chatbot kaldet Karim, der kan have personlig sms-samtaler på arabisk for at hjælpe mennesker med deres følelsesmæssige problemer. Som brugeren interagerer med Karim, systemet bruger naturligt sprog forarbejdning til at analysere personens følelsesmæssige tilstand og returnerer passende kommentarer, spørgsmål og anbefalinger.

Relateret: Hvor meget skal vi frygte anledning af kunstig intelligens? | Tom Chatfield

Eugene Bann, medstifter og administrerende direktør for X2AI, siger: “Der er næppe nogen mental sundheds service i flygtningelejre. Mennesker, der har depression, angst, en følelse af håbløshed og frygt for det ukendte.”

For at få Karim i hænderne af flygtninge og hjælpearbejdere, X2AI har allieret sig med en ikke-statslig organisation, der kaldes for Innovation Team (FIT), som leverer tech-aktiveret katastrofehjælp.

“Vi arbejder med mange af de flygtninge, og det er en udfordring for os at være i stand til at hjælpe hvis folk ikke er klar til at modtage,” siger PASSE Desi Matel-Anderson. “Psykosociale services skaber et fundament for at skabe læringsresultater og gør noget, der hjælper. Eksponentiel teknologi som X2AI vilje, lad os med at nå mennesker, vi normalt ikke ville komme til at hjælpe.”

Karim er den lille bror til X2AI ‘ s flagskib med fuld service, produkt, Tess. Nogle af de mere avancerede funktioner, som er ved at blive afprøvet med Tess omfatter en funktion, der registrerer, når en bruger er virkelig i nød – for eksempel taler om selvmord eller at gøre skade på sig selv – og så hænder over at et menneske psykolog til en vejledningssamtale. En prototype af Tess er blevet udviklet til at hjælpe beskæftige sig med post-traumatisk stress disorder (PTSD) i krigsveteraner.

Relateret: Det fremtidige arbejde: “Computere, der er gode på de arbejdspladser, vi har svært ved, og dårligt på de arbejdspladser, vi finder nemt”

For nu, Karim bliver brugt meget mere forsigtigt, placeret som en ven, snarere end en terapeut.

“Selvfølgelig har vi alle disse psykologiske behandlingsformer, vi kan give, og i sidste ende det er vores mål, men til at begynde med har vi brug for at nedbryde disse barrierer,” forklarer Bann. “Vi lader dem tale om overfladiske ting først – hvilken film de kan lide, for eksempel. Så langsomt, og alt efter hvordan de reagerer, og hvordan deres følelser er fortolket af os, Karim kan bede dem lidt mere personlige spørgsmål.”

Ahmad, 33, er en Syrisk flygtning, der flygtede fra sit hjem i Damaskus til at leve i Vesten Bekaa i det østlige Libanon. Han underviser på en skole for flygtningebørn og fik lejlighed til at prøve Karim. “Jeg følte, at jeg talte med en virkelig person,” siger han. “En masse af Syriske flygtninge, der har traumer og måske dette kan hjælpe dem med at overvinde det.”

Men, påpeger han, at der er en stigmatisering omkring psykoterapi, sagde folk til at føle skam over at opsøge psykologer. Som et resultat, at han mener, at mennesker kan føle sig mere trygge at vide, at de taler til en “robot”, end til et menneske.

Der er en lang tradition for at bruge chatbots til at hjælpe med at levere psykoterapi. I 1960’erne datalog Joseph Weizenbaum skabt Eliza, en simulering af en psykoterapeut, der ville svare til erklæringer med spørgsmål. I 1990’erne Richard Wallace udviklet en lignende, men bedre chatbot kaldet Alice, der vandt Loebner-Prisen, der gør “hende” den mest humanlike AI i verden på det tidspunkt.

“Eliza og Alice er meget grundlæggende. De modtager et input og anvende et begrænset sæt af regler, som er baseret på søgeord, spotte og nogle grundlæggende statistik til at afgøre, hvordan man skal reagere,” siger Bann. Tess, på den anden side tager hensyn til, at alle tidligere patient og AI-reaktioner, når de overvejer, hvad de skal sige næste, og tager også niveauet for samtale op gennem forskellige faser – at gennemføre moduler af psykoterapi – når patienten er klar.

Relateret: To offshore asylansøgere, der anbringes i henhold til selvmord eller selvskade se alle tre dage

X2AI ‘ s teknologi er baseret på akademisk forskning Bann udført på University of Bath, hvor han forsøgte at komme op med overordnede beregningsmodeller af følelser. Bann flyttede til San Francisco “på et indfald” og boede i en hacker-hus, hvor han mødtes med Helle Rauws, der forsøgte at etablere en virksomhed i psykologisk støtte.

De to indset, at Bann ‘s algoritmer, der kunne være meget nyttige for Rauws’ mål, og etablere virksomheden sammen. Virksomheden fik i Singularity University accelerator-programmet og finpudset deres forretningsmodel, før partnering med Felt Innovation Team for Karim pilot.

Ikke alle deler X2AI er bullish Silicon Valley tilgang til problemet. David Luxton er lektor ved Institut for Psykiatri og Adfærdsmæssige Videnskaber ved University of Washington School of Medicine, og er ved at opbygge et lignende værktøj til at Tess. Han er enig i, at disse former for værktøjer, der kan fylde en kløft, hvor der er en mangel på mental sundhed bestemmelse, men han anledning til etiske bekymringer.

“Hvis en person angiver, at de er selvmordstruede, at en licens menneskelige psykolog, så vi er nødt til at gøre visse ting ved lov. Hvordan er systemet kommer til at håndtere det? Det andet aspekt er, at du er at simulere et menneske og slutbrugeren kan få forvirret og fastgjort på en måde, som faktisk kunne være skadeligt for patienten.”

“Hvis det er bare at give coaching kan det være OK.”


Date:

by