Mer enn 1 million Syrere har flyktet til Libanon siden konflikten begynte med at så mange som en femtedel som lider av psykiske lidelser, sier SOM
WHO anslår så mange som 200 000, og over 1 million Syrere som har flyktet til Libanon lider av psykiske lidelser.
Foto: Uncredited/AP
Tirsdag 22 Mars 2016 13.08 GMT
Sist endret tirsdag 22 Mars 2016 13.09 GMT
Mer enn 1 million Syrere har flyktet til Libanon siden starten av konflikten, og så mange som en femtedel av dem kan være lider av psykiske lidelser, ifølge Verdens helseorganisasjon.
Men Libanon er psykisk helsetjenester er stort sett private og flyktninger – som kanskje har mistet sine kjære, sine hjem, levebrød og samfunnet – er det meste skal møte.
I håp om å støtte arbeidet av overarbeidet psykologer i regionen, Silicon Valley oppstart X2AI har skapt et kunstig intelligent chatbot som heter Karim som kan ha personlig tekstmelding samtaler i arabisk for å hjelpe folk med deres emosjonelle problemer. Som brukeren samhandler med Karim, systemet bruker natural language processing for å analysere persons emosjonelle tilstand og returnerer aktuelle kommentarer, spørsmål og anbefalinger.
Relatert: Hvor mye bør vi frykte for fremveksten av kunstig intelligens? | Tom Chatfield
Eugene Bann, co-grunnlegger og administrerende direktør av X2AI, sier: “Det er knapt noen mental-helse tjenester i flyktningleirer. Folk har depresjon, angst, følelse av håpløshet og frykt for det ukjente.”
For å få Karim i hendene av flyktninger og hjelpearbeidere, X2AI har slått seg sammen med en ikke-statlig organisasjon kalt Feltet Innovasjon Team (PASSE), som leverer tech-aktivert katastrofehjelp.
“Vi jobber med mange flyktninger, og det er en utfordring for oss å være i stand til å hjelpe hvis folk ikke er klar til å motta,” sier PASSFORM er Desi Matel-Anderson. “Psykososiale tjenester lage et fundament for å skape læring og gjøre noe som hjelper. Eksponentiell teknologi som X2AI vil la til at vi når mennesker vi normalt ikke ville komme til å hjelpe.”
Karim er den lille bror av X2AI flaggskip fullservice-produkt, Tess. Noen av de mer avanserte funksjonene som blir prøvd med Tess inkluderer en funksjon som oppdager når en bruker er virkelig i nød – for eksempel snakker om selvmord eller selvskading – og da hender over til et menneske, psykolog for en rådgivning-økten. En prototype av Tess har blitt utviklet for å hjelpe avtale med post-traumatisk stress lidelse (PTSD) i krigsveteraner.
Relatert: The future of work: ‘Datamaskiner er god på jobber vi finner vanskelig, og dårlig på jobber vi finner lett’
For nå, Karim blir brukt mye mer forsiktig, plassert som en venn i stedet for som en terapeut.
“Selvfølgelig har vi alle disse psykologiske behandlingsformer vi kan gi og som til syvende og sist er vårt mål, men til å begynne med må vi bryte ned disse barrierene,” forklarer Bann. “Vi la dem snakke om overfladiske ting først – hvilke filmer de ønsker, for eksempel. Så sakte, og i henhold til hvordan de reagerer og hvordan deres følelser er tolket av oss, Karim kan spørre dem litt mer personlige spørsmål.”
Ahmad, 33, er et Syriske flyktninger som flyktet fra sitt hjem i Damaskus til å leve i Vest Bekaa i øst-Libanon. Han underviser på en skole for flyktningbarn, og ble gitt muligheten til å prøve Karim. “Jeg følte meg som var jeg snakker med ekte person,” sier han. “Mye av Syriske flyktninger har traumer og kanskje dette kan hjelpe dem til å overvinne det.”
Men han påpeker at det er et stigma rundt psykoterapi, sa folk til å føle skam om å søke ut psykologer. Som et resultat han tror folk kan føle seg mer komfortable med å vite at de snakker til en “robot” enn et menneske.
Det er en lang historie med å bruke chatbots å bidra til å levere psykoterapi. I 1960-årene forsker Joseph Weizenbaum opprettet Eliza, en simulering av en psykoterapeut som ville svare til uttalelser med spørsmål. I 1990-årene Richard Wallace utviklet en lignende, men bedre chatbot som heter Alice, som vant the Loebner Prize, noe som gjør “henne” den mest humanlike AI i verden på den tiden.
“Eliza og Alice er ekstremt enkel. De får en inngang og bruker et begrenset sett av regler basert på søkeordet spotting og noen grunnleggende statistikk for å finne ut hvordan å reagere, sier Bann. Tess, på den annen side, tar hensyn til alle tidligere pasient og AI svar når du vurderer hva du skal si neste, og tar også nivået av samtalen opp gjennom ulike stadier – å gjennomføre moduler av psykoterapi – når pasienten er klar.
Relatert: To offshore asylsøkere plassert under selvmord eller selvskading se på alle tre dager
X2AI er teknologi som er basert på vitenskapelig forskning Bann utført ved University of Bath, der han prøvde å komme opp med overordnet computational modeller av følelser. Bann flyttet til San Francisco “på et innfall”, og bodde i en hacker huset der han møtte Michiel Rauws, som prøvde å sette opp en virksomhet i psykologisk hjelp.
De to skjønte at Bann algoritmer kan være svært nyttig for Rauws’ mål, og satt opp virksomheten sammen. Selskapet fikk i Singularity Universitetet accelerator program og finpusset sin forretningsmodell, før samarbeide med Feltet Innovasjon Team for Karim pilot.
Ikke alle aksjer X2AI er bullish Silicon Valley tilnærming til problemet. David Luxton er førsteamanuensis ved Institutt for Psykiatri og atferdsfag ved University of Washington School of Medicine, og er å bygge en lignende verktøy for å Tess. Han er enig i at slike verktøy kan fylle et tomrom der det er en mangel på mental helse bestemmelsen, men han reiser etiske spørsmål.
“Hvis noen angir de er suicidale til en lisensiert menneskelige psykolog så er vi nødt til å gjøre visse ting ved lov. Hvordan er systemet skal håndtere det? Det andre aspektet er at du er simulere et menneske, og sluttbruker kan bli forvirret og festet på en måte som kan faktisk være skadelig for pasienten.”
“Hvis det er bare gir coaching kan det være OK.”