Mer än 1 miljon Syrier har flytt till Libanon sedan konflikten började med att så många som en femtedel som lider av psykisk ohälsa, säger SOM
WHO uppskattar att så många som 200 000 av de 1 miljon Syrier som har flytt till Libanon lider av psykisk ohälsa.
Foto: ej angiven/AP
Tisdag 22 Mars 2016 13.08 GMT
Senast ändrad tisdagen den 22 Mars 2016 13.09 GMT
Mer än 1 miljon Syrier har flytt till Libanon sedan början av konflikten, och så många som en femtedel av dem som lider av psykisk ohälsa, enligt World Health Organisation.
Men Libanon är psykisk hälso-och sjukvården är oftast privata och behov av flyktingar som kanske har förlorat nära och kära, deras hem, försörjning och samhälle – är mestadels kommer otillfredsställda.
Hoppas att stödja insatser för överarbetad psykologer i regionen, Silicon Valley X2AI har skapat en artificiellt intelligent chatbot heter Karim som kan ha personlig sms konversationer i arabiska för att hjälpa människor med deras känslomässiga problem. Som användaren interagerar med Karim, systemet använder behandling av naturligt språk för att analysera persons känslomässiga tillstånd och returnerar relevanta kommentarer, frågor och rekommendationer.
Relaterat: Hur mycket bör vi frukta ökningen av artificiell intelligens? | Tom Chatfield
Eugene Bann, grundare och CTO för X2AI, säger: “Det finns knappt någon psykisk-hälsa i flyktingläger. Personer som har depression, ångest, en känsla av hopplöshet och rädsla för det okända.”
För att få Karim i händerna på flyktingar och biståndsarbetare, X2AI har slagit sig ihop med en icke-statlig organisation som kallas Området Innovation Team (FIT), som levererar teknik-aktiverade katastrofhjälp.
“Vi arbetar med en massa flyktingar och det är en utmaning för oss att kunna hjälpa om folk inte är redo att ta emot”, säger PASSFORM är Desi Matel-Anderson. “Psykosociala tjänster skapa en berggrunden för att skapa lärandemål och göra något som hjälper. Exponentiell teknik som X2AI kommer låt oss nå människor som vi normalt inte skulle få hjälpa till.”
Karim är lillebror X2AI flaggskepp full-service på produkten, Tess. Några av de mer avancerade funktioner som testas med Tess har en funktion som känner av när en användare är verkligen i nöd, till exempel att prata om självmord eller självskadebeteende – och sedan lämnar över till en mänsklig psykolog för ett jourpass. En prototyp av Tess har utvecklats för att hjälpa till att hantera post-traumatic stress disorder (PTSD) i krigsveteraner.
Relaterat: Den framtida arbete: “Datorer är bra på de jobb vi har svårt för, och bad på de jobb vi hittar lätt”
För nu, Karim används mycket mer försiktigt, placerad som en vän snarare än en terapeut.
“Naturligtvis har vi alla dessa psykologiska behandlingar vi kan ge och i slutändan är det vårt mål, men till att börja med måste vi bryta ner de hinder, förklarar Bann. “Vi låter dem prata om ytliga saker först, vilka filmer de vill, till exempel. För att sedan sakta, och efter hur de reagerar och hur deras känslor tolkas av oss, Karim kan be dem lite mer personliga frågor.”
Ahmad, 33, är en Syrisk flykting som flydde sitt hem i Damaskus att leva i Väst Bekaa i östra Libanon. Han undervisar på en skola för flyktingbarn och gavs möjlighet till rättegång Karim. “Jag kände mig som att prata med en verklig person, säger han. “En stor del av Syriska flyktingar har trauma och kanske detta kan hjälpa dem att övervinna den.”
Dock påpekar han att det är ett stigma kring psykoterapi, säger människor att känna skam om att söka upp en psykolog. Som en följd av att han tror att människor kan känna sig mer bekväm med att veta att de talar till en “robot” än en människa.
Det finns en lång historia av att använda chatbots för att bidra till psykoterapi. På 1960-talet datavetare Joseph Underkatalog skapat Eliza, en simulering av en psykoterapeut som skulle svara att-satser med frågor. Under 1990-talet Richard Wallace utvecklat en liknande men bättre chatbot heter Alice, som vann Loebner Prize, som gör “henne” den mest människoliknande AI i världen på den tiden.
“Eliza och Alice är väldigt grundläggande. De får en ingång och använda en begränsad uppsättning regler baserade på sökord observation och vissa grundläggande statistik för att avgöra hur de ska reagera, säger Bann. Tess, å andra sidan, tar hänsyn till alla före patienten och AI svar då de funderar över vad de ska säga härnäst, och tar också nivån på konversationen upp genom olika stadier – att genomföra moduler av psykoterapi – när patienten är redo.
Relaterat: Två offshore asylsökande placeras på självmord eller att skada sig själv att titta på alla tre dagar
X2AI teknik är baserade på akademisk forskning Bann som bedrivs vid Universitetet i Bath, där han försökt att komma med övergripande beräkningsmodeller av känslor. Bann flyttade till San Francisco “på skoj” och bodde i en hacker hus där han träffade Michiel Rauws, som försökte sätta upp ett företag i psykologisk hjälp.
De två insåg att Bann algoritmer kan vara mycket användbart för Rauws ” mål och sätta upp verksamheten tillsammans. Företaget fick i Singularity University accelerator-programmet och finslipat sin affärsmodell, innan samarbetar med Området Innovation Team för Karim pilot.
Inte alla aktier X2AI är hausse Silicon Valley förhållningssätt till problemet. David Luxton är docent vid Institutionen för Psykiatri och Beteendevetenskap vid University of Washington School of Medicine, och håller på att bygga ett liknande verktyg för att Tess. Han håller med om att dessa typer av verktyg kan fylla en lucka där det finns en brist på mental hälsovård, men han väcker etiska frågor.
“Om någon visar att de är självmordsbenägna till en licensierad mänskliga psykolog då vi är skyldiga att göra vissa saker av lagen. Hur är systemet kommer att hantera det? Den andra aspekten är att du är att simulera en mänsklig och slutanvändaren kan bli förvirrad och fästs på ett sätt som faktiskt skulle kunna vara skadliga för patienten.”
“Om det bara är att ge coaching-kan det vara OK.”