Forskere advarer imod brug af intelligente robotter

Robotterne er allerede kommet, men nu er de intelligente robotter, som skal forudsige og foreslå løsninger på sociale problemer, på vej. Men vi kan ikke automatisere det socialfaglige skøn, lyder det fra lektor Helle Antczak, som er i gang med at undersøge kommunernes brug af intelligente robotter.

I Københavns Kommune behøver sagsbehandlerne ikke længere at bruge timevis på at samle journaler og notater, når en borger søger aktindsigt i sin sag. Det klarer robotten Albert  Aktindsigt. På samme måde sørger robotten Abbas for at kopiere de oplysninger, der skal gå igen, når to søskende har hver sin sag.

Det sparer socialrådgiverne masser af tid og er forholdsvist ukontroversielt. Men nu er næste generation af robotter på vej, og de gør ikke bare, hvad vi beder dem om. Det er nemlig intelligente robotter, som selv finder mønstre ved at lære af det data, de processerer, og derefter bruger det, de har lært, til at træffe beslutninger. Disse robotter skal bruges til at forudsige, hvilke borgere der vil udvikle sociale problemer, og til at komme med forslag til, hvordan vi bedst får en konkret borger i beskæftigelse, og hvilken indsats der vil være bedst for et konkret barn.

Men disse processer forudsætter et socialfagligt skøn, og det kan ikke automatiseres, mener Helle Antczak, som er socialrådgiver og lektor på Institut for Socialt Arbejde på Københavns Professionshøjskole. Hun har undersøgt kommunernes brug af intelligente robotter og har interviewet udviklingschefer i KMD, Kombit og KL og it-udviklere i en række store kommuner. Og tendensen er klar: Brug af Big Data og kunstig intelligens i sagsbehandlingen på det sociale område er på vej.

– Flere af landets store kommuner udvikler ideer til algoritmisk baserede systemer, der kan levere beslutningsstøtte til sagsbehandlere, når de skal afgøre, hvilken hjælp udsatte børn, unge og voksne skal have. Og flere kommuner arbejder med lignende modeller som i Gladsaxe, hvor de på baggrund af en række risikofaktorer ønsker at forudsige, hvilke børn der får sociale problemer, fortæller hun.

Samtidig er KMD sammen med Københavns Universitet og IT-Universitetet i gang med at udvikle systemet EcoKnow, som blandt andet skal kunne komme med anbefalinger til indsatsen for ledige. Et projekt som Dansk Socialrådgiverforening er inviteret med i for at sikre socialfaglighed, etik og borgerens retssikkerhed.

Svært at gå imod computeren

Helle Antczak er bekymret for, at de robotter, der er tænkt som støtte til socialrådgiverens fagligt funderede beslutning om, hvad der er bedst for den enkelte borger, reelt kommer til at træffe afgørelser. For det bliver svært for socialrådgiverne at gå imod robottens anbefaling, forudser hun.

– Hvilken ung og nyuddannet socialrådgiver tør gå imod algoritmens anbefaling, som har et skær af objektiv sandhed? Der er grund til at frygte, at hvis vi får sådan nogle systemer, så vil sagsbehandlerne have en tendens til at læne sig stærkt op ad deres forslag, for hvem tør gå imod algoritmen i tider med personlig ansvarspålæggelse, spørger hun.

Helle Antczak refererer til erfaringer fra kriminalforsorgen i England og USA, hvor socialarbejderne stort set aldrig går imod de forslag, som algoritmen kommer med om blandt andet prøveløsladelser. Det ville jo heller ikke være et problem, hvis algoritmens anbefalinger altid var de rigtige. Men Helle Antczak mener ikke, at man kan udvikle en algoritme, der kan forudsige, hvad der er det rigtige at gøre for en bestemt borger i en konkret situation.

Ikke en eksakt videnskab

Det socialfaglige skøn bygger på meget andet end variable og karakteristika. Socialrådgiverens sansbare iagttagelser som lugte og ansigtsudtryk kan ikke standardiseres ind i et algoritmisk system som plus’er og minus’er i definerede svarkategorier. Og så er det sociale arbejde ikke en eksakt videnskab, understreger Helle Antczak, og derfor kan man ikke ræsonnere fra generel viden til en konkret situation.

– Man kan godt finde nogle generelle sammenhænge, men selv om noget har virket godt for andre børn, der har de samme karakteristika, så er det ikke sikkert, at det virker for lille Peter, som sidder her foran os. Der kan være 100 ting i den kontekst, han er i, som gør, at der skal noget andet til i lige præcis hans tilfælde, siger Helle Antczak.

De anbefalinger, en algoritme kommer med, vil læne sig op ad, hvilke afgørelser man tidligere har truffet i lignende sager, og den kan lære at blive bedre til at komme med anbefalinger, når den får feedback fra eksempelvis Ankestyrelsen om, hvilke typer af afgørelser kommunerne får medhold i.

– Men man kan ikke bedømme, om det er rigtigt at anbringe et barn, eller om en voldsramt familie skal have familiebehandling, eller om mor og børn skal på krisecenter på baggrund af tidligere afgørelser i lignende sager, siger Helle Antczak.

Hvis man vil vurdere det, kræver det, at man kender virkningen af de tidligere afgørelser.

– Den kan i de fleste tilfælde først vurderes lang tid efter, og man kan ikke bedømme, om det var familieplejen til barnet eller pladsen på krisecenteret, som i det lange løb gav en forbedring, eller om det var forhold helt uden for det offentliges radar som nye venner eller en kæreste, som var skyld i forandringen, siger hun.

Helle Antczak mener derfor, at de intelligente robotter skal holde sig helt fra det sociale område.

– Vi skal have moderne, velfungerende og smidige fagsystemer, vi skal have simple robotter som Albert Aktindsigt og beslutningsstøtte til afgrænsede områder med faste kriterier. Men lad os nøjes med at digitalisere der, hvor det giver mening, siger hun.

Problemer med retssikkerheden

Det er ikke kun socialfagligheden, man skal være opmærksom på, når sagsbehandlingen automatiseres, men også borgernes retssikkerhed. Det stod klart på en konference om digitaliseringen af det sociale arbejde, som Dansk Socialrådgiverforening var med til at holde i februar, hvor både Forbrugerrådet TÆNK og Tænketanken Justitia udtrykte bekymring for retssikkerheden.

Den kan blive klemt, når enten det juridiske eller det faglige skøn overlades til algoritmerne, mener også Hanne Marie Motzfeldt, der er lektor i digital forvaltning ved Københavns Universitet.

– De her teknologier kommer, og vi er naive, hvis vi ikke indser, at de kan indeholde tonsvis af fejl, som det er stort set umuligt at få rettet, siger hun.

Hanne Marie Motzfeldt deler Helle Antczaks bekymring for, at de intelligente robotter i realiteten vil komme til at træffe afgørelser. Fordi det bliver meget svært for socialrådgiverne at gå imod algoritmens anbefaling, og fordi det vil blive forventet af ledelserne, at socialrådgiverne arbejder langt hurtigere, når disse redskaber kommer – og det vil ikke give tid til at kontrollere, som anbefalingerne giver mening i den enkelte sag.

– Hvis man som borger oplever, at en algoritme træffer en forkert afgørelse, hvordan skal man så få efterprøvet, om afgørelsen er rigtig? Hverken Folketingets Ombudsmand eller domstolene kan prøve et skøn, så det skal udøves rigtigt i forvaltningen selv, pointerer Hanne Marie Motzfeldt.

En af udfordringerne ved kunstig intelligens, der overtager skønnet, er, at vi ikke forstår, hvad vi har med at gøre, mener hun.

– Man propper data ind i det, man kalder en Black Box, som har udviklet nogle logikker, og så kommer der en vurdering ud i den anden ende, uden at vi kan gennemskue, hvad der egentlig bliver lagt vægt på, siger Hanne Marie Motzfeldt.

Alt for mange trækker på skuldrene af den uigennemsigtighed og omtaler kunstig intelligens som mennesker, hvor man heller ikke kan se ind i sagsbehandlernes hjerner. Den parallel er imidlertid helt og holdent forfejlet, mener Hanne Marie Motzfeldt.

– Algoritmerne bygger på enorme, komplekse, logiske mønstre. De svarer egentlig til en gigantisk vejledning i, hvordan man skal træffe afgørelser, og derfor kan der ikke på nogen måde sammenlignes med en ”hjerne”. Derimod kan vi jo godt alle sammen se, at det er meget problematisk, hvis man ikke ved, hvad der står i en vejledning om, hvordan man skal træffe afgørelse, siger hun.

Skader tilliden til systemet

Den samme kritik gælder de algoritmer, som skal forudsige, hvilke borgere der statistisk set vil udvikle sociale problemer. Vi har dels for megen tillid til de data, der allerede ligger i det offentlige, dels for megen tiltro til teknologierne, mener Hanne Marie Motzfeldt. Men hertil kommer problemer med datasikkerheden og helt grundlæggende rettigheder som privatlivets fred. Her er det nemlig ikke kun data fra borgere, som allerede er i det sociale system, der skal samkøres inde i ”robotten”. Det er data fra alle borgere i kommunen.

Kommunerne er dog ikke kommet lige så langt med disse systemer, fordi lovgivningen endnu ikke er på plads. Hanne Marie Motzfeldt håber ikke, at kommunerne får lov til at samkøre borgernes data, før de har opnået et helt andet sikkerhedsniveau, og der samtidig er en langt højere grad af viden om og et bredere fokus på borgernes retssikkerhed og de øvrige samfundsrisici ved, at det offentlige profilerer borgerne. Spørger man Helle Antczak, så håber hun slet ikke, at det vil lykkes politikerne at blive enige om en bekendtgørelse, der giver kommunerne lov til at samkøre alle borgeres data for at opspore familier, der er i risiko for at udvikle sociale problemer.

– Det er selvfølgelig et ædelt formål, men socialvidenskaben er ikke i stand til med sikkerhed at vise, hvordan sociale proble mer opstår. Det kan godt være, hvis du profilerer alle de børn, som bliver anbragt, så kom mange af dem måske ikke til tjek hos lægen, og forældrene var måske arbejdsløse. Men det er ikke det samme som at sige, at alle børn, hvor de faktorer er til stede, vil udvikle problemer, siger hun.

Helle Antczak er dels bekymret for, at kommunerne kommer til at bruge en masse energi på familier, der ikke har brug for hjælp, og at denne tid vil gå fra de borgere, der har brug for hjælp. Og dels er hun bekymret for, at borgerne vil føle sig overvåget, og at det vil gå ud over deres tillid til systemet.

– Jeg ville jo blive rasende, hvis jeg af en algoritme var blevet udpeget til at komme op til en samtale, og mine børn ikke havde problemer. Hvis tilstrækkeligt mange borgere oplever det, kan opbakningen til velfærdsstaten svigte, og det går hen og bliver et demokratisk problem, siger Helle Antczak.

Hun frygter, at borgerne begynder at forholde sig strategisk til, hvilke oplysninger de giver til myndighederne.

– Man vil måske undlade at fortælle ting på jobcenteret, eller man vil sende sit barn sygt i skole for at undgå, at fraværsprocenten når over det antal dage, som slår ud som en risikofaktor i algoritmen, siger Helle Antczak.

Hvis kommunerne oplever, at de bliver for sent opmærksomme på de børn, der har brug for hjælp, så skulle de hellere sætte ind med efter- og videreuddannelse af det personale, som til dagligt er i berøring med børnene, og forbedre samarbejdsstrukturerne mellem socialforvaltning og eksempelvis vuggestuerne og den kommunale tandpleje, mener hun.

– Vi har en veludbygget sundhedspleje og de fleste børn går i dagtilbud, og det er jo her, vi skal opdage problemerne, inden de får lov til at udvikle sig. Det synes jeg hellere, at kommunerne skulle bruge deres energi på, i stedet for at prøve at udvikle de her systemer, siger Helle Antczak.

I november sætter Dansk Socialrådgiverforenings tidsskrift Uden for Nummer fokus på digitalisering af socialt arbejde og bringer en artikel af Helle Antczak og Klavs Birkholm, som er direktør for tænketanken TeknoEtik.