JavaScript is disabled in your web browser or browser is too old to support JavaScript. Today almost all web pages contain JavaScript, a scripting programming language that runs on visitor's web browser. It makes web pages functional for specific purposes and if disabled for some reason, the content or the functionality of the web page can be limited or unavailable.

Pixabay

Kunstig intelligens i sosialt arbeid

I Norge og flere andre land utvikles ny teknologi basert på Kunstig intelligens (KI) som skal understøtte sosialfaglig utøvelse av skjønn. Kan «robotene» hjelpe oss med å fremme sosial inkludering, eller skaper de nye former for digital ulikhet og stigmatisering?
01.10.2021
13:26
01.10.2021 13:25

Offentlig sektor skal digitaliseres og målet om en datadrevet fremtid er tydelig formulert i offentlige strategidokumenter (Kommunal- og moderniseringsdepartementet, 2019). Datadrevet offentlig forvaltning er en administrativ reform som handler om å bruke store mengder med data, sette disse sammen på nye måter og å resirkulere og analysere dataene ved hjelp av avanserte metoder som KI. Teknologien brukes for eksempel for å lage nye beslutningsstøtteverktøy eller til å automatisere enkle prosesser i fagsystemene. Ideen om datadrevet offentlig forvaltning skal effektivisere offentlig sektor og sørge for bedre kvalitet i beslutningene som tas, raskere responstid og tilpasset og relevant informasjon for både brukere og offentlige ansatte.

Bruk av ny teknologi fører med seg en rekke nye og ofte ubesvarte spørsmål for sosionomer, barnevernspedagoger og vernepleiere. Både form og innhold av fagutøvelsen kan påvirkes av kunstig intelligens, og det er derfor viktig å vite noe om hva kunstig intelligens er.

I denne artikkelen viser vi noen eksempler på KI i en sosialfaglig kontekst og drøfter hvordan denne teknologien kan bygge opp under eller utfordre tradisjonelle sosialfaglige verdier og metoder. Vi stiller også spørsmål rundt hvilken kompetanse denne utviklingen vil kreve fra profesjonene.

En tenkende datamaskin

Da vi spurte 70 sosionom- og barnevernsstudenter om hva de forbinder med ordet kunstig intelligens var det et ord som gikk igjen; robot. For mange er dette selve symbolet på en tenkende datamaskin. Men hva er egentlig kunstig intelligens? Kunstig intelligens er et samlebegrep. I bunn og grunn handler KI om å lære opp maskiner til å kunne løse problemer som tidligere har blitt løst av mennesker. Slike maskiner kan lære seg menneskelig problemløsning ved hjelp av store mengder med data og avansert bruk av matematikk og statistikk. Kunstig intelligens fungerer ofte ved hjelp av algoritmer. Enkelt forklart kan vi si at en algoritme er en framgangsmåte eller en oppskrift som beskriver steg for steg hva som skal gjøres for å løse et problem eller oppnå et bestemt resultat. Kunstig intelligens handler om læring og autonomi, altså at maskinene ikke må bli fortalt hver gang hva de skal gjøre og at de ofte blir bedre over tid. Jo mer data vi viser til maskinen, desto flinkere blir maskinen til å gjenkjenne data og trekke slutninger ut fra den. Kunstig intelligens kan trenes opp med mange forskjellige typer data, som for eksempel tall, tekst, bilder eller videoer og programmeres til å løse en rekke med forskjellige utfordringer. Ofte handler bruk av KI om å klassifisere, sortere eller predikere (forutse), basert på historiske data den har fått tilgang til.

Wullum Aasback

Kunstig intelligens i sosialt arbeid

At algoritmer brukes for å målrette reklame, automatisere arkiveringsarbeid eller sortere Google-søkene våre er bruksområder mange kjenner til. Kunstig intelligens brukt for å understøtte beslutninger og vurderinger i sosialt arbeid, er imidlertid ikke et tvilsomt fremtidsscenario. Fra ulike steder i verden finnes mange eksempler på KI utviklet for å bistå sosialarbeidere i deres arbeid.

Et av eksemplene er Bristol’s Integrated Analytical Hub som er et beslutningsstøtteverktøy brukt i britisk barnevernstjeneste (Dencick, et al 2019). Her benyttes data fra 35 ulike sosiale parametere, som fraværshistorikk fra skole, arbeidsledighet, domfellelser, vold i hjemmet og psykisk helseproblematikk for å kategorisere familier barnevernet skal hjelpe. Målet med dette er at det skal bidra til å effektivisere arbeidet, gi raskere responstid og gi hjelp til familiene i en tidlig fase. En av utfordringene som er påpekt med denne løsningen er at den i liten grad integrerer beskyttelsesfaktorer som familiens nettverk. Utfordringen med å ta med denne type data i algoritmen er at de baserer seg på kontekstuell kunnskap og ustrukturert informasjon, noe som er vanskelig å integrere i systemet.

Flere av modellene for slik risikoprediksjon er også svært omstridte. Kommunen Gladsaxe i Danmark er eksempel på det. Kommunen har som målsetting å gjenkjenne sårbare barn tidlig for å kunne yte hjelp til familiene før problemene eskalerer. De utviklet i 2018 en maskinlæringsalgoritme som var ment å gjenkjenne utsatte barn blant alle kommunens innbyggere. Algoritmen skulle predikere forhold som fremtidig kriminalitet, skolefravær og mistrivsel ved å score kommunens barn på en skala fra 1 til 10. En score på 7 for fremtidige siktelser for kriminalitet tilsier en risiko på rundt 6 prosent for at barnet vil bli siktet for en kriminell handling. Modellen ble trent opp til å gjenkjenne disse forholdene basert på data fra alle danske utredningssaker i barnevernet i perioden fra 2014 til 2017, til sammen 367.000 saker. Modellen benyttet data fra flere ulike offentlige registre hvor den hentet 44 ulike datavariabler, som for eksempel om barnet var uteblitt fra tannlegeundersøkelser (Andersen, 2020). Dette skapte en stor debatt rundt betydningen av å kunne hjelpe sårbare barn tidlig og om dette målet er så viktig at man kan sette personvernrettigheter til side. Konklusjonen ble at kommunen måtte legge arbeidet på is. En modell utviklet av den østerrikske arbeidsmarkedsetaten, hvor de ønsket å vurdere risiko for langtidsledighet, blir for tiden gjennomgått av myndighetene på grunn av lignende problemstillinger.

Kontroversielle prosjekter

Gladsaxe-modellen er ikke det eneste eksemplet som har vært omstridt når det gjelder bruk av KI for å predikere sårbare barn og unge, og flere prosjekter har blitt lagt på is. I Illinois besluttet barnevernstjenesten å avvikle et støttesystem basert på maskinlæring etter at det overvurderte sannsynligheten for omsorgssvikt for tusenvis av barn (Gillingham, 2019). Overvurderingen førte til overbelastning av barnevernstjenesten, men enda mer bekymringsfullt var det at den også undervurderte risikoen i noen få tilfeller der barn enten døde eller ble alvorlig skadet. Upålitelige algoritmer kan også få store konsekvenser for de berørte. Hvis resultatene av prediktive algoritmer viser høy risiko, kan det føre til motløshet og forminsket tro på egen mestring. De samfunnsmessige konsekvensene av risikovurderinger basert på maskinlæringsalgoritmer kan også forårsake og forsterke stigma (Kedell, 2015) og på den måten både opprettholde og øke sosiale ulikheter i samfunnet. I Nederland ble KI brukt for å oppdage trygdesvindel. Denne modellen måtte tas ut av bruk etter en historisk dom som avgjorde at KI-modellen bryter med menneskerettighetene. Skandalen hvor tusenvis av barnefamilier ble etterforsket for svindelforsøk og mange av dem etterlatt med store gjeldsbyrder til det offentlige førte til at den Nederlandske regjeringen måtte gå av (Henley & Booth, 2020).

Også i norsk offentlig forvaltning satses det på automatisering og økt bruk av kunstig intelligens i saksbehandling. Norges nasjonale strategi for kunstig intelligens beskriver et tydelig mål om økt bruk av teknologi i offentlig forvaltning. Nav jobber for eksempel for tiden med et beslutningsstøtteverktøy i sykefraværsoppfølgingen (Grønning, 2021). Her skal KI regne ut sannsynligheten for at et dialogmøte er nødvendig for sykefraværsoppfølgingen og tilby denne informasjonen til veiledere. Akkurat nå er det mange norske offentlige etater og kommuner som diskuterer og legger fremtidsplaner for integrering av KI i sin virksomhet.

Fordeler og ulemper

Risikovurderinger i sosialt arbeid er uten tvil svært komplekse. Men kan KI redusere noe av denne kompleksiteten ved å gi nye innsikter i et sammensatt fagområde? Schneider og Udo (2019) har undersøkt bruk av store datamengder til å utvikle beslutningsstøttesystemer for sosialt arbeid. De hevder at maskinlæringsalgoritmer kan sikre pålitelig og konsistent behandling. Fordelene som dras fram med automatisering og forenkling av prosedyrer som oppnås ved å bruke denne nye teknologien inkluderer også å frigjøre tid for fagpersoner til å bruke mer tid på å jobbe med brukere. Andre hevder at når innbyggere samhandler med automatiserte systemer, der algoritmer tar beslutninger, kan det asymmetriske maktforholdet mellom borger og stat bli enda mer asymmetrisk (Lindgren et al., 2019). Begrunnelsen bak dette er at mennesker kan hjelpe til med å oversette situasjonen, men strengt oppsatte programmer som tar beslutninger kan redusere ulikheter ved å behandle alle innbyggere likt. KI vil alltid reprodusere fortiden, fordi den lærer basert på historiske data. Mønster og ulikheter vi finner i samfunnet i dag vil ofte bli videreført og forsterket av kunstig intelligens. I sin bok Automating inequality viser Virginia Eubanks (2018) til en rekke eksempler på bruk av kunstig intelligens som har ført til videre marginalisering av allerede marginaliserte grupper og økende sosiale ulikheter som resultat av forsterket automatisering.

Profesjonsutøverens utfordringer

Det finnes altså allerede ulike eksempler på bruk av KI i sosialfaglig profesjonsutøvelse både nasjonalt og internasjonalt. Med det politiske fokuset på «Data som den ny oljen» vil det også ganske sikkert dukke opp flere forsøk på å bruke ulike former for KI i det sosialfaglige feltet i Norge. Vi vil derfor se nærmere på tre ulike forhold hvor vi som profesjonsutøvere blir utfordret av KI.

Det første og kanskje mest sentrale punktet som berøres er sosialfaglig skjønnsutøvelse. Kunstig intelligens kan ta for seg større mengder med data enn en saksbehandler vil kunne få oversikt over gjennom hele sin yrkeskarriere og blir derfor betraktet som en god mulighet til å ta bedre beslutninger. Denne teknologien kan bidra til nye innsikter samtidig viser eksemplene over hvordan innføringen av KI systemer i sosialt arbeid allerede bringer med seg en rekke med komplekse utfordringer for både profesjonsutøvere og brukere. I mange av løsningene vi har sett eksempler på er det ikke KI-algoritmen som tar beslutningen, men teknologien brukes sammen med sosialfaglig skjønn for å fatte beslutninger. Forskere har påpekt at en fare med dette er at mennesker har en tendens til å tillegge databaserte vurderinger høyere vekt og stole mer på disse enn sine egne vurderinger (Green og Chen, 2021). Det er derfor svært viktig at de som tar beslutningene med datastøtte har forståelse for hva dataene kan si noe om og ikke minst hvilke svar de kan gi. Det krever kompetanse innen fagfeltet å tolke hva dataene faktisk måler. I en New Public Management-styrt offentlig sektor er det også gjerne det som måles som teller og det å ha en kritisk tilnærming til bruk av tall for å si noe om sosiale forhold er en nødvendig del av den sosialfaglige skjønnsutøvelsen. Selv om teknologi ofte blir oppfattet som objektiv er ikke data nøytrale og fortolkninger heller ikke fri for teoretiske rammer (Crawford, 2014). KI vil derfor ikke kunne erstatte sosialfaglig skjønn, men tvert imot stille større krav til evnen til å stille kritiske spørsmål og se helhetsperspektivet.

Hvem skal bestemme innholdet

Det andre punktet hvor sosialt arbeid utfordres er deltakelse i utviklingen av teknologien. Hvilken retning utviklingen av KI skal ta er ikke prisgitt teknologien selv som drivkraft. Teknologi konstrueres, formes og brukes innenfor sosiale, kulturelle og historiske rammer. Verken teknologien, dataene eller menneskene som lager KI er perfekte. Teknologi er slik vi ser det et samskapt fenomen. Dette er en motsetning til en teknologideterministisk tilnærming hvor samfunnet er en passiv og avmektig mottaker av teknologi som presser seg fram. Innovasjon skal foregå tverrfaglig, det vil si at også sosionomer, barnevernspedagoger og vernepleiere skal være med på å forme vår felles digital fremtid. Da er det også avgjørende at vi har et begrepsapparat for å diskutere dette og stille kritiske spørsmål til teknologien. Akkurat nå lages planer og utforskes muligheter på tvers av offentlig sektor og det vil være viktig at et sosialfaglig perspektiv bringes inn i disse diskusjonene.

Den tredje utfordringen vi ønsker å sette på dagsorden handler om hvordan KI kan påvirke sosial rettferdighet. Sosialarbeidere har en integrert funksjon som pådrivere innen sosialpolitiske feltet og en rolle i å få fram stemmen til marginaliserte grupper. Det er en viktig stemme også i diskusjoner rundt KI. Å tilskrive risikofaktorer basert på gruppetilhørighet og karakteristikker fører til stigmatisering av utsatte grupper (Dencick et al, 2019). Det bidrar også til å skyve både årsaker og løsninger av sosiale problem fra samfunnsnivå til det enkelte individ. Sosialt arbeid som fagfelt bør engasjere seg i diskusjonene rundt bruk av KI og argumentere mot bruk av data på måter som vil kunne bidra til stigmatisering og sosialt utenforskap for utsatte grupper.

Teknologiens begrensninger

Sett i lys av de tre utfordringene som er presentert, er det et behov for kunnskap om teknologi sammen med sosialfaglig kompetanse. Det er også her, blant «Kentaurene» som både forstår KI og samtidig har høy kompetanse innen et annet fagfelt, den store etterspørselen i arbeidskraft vil komme (Svarre, 2019). KI kan ha nyttige funksjoner, men når vi lar algoritmene levere svar når det ikke er svaret, men spørsmålet som er viktig, kan det gå galt. Derfor blir det viktig at vi som samhandler med teknologien har kompetanse til å stille bedre spørsmål til maskinene, som de faktisk har kapasitet til å besvare. Kunnskap om systemene, deres muligheter og begrensninger, fra sosialarbeidere som skal ta i bruk teknologien er derfor viktig. Tvil og det å stille spørsmål er unike menneskelige egenskaper og det er også sentrale ferdigheter i sosialfaglig profesjonsutøvelse. Dette er egenskaper som også er nødvendig for å vurdere nye etiske problemstillinger som oppstår som følge av muligheten til å benytte KI. Når KI benyttes for å nå ut til risikoutsatte barn bør det stilles kritiske spørsmål knyttet til personvern og rettigheter til egne data, men kan målet hellige midlet i noen tilfeller? Her er det ingen klare grenser eller åpenbare svar, men sosialfaglige etiske retningslinjer og perspektiver som må ligge til grunn for en etisk og faglig forsvarlig bruk av KI.

Datadrevet sosialt arbeid?

Vi innledet med spørsmålet om «robotene» kan hjelpe oss med å fremme sosial inkludering eller om de skaper nye former for digital ulikhet og stigmatisering. KI er et samlebegrep for kompleks teknologi som kan brukes på mange ulike måter. I dag er det vanskelig å spå akkurat hvordan KI kommer til å påvirke arbeidshverdagen vår i tiden som kommer. Teknologien byr på mangfoldige muligheter, men også utfordringer. En rekke forskere har uttrykt bekymring for at KI kan føre til videre stigmatisering av allerede marginaliserte grupper i samfunnet og dermed hemme sosial inkludering (Eubanks, 2018, Dencik et al., 2019).

Samtidig har vi sett på eksempler hvor KI kan bidra til å gjøre rutineoppgaver overflødige og dermed frigjøre tid til de arbeidsoppgavene hvor vi trenger menneskelig inngripen. KI kan gjøre oss i stand til å se større sammenhenger som ellers drukner i detaljene, men kompetanse rundt det konkrete fagområdet sammen med teknologisk kompetanse er helt avgjørende for at bruken skal være rettferdig.

Vi har nok bare sett begynnelsen av stordata og KI bruk i offentlig sektor. De politiske ambisjonene på feltet er store, og det kommer stadig nye prosjekter både fra IT selskap i privat sektor og offentlige instanser som skal realisere målet om en datadrevet offentlig forvaltning. Å bruke KI i sosialfaglig sammenheng er svært sammensatt og byr som vi har sett på både på muligheter og utfordringer. Det er derfor helt nødvendig at både profesjonene og brukergrupper inkluderes, stiller spørsmål og er med på utviklingen av disse systemene.

Anne Wullum Aasback

Privat

Utdannet sosionom og har erfaring fra Nav. Hun jobber på institutt for sosialt arbeid ved NTNU med et phd. Prosjekt om sosialt arbeid i den digitale transformasjonen.

Lisa Reutter

Privat

Stipendiat ved institutt for sosiologi og statsvitenskap. Hun forsker på datadrevet offentlig forvaltning og er interessert i samspillet mellom teknologi, data og demokrati.

Referanser

Andersen, Tania (2020) Gladsaxe-modellen spøger: Nyt AI-prosjekt skal forudsige mistrivsel hos børn. Version2. Hentet fra: https://www.version2.dk/artikel/gladsaxe-modellen-spoeger-nyt-ai-projekt-skal-forudsige-mistrivsel-hos-boern-1089919

Crawford, K. et al. (2014). Big Data| critiquing Big Data: Politics, ethics, epistemology| special section introduction. International Journal of Communication 8: 10.

Dencik, L. et al. (2019). The'golden view': data-driven governance in the scoring society. Internett Policy Review 8(2): 1–24.

Eubanks, V. (2018). Automating inequality: how high-tech tools profile, police, and punish the poor. New York, NY, St. Martin's Press.

Gillingham, P. (2019). Can Predictive Algorithms Assist Decision? Making in Social Work with Children and Families? Child Abuse Review

Green, B. and Y. Chen (2020). Algorithmic risk assessments can alter human decision – making processes in high-stakes government contexts. arXiv preprint arXiv: 2012.05370.

Grønning, T. (2021) Nav og datatilsynet tester ut kunstig intelligens for å forutse sykefravær, NRK https://www.nrk.no/tromsogfinnmark/nav-og-datatilsynet-tester-ut-kunstig-intelligens-for-a-forutse-sykefravaer-1.15418020

Henley & Booth (2020) Welfare surveillance system violates human rights, Dutch court rules. Hentet fra: https://www.theguardian.com/technology/2020/feb/05/welfare-surveillance-system-violates-human-rights-dutch-court-rules

Keddell, E. (2015). The ethics of predictive risk modelling in the Aotearoa/New Zealand child welfare context: Child abuse prevention or neo-liberal tool? Critical Social Policy 35(1): 69–88.

Kommunal og Moderniseringsdepartementet (2019) Én digital offentlig sektor: Digitaliseringsstrategi for offentlig sektor 2019–2025

Lindgren, I. et al. (2019). Close encounters of the digital kind: A research agenda for the digitalization of public services. Government Information Quarterly.

Schneider, D. and U. Seelmeyer (2019). Challenges in Using Big Data to Develop Decision Support Systems for Social Work in Germany. Journal of Technology in Human Services 37 (2-3): 113–128.

Svarre, P. (2019). Hvad skal vi med mennesker? En bog om kunstig intelligens. Gyldendal Business.

01.10.2021
13:26
01.10.2021 13:25

Anne Wullum Aasback

Privat

Utdannet sosionom og har erfaring fra Nav. Hun jobber på institutt for sosialt arbeid ved NTNU med et phd. Prosjekt om sosialt arbeid i den digitale transformasjonen.

Lisa Reutter

Privat

Stipendiat ved institutt for sosiologi og statsvitenskap. Hun forsker på datadrevet offentlig forvaltning og er interessert i samspillet mellom teknologi, data og demokrati.