NAV

NAV vil bruke kunstig intelligens til å predikere sykefraværslengden til sykmeldte personer. Formålet er å få en mer brukervennlig og effektiv oppfølging av sykmeldte, ved å unngå å kalle inn til unødvendige møter. Ved å kunne predikere hvem som er tilbake i jobb og ikke til et gitt tidspunkt, vil de kunne konsentrere innsatsen der den trengs mest. 

Loven pålegger NAV å gjennomføre dialogmøter med sykmeldt, sykmelder og arbeidsgiver innen uke 26. I dagens situasjon må NAV-veilederen allerede i uke 17 vurdere om det kommer til å bli behov for et slikt møte, i praksis prøve å spå om den sykmeldte er tilbake i jobb eller ikke ni uker senere. Prosjektets hypotese er at det avholdes for mange unødvendige dialogmøter, som stjeler tid fra samtlige involverte. Og at det KI-baserte systemet kan være god beslutningsstøtte når veilederne skal avgjøre om de vil kalle inn til møtet eller ikke.

Ansvarlighet

Som en stor offentlig aktør er NAV sitt særlige ansvar bevisst, og ønsker å utforske og ta i bruk KI på en ansvarlig måte. Anvendelsen skal ikke bare være lovlig, men også innrettes i tråd med samfunnsetiske normer, på en måte som møter individet med respekt og verdighet, og ikke minst bygger tillit. Gjennom deltakelse i sandkassa ønsker NAV å bringe konkrete vurderinger av lovlighet, rettferdighet og forklarbarhet til torgs. De håper med det å kunne ta i bruk KI-løsningen raskere, og med større trygghet for at vurderingene og praksis er i tråd med både regelverk og god praksis.

I sluttfasen

NAVs prosjekt nærmer seg sluttfasen, og det blir interessant å se om måten de har tolket loven på, når de vil bruke kunstig intelligens på sensitive persondata, er innafor. Personopplysningene de vil mate modellen med, er blant annet diagnose, sykmeldingsgrad, bosted, yrke, alder eller hvilken lege som har signert sykmeldinga.

- Det blir spennende å bli med i sandkassen, og bidra til at kanskje andre kan lære litt av det vi gjør også, sier Lars Sutterud, data scientist i NAV.

Oppdateringer:

Mai 2021:

NAV-prosjektet har utarbeidet en prosjektplan som følger tre spor: behandlingsgrunnlag, rettferdighet og forklarbarhet. Først og fremst må de avklare om det er behov for et tydelig rettslig grunnlag for selve metoden. Trenger NAV en uttrykkelig hjemmel for å predikere og/eller bruke maskinlæring? Er det forskjell på om de implementerer en ekspertbasert regelmotor som gir anbefalinger, eller om den er basert på data og maskinlæring?

I neste fase av sandkasseprosjektet skal NAVs vurdering av rettferdighet for maskinlæringsmodellen under lupen. Har NAV valgt gode/riktige rettferdighetsmål for utfallet, og er de i overenstemmelse med lovkrav? Hvem har særlig krav på beskyttelse, og hvordan kan diskriminering av disse vurderes i praksis? Er det eksempelvis tilrådelig å benytte særskilte kategorier for å evaluere diskriminering mot disse?

Til slutt er det forklarbarhet i fokus. Da blir spørsmålene blant annet hvordan man kan innrette forklaringer mot ulike brukere for å imøtekomme forsvarlig forvaltning både på enkeltsaksnivå og systemnivå? Hvordan ser en god forklaring på systemnivå ut?