Webinar: Hvordan skal vi holde algoritmene i øra?

Kan en algoritme, som skal forutse hjertesvikt, opptre diskriminerende? Er det symptom på urettferdighet om dette KI-verktøyet har lettere for å stille diagnosen på en type pasienter, framfor andre?

Dette er spørsmål vi har stilt og forsøkt å besvare i sandkasseprosjektet, der Datatilsynet, Likestillings- og diskrimineringsombudet (LDO) og Akershus universitetssykehus (Ahus) har studert og vurdert et beslutningsstøttesystem Ahus ønsker å utvikle. Verktøyet er basert på maskinlæringsteknologi, med formål å stille mer presise diagnoser for hjertesvikt, enn det legene på Ahus evner i dag. Sluttrapporten fra prosjektet er publisert.

Les sluttrapporten: Hjerterom for etisk AI

Nå inviterer vi til seminar med tittelen "Hvordan holde algoritmer i øra? Å sikre rettferdig kunstig intelligens."

Agenda

Innledningsvis blir sluttrapporten fra sandkasseprosjektet presentert, i tillegg til at vi får et innledende foredrag om etisk kunstig intelligens fra Leonora Bergsjø, leder i NORDE, førsteamanuensis ved HiØ og UiA samt forfatter av boka «Digital etikk».

Så blir det panelsamtale om diskriminering og etisk kunstig intelligens med:

  • Ishita Barua, lege med phD i KI-medisin, Lead AI in Healthcare, Deloitte
  • Leonora Bergsjø, leder i NORDE
  • Line Coll, Datatilsynets direktør
  • Bjørn Erik Thon, Likestillings- og diskrimineringsombud

Diskusjonen vil blant annet dreie som om hvordan ny teknologi kan utfordre dagens regelverk ved bruk i offentlig sektor, og hvilke lovendringer som må til for å holde algoritmene i øra.

Følg med på det som skjer i sandkassa ved å abonnere på vårt nyhetsbrev, der du får invitasjoner og informasjon om søknadsfrister, møter, webinarer og arrangement som er relevant for alle som er opptatt av ny, ansvarlig kunstig intelligens.

Meld deg på Sandkassebrevet.