Global uttalelse om KI-deepfakes
Et stort antall datatilsynsmyndigheter over hele verden går sammen i bekymring for KI-systemer som genererer realistiske, upassende og skadelige bilder og videoer av ekte personer.
Et stort antall datatilsynsmyndigheter over hele verden går sammen i bekymring for KI-systemer som genererer realistiske, upassende og skadelige bilder og videoer av ekte personer.
De siste månedene har KI-assistenter som lager såkalte deepfakes – realistiske, men uekte bilder og videoer av personer – skapt sterke reaksjoner over hele verden. Spesielt KI-assistenten Grok har fått mye oppmerksomhet i norske og internasjonale medier den siste tiden. Den har gjort det mulig å generere seksualiserte og voldelige bilder av andre personer, inkludert barn, og så publisere bildene direkte på den sosiale plattformen X.
- Denne typen funksjonalitet er uakseptabel. Det genererte bildematerialet kan brukes til blant annet mobbing og utnyttelse. Det er svært alvorlig, sier Tobias Judin, sjef i internasjonal seksjon i Datatilsynet.
Datatilsynsmyndigheter over hele verden er bekymret over utviklingen. Selv uriktige opplysninger om en person kan være personopplysninger. KI-genererte bilder og videoer av andre personer, såkalte deepfakes, regnes av den grunn som personopplysninger. Derfor gjelder også personvernreglene.
Nå har 61 datatilsmyndigheter over hele verden gått sammen om en uttalelse om denne typen systemer. Budskapet er at selskapene må iverksette tiltak for å motvirke misbruk av bilder og videoer av andre. Tilsynsmyndighetene er særlig bekymret for at bildematerialet brukes til å skade sårbare grupper.
- Dette er første gang at så mange datatilsynsmyndigheter fra ulike jurisdiksjoner går sammen om en multilateral uttalelse. Det sier noe om hvor alvorlig utviklingen er, sier Tobias Judin.
Uttalelsen stiller en rekke forventinger til selskapene som tilbyr og bruker denne typen tjenester:
Joint Statement - AI Generated Imagery - 61 Signatories (pdf).