8. NIMs anbefalinger
Anbefaling 1:
Stortinget bør be regjeringen om at lovforslag som innebærer økt bruk av informasjonsteknologi, følges av grundige konsekvensanalyser som vektlegger menneskerettighetene, særlig retten til privatliv, ikke-diskriminering og ytringsfrihet.
- Tilsiktede effekter: Konsekvensanalysene bør kartlegge tilsiktede effekter av teknologien som kan berøre menneskerettighetene.
- Utilsiktede effekter: Det må også undersøkes om utilsiktede, men beregnelige effekter av teknologien kan berøre menneskerettighetene.
- Tverrgående effekter: Kartlegging bør søke å fange opp og adressere tverrgående menneskerettslige utfordringer.
- Diskriminering: Analysen må identifisere klare rettssikkerhetsgarantier, og sørge for at rase, farge, kjønn, religion, politisk overbevisning, nasjonal eller sosial opprinnelse, eiendomsforhold, fødsel eller annen status ikke gir grunnlag for diskriminerende praksiser.
- Inkludering: Mangfold, inkludering og vern av utsatte grupper må tas i betraktning for hele datasyklusen. Rettighetene til mennesker med funksjonsnedsettelser i forhold til digitale løsninger må ivaretas.
- Periodevis vurdering: Analyser bør gjøres tidlig i utviklingsfasen og periodevis etter at teknologien tas i bruk.
Anbefaling 2:
Ved innføring av helautonome beslutningssystemer må myndighetene foreta en særlig grundig analyse som kartlegger konsekvensene for menneskerettighetene. I slike tilfeller bør konsekvensanalysen som et minimum inneholde følgende elementer:
- Begrunnelse: Når myndighetene beslutter å benytte digitale verktøy til beslutningsstøtte eller til autonome beslutningssystemer oppstår en begrunnelsesplikt. Begrunnelsen må inneholde hjemmel og formål, samt egnethet til å oppnå formålet. Den bør også beskrive alternative løsninger.
- Algoritmisk innsyn og kontroll: Systemet må tilfredsstille krav om innsyn og kontroll. Det må være klart hvordan man sikrer datakvalitet, hvordan oversyn og kontroll kan gjøres på en tilfredsstillende måte, samt hvordan data som går ut på dato ikke legges til grunn.
- Overprøving: Systemet må være konstruert på en måte som gjør det mulig å etterprøve beslutningen, samt å utøve kontradiksjon. Når profileringsmodeller benyttes til beslutninger, må det være vilkår om at modellene er i stand til å produsere konkrete begrunnelser. Det samme vil gjelde profileringsmodeller til beslutningsstøtte.
- Kartlegging av risiko for menneskerettighetene: Myndighetene må kartlegge risikoen for menneskerettighetene, herunder risiko for vilkårlige beslutninger, diskriminerende beslutninger, om teknologien tilfredstiller GDPRs vilkår om personvern, dataminimering eller om den baserer seg på korrekte data. Kartleggingen bør beskrive hvilke tiltak som kan iverksettes for å begrense slik risiko. Jo mer inngripende tiltak autonome beslutningssystemer muliggjør, desto strengere vilkår stilles til kartlegging av de menneskerettslige konsekvensene og tiltak for å bøte på dette.
- Deltakelse for utsatte grupper: Statlige myndigheter har et særlig ansvar for å sørge for etterlevelse av konvensjonsforpliktelsene under saksbehandlingen. Ved bruk av profileringsmodeller for saksbehandling, må man sikre reelle muligheter for at de berørte kan bli hørt. Ved helautomatiserte prosesser, må det klargjøres hvordan disse rammer sårbare grupper og hvilke tiltak som kan virke avbøtende. Ved bruk av beslutningsstøtte, må man sikre at modellen ikke får en uforholdsmessig stor innflytelse og blir beslutningsstyrende istedenfor beslutningstøttende.