2. Hva gjør ny teknologi?
Teknologiutviklingen kan bidra til å styrke menneskerettighetene. Men ny teknologi setter også menneskerettighetene på en hard prøve.
«Vi skaper våre teknologier, og deretter omskaper de oss.»
Marshall McLuhan, mediefilosof
Den første store europeiske rapporten om samfunnsmessige følger av kunstig intelligens fra 2017 predikerte at kunstig intelligens vil påvirke vår sikkerhet, etikk, lover og regler, demokrati, relasjoner, innsynsmuligheter, privatliv, arbeid og utdannelse.1Den europeiske økonomiske og sosiale komite, Opinion on AI & Society (INT/806), 2017. Digital teknologi kan øke effektiviteten og treffsikkerheten i offentlig styring og forvaltning. Ny teknologi kan sette myndighetene bedre i stand til å innfri sine positive menneskerettighetsforpliktelser, som retten til utdannelse, retten til arbeid og retten til helse. Kunstig intelligens kan benyttes til å finne personer som får utbetalt mer penger enn de har krav på fra Nav, identifisere mennesker som har forhøyet risiko for bivirkninger ved medisinbruk eller de som er i risikogruppen for å bli langtidsledige. Kunstig intelligens og maskinlæring kan også benyttes til å predikere fremtidige handlingsmønstre, og bistå myndighetene med å hindre kriminalitet og sørge for mer treffsikre tiltak for å sikre andre menneskerettigheter.
Den europeiske rapporten fra 2017 forutså imidlertid også noe annet – at utstrakt bruk av kunstig intelligens vil øke økonomisk ulikhet.2Den europeiske økonomiske og sosiale komite, 2017. Kjernen i våre dagers bekymringer rundt maskinlæring og kunstig intelligens ligger nettopp her: frykt for at våre samfunn vil formes og kontrolleres av digitale virkemidler med ukjente effekter, istedenfor at vi tar kontroll over hvordan teknologien brukes og utnyttes til beste for samfunnet. For ny teknologi kan true menneskerettighetene på en rekke måter og områder.
Ny teknologi kan forsterke diskriminerende praksis. Den kan også skape nye former for diskriminering. Tilgang til digitale flater er gjerne ulikt fordelt når det gjelder språk, innhold og infrastruktur, og eksisterende skjevheter kan forsterkes av ny teknologi.3FNs generalsekretærs rapport. Roadmap for Digital Cooperation: Implementation of the Recommendations of the High-Level Panel on Digital Cooperation, avsn. 6, 2020. Hvilke data som er tilgjengelige vil også gjerne reflektere ulikheter av sosial, økonomisk, politisk eller annen art.4FNs menneskerettighetsråd. Human Rights of Older Persons: The Data Gap, rapport, 2020. Ettersom maskinene baserer seg på algoritmer som mennesker har laget, kan diskriminerende praksis videreføres digitalt. I Storbritannia har for eksempel bruk av kunstig intelligens for å forutse fremtidige lovbrudd vist seg å diskriminere de som kommer fra lavinntektsområder. Resultatet vil alltid bero på den informasjonen man legger inn, og diskriminerende praksis vil derfor kunne gjentas og forsterkes digitalt. Måten teknologien fungerer kan også skape nye former for diskriminering. I USA har for eksempel ansiktsgjenkjenning hatt problemer med å identifisere mørkhudede, og diskriminering har blitt en konsekvens.
Med digitale analyseverktøy tiltar også samfunnskontrollen. Ny teknologi gir nye muligheter for å avdekke misbruk av statlige tjenester. Ytelser som statlige myndigheter gir individer for å sikre deres menneskerettigheter kan gjøres mer effektive og rettmessige av ny teknologi. Utfordringen er at når vi som samfunn får tilgang til teknologi som er egnet til å avdekke misbruk, vil bruken av analyseverktøyene gjerne rettes inn mot å «ta dem som lurer systemet». Når styresmaktene bruker teknologien til å identifisere alle som kan tenkes å jukse istedenfor å gjøre nytte av teknologien til å øke individenes velferd, øker risikoen for en digital velferdsdystopi.5Philip Alston, Report from the UN special rapporteur on extreme poverty and human rights to the GA, 2020.
Under covid-19-pandemien var kunstig intelligens svært viktig for å bidra til å finne en vaksine raskt, men også for å effektivisere smittesporing. Kunstig intelligens bidro til å styrke retten til liv og helse. Men her kommer kunstig intelligens raskt på kollisjonskurs med andre menneskeretter som gir vern knyttet til informasjon om hver av oss, fra den samles inn frem til den benyttes eller slettes. Informasjonen kan gi grunnlag for å fatte beslutninger som innebærer inngrep i våre materielle menneskerettigheter, for eksempel et bevegelsesforbud knyttet til smittevern. Teknologiutviklingen kan sette retten til liv og helse hos noen, opp mot andres rett til privatliv, ytringsfrihet, forsamlingsfrihet, samt forbudet mot diskriminering.6Szabo and Vissy v. Ungarn (37138/14), 12. jan. 2016, avsn. 57. Når vi tar i bruk ny teknologi med stor samfunnsnytte og effekt for enkelte sentrale menneskerettigheter, øker presset på andre av våre menneskerettigheter.
Ny teknologi gjør det mulig å samle inn enorme mengder av data om hver enkelt av oss. Innholdsdata viser hva som blir skrevet, mens kommunikasjonsdata viser hvem som har kommunisert med hvem. Slik data kan for eksempel gi oversikt over hvem som har vært til stede på en demonstrasjon mot myndighetene og hvem som har sosial omgang, og kan brukes til å kartlegge både kommunikasjon og bevegelse. Informasjonen kan avdekke allerede utførte handlinger, sosial aktivitet eller medlemskap i gruppe eller nettverk.7Government of the United Kingdom, «Operational Case for Bulk Powers», 2016, pkt. 5.6. Basert på disse dataene, gjør digitale analyseverktøy det mulig å identifisere handlingsmønstre.
Ny teknologi åpner også for nye typer uønsket vilkårlighet. For å virke best mulig er en del digitale løsninger avhengige av store mengder informasjon. Verktøyene må også vedlikeholdes og justeres jevnlig. Jo mer data og oppdaterte verktøy, desto mer treffsikker vil teknologien være, med fordelaktige konsekvenser for oss som samfunn (det blir billigere) og som enkeltindivider (vi får mer skreddersydde løsninger). Datamining og bruk av kunstig intelligens til å sette sammen data og statistikk på nye måter kan gi ny viten om oss som enkeltindivider. Når data om en person settes sammen, kan teknologien skape ny informasjon om personen (profilering). Imidlertid forsvinner da den opprinnelige konteksten. Når slike data samles inn uten personens vitende og vilje kan det bryte med retten til selvbestemmelse over informasjon om en selv. Når slik informasjon samles sammen gjennom et helt liv, har man med seg hele livet for alltid. I tillegg kan dataene være ufullstendige, upresise eller utdaterte, og kan sette personen i et feil lys.
Pålitelig og sikker bruk av kunstig intelligens er derfor avhengig av data av betydelig kvalitet og i betydelige mengder. Uten dette kan kunstig intelligens i liten grad utnyttes til det beste for samfunnet. For å bøte på den betydelige faren for feil, de-kontekstuell og selektiv informasjon som kan medføre utilsiktet diskriminering, er det tale om å bevege seg fra «stor data» til «smart data». Slik kan vi i noen grad løse utfordringene om «feil» informasjon. Til gjengjeld samles betydelig mer og bedre informasjon om den enkelte, som igjen reiser krevende problemstillinger om retten til privatliv.
Den samfunnsmessige nytten av ny teknologi kan være betydelig. Når digitale analyseverktøy gjør det mulig å identifisere handlingsmønstre, kan man etter hvert også forutsi fremtidige handlinger. Da er vi over i prediksjon om fremtidig adferd. Slike verktøy kan være med på å hindre for eksempel terrorisme eller cyber-kriminalitet. Økt digital overvåkning kan dermed bidra til å tilrettelegge for bedre gjennomføring av statens menneskerettighetsforpliktelser, som statens plikt til å sikre retten til liv og frihet.
Med teknologi som kan utføre prediksjon av fremtidige handlingsmønstre, kan man også i større grad forutsi fremtidig fare. Når slik informasjon finnes eller kan teknologisk fremskaffes, blir prevensjon (avverging av fare) mer naturlig som en sentral myndighetsoppgave. Med prevensjon som sentralt mål, blir monitorering og overvåkning et viktigere virkemiddel. Det blir et slags rustningskappløp mellom overvåkning og kontroll på den ene siden, og personvern på den andre. Slik øker presset på hver av oss om å akseptere mer vidtrekkende inngrep, fordi teknologien til å «gjøre noe med et samfunnsproblem» finnes og er noe vi kan nyttiggjøre oss av. Det kan ofte være vanskelig å argumentere mot slike forslag, som gjerne har gode intensjoner og skal ivareta viktige samfunnsinteresser, og som vil tjene oss både som enkeltpersoner og som fellesskap. Den europeiske menneskerettsdomstol (EMD) har ved flere anledninger formulert dette dilemmaet for statlig overvåkning ved at man risikerer å «undergrave demokratiet under dekke av å forsvare det».
Ny teknologi åpner for helt nye former for kartlegging, aldri tidligere muliggjort, verken online eller offline. Profilering kan brukes til å avlede personlige egenskaper eller predikere individers fremtidige oppførsel. Profilering kan også gi innsikt i fremtidig adferd på måter som gir muligheter til målrettede aksjoner mot enkeltmennesker for å påvirke deres adferd, for eksempel stemmegiving i valg. Det er særlig her ny teknologi eksponerer oss for nye typer overgrep. Informasjon om enkeltpersoner som er samlet inn uten samtykke og viten gjennom en lang rekke prosesser, kan utnyttes til å manipulere enkeltmennesker, for eksempel til å profilere folks politiske preferanser og manipulere demokratiske prosesser. EMD har klargjort at økt overvåkning muliggjort gjennom moderne teknologi har potensialet til både å underminere individuelle rettigheter og et effektivt deltakende demokrati.8Szabo and Vissy v. Ungarn, (37138/14), 12. jan. 2016, avsn. 57.
Når styresmaktene i økende grad belager seg på data og digitale analyseverktøy, reduserer man samtidig saksbehandleres menneskelige skjønnsutøvelse. Digitalisering og kunstig intelligens gir også anledning til å beregne borgeres fremtidige adferd, med en viss grad av sikkerhet. Dette fører oss mot en verden hvor myndighetene får stadig mer innsyn og kontroll med individene, mens individene får stadig mindre innsyn og kontroll med myndighetene og deres maskiner. Teknologiutviklingen legger derfor press av en helt ny art på menneskerettighetene.