Kan KI føre til urettferdighet i din bedrift? Algoritmisk diskriminering og veien videre.
Hva er en algoritme?
Når vi snakker om KI/Kunstig intelligens så er det egentlig algoritmer vi snakker om.
Tenk deg at du skal bake en kake. For å få en god kake, må du følge en oppskrift nøye. Hver oppskrift har en rekke trinn du må følge, fra å blande ingrediensene til å sette kaken i ovnen og ta den ut når den er ferdig.
En algoritme er litt som en oppskrift, men i stedet for å bake en kake, forteller den deg hvordan du skal løse et problem eller nå et mål.
Selv om algoritmer kan virke kompliserte, er de egentlig bare en rekke enkle instruksjoner som datamaskiner kan følge. Ved å bruke algoritmer kan vi lage dataprogrammer som kan gjøre mange av de samme tingene som mennesker kan gjøre, men mye raskere og mer nøyaktig.
Hvordan oppstår algoritmisk diskriminering? Tenk deg at du skal ansette noen, men bruker et dataprogram (KI-system) til å hjelpe deg. Programmet velger kun søkere av ett kjønn, av én religion og én livssituasjon. Dette kalles algoritmisk diskriminering.
Men hvorfor oppstår algoritmisk diskriminering? Algoritmisk diskriminering kan oppstå fordi algoritmen i dataprogrammet er trent på masse forskjellig data. Dataen algoritmen er trent på kan være dårlig, eksempelvis diskriminerende eller stamme fra et område hvor kun én homogen gruppe bor. I tillegg kan dataen som algoritmen mates inn med være feil eller ufullstendig. Dette gjør at algoritmen beregner riktig/oppskriften følges, men det er feil eller dårlige ingredienser– husk tilbake til eksempelet med kaken.
Hvordan kan vi oppdage algoritmisk diskriminering?
Det kan være vanskelig å oppdage og forhindre algoritmisk diskriminering, særlig fordi mange algoritmer og KI-systemer er komplekse og uoversiktlige. Det er ikke alltid klart hvordan de fungerer, hvilke data de bruker, eller hvilke konsekvenser de har. Dette kalles ofte "black box"-problematikken. I tillegg kan det være utfordrende å bevise at diskriminering har funnet sted, og å finne ut hvem som er ansvarlig for den.
For bedrifter som benytter seg av KI-systemer, kan man risikere å få et forklaringsproblem dersom det viser at dataprogrammet har diskriminert. Det klare utgangspunktet etter likestillings- og diskrimineringslovgivningen er at en person som mener seg diskriminert skal rette påstanden om dette mot den private eller offentlige aktøren som er avsender av en avgjørelse, og det er foreløpig ingen automatikk i at man kan skyve ansvaret for diskrimineringen over på de som har utviklet KI-systemet. Spørsmålet om hvem som er ansvarlig for diskriminering ved bruk av algoritmer og KI-systemer er imidlertid ikke avklart enda, og det blir spennende å følge utviklingen.
Hvordan forhindre algoritmisk diskriminering?
For å forhindre algoritmisk diskriminering må vi sørge for at dataene som brukes i dataprogrammer er nøyaktige og rettferdige.
Videre vil det være nødvendig å kreve at algoritmer og KI-systemer er forklarlige – altså at man kan forklare hvordan algoritmen kommer frem til sitt resultat. For å bruke kakeeksempelet en siste gang – hvordan er kakeoppskriften fulgt.
De færreste bedrifter utvikler algoritmer fra bunnen av og da er det viktig at de implementerer interne tiltak og rutiner for regelmessig gjennomgang av data som brukes av algoritmer for å avdekke eventuelle mønstre, sikre at utviklere, leverandører eller tredjeparter er transparente med hvordan algoritmen kommer frem til sine resultat, implementere etiske retningslinjer og gjennomføre uavhengige revisjoner – gjennom f.eks å teste algoritmene på forskjellige datasett for å se hvordan de «oppfører seg» overfor ulike grupper.
Som arbeidsgiver er det også viktig å sette i gang slike tiltak og rutiner så snart som mulig, i og med at det stilles strengere krav til aktivitets- og redegjørelsesplikten nå enn tidligere.
Veien videre
Selv om ikke vi i dag har eksplisitte regler for bruk av KI-system enda så har vi mange regler som er teknologinøytrale som vil dekke bruk av KI-system, inkludert likestilling- og diskrimineringslovgivningen.
I tillegg har EU nå formelt vedtatt sin KI-forordning som oppstiller krav til at KI-system ikke skal diskriminere i tråd med likestillings- og diskrimineringslovgivningen. I tillegg vil forordningen pålegge plikter for blant annet leverandørene – og i forlengelse – brukerne (bedrifter) om å kunne dokumentere at systemene ikke diskriminerer og hvordan algoritmer kommer frem til sine resultat.
Avslutningsvis foregår det nå i EU forhandlinger om det som kalles «plattformdirektivet». Det foreslåtte direktivet har som formål å bedre arbeidsvilkårene og klargjøre ansettelsesstatus for personer som jobber via digitale plattformer som for eksempel Wolt og Uber. Det er foreløpig uvisst om direktivet kommer til å bli vedtatt eller ikke, men en sentral del av det foreslåtte direktivet er imidlertid også at selskapene skal evaluere risikoen for diskriminering som følge av automatiserte beslutninger. I det foreslåtte direktivets kapittel 3 pålegges digitale arbeidsplattformer å gi arbeidstakere informasjon om automatiserte overvåkingssystemer og beslutningssystemer som «på vesentlig måte påvirker» arbeidsforholdene, eksempelvis tilgang til arbeidsoppgaver, lønnsfastsettelse og arbeidstid. Hvis direktivet går gjennom vil det være et eksempel på en strengere regulering av KI-systemer i arbeidslivet, og derfor er det viktig å allerede nå være i forkant av reguleringene som kan komme.