Fagsnakk fra Cappelen Damm

Hjelpsomme og fordomsfulle algoritmer

Begrepet algoritmer dukker opp i stadig flere sammenhenger. Algoritmer er et verktøy med mange ulike bruksområder og konsekvenser. De kan være hjelpsomme  – og fordomsfulle. En algoritme er i enkleste forstand det samme som en oppskrift. Ved å følge stegene i oppskriften oppnås et definert mål: følges for eksempel alle stegene i en brødoppskrift blir målet, eller resultatet, et brød. I de nye læreplanene som trer i kraft fra skoleåret 2020/21, er algoritmer og algoritmisk tenkning inne i kjerneelementer og kompetansemål i flere fag.

UUNNVÆRLIG verktøy I INFORMASJONSSAMFUNNET

Algoritmer er fantastiske verktøy i mange ulike situasjoner, spesielt når mengden informasjon – eller data – vi omgir oss med er dramatisk økende. Et eksempel er søkemotorer på internett. Hvis vi skulle søkt uten at “noen” sorterte dataene først, ville treffene vi fikk være uhåndterlige å orientere seg i. Med den mengden data om finnes på internett nå, ville det tatt oss veldig lang tid å lese igjennom alle treffene for å finne svar på spørsmålet. Et enkelt søk etter “hva er klokka” i en søkemotor, gir for eksempel omtrent 3 millioner treff. Hvis det er hvor mye klokka er nå man vil vite, viser treffene en stor bredde – alt fra hva en klokke er, hva klokka er nå til artikler og sider som inkluderer ordene i spørsmålet vårt. En søke-algoritme vil derimot raskt sortere dataene, basert på noen forhåndsdefinerte kriterier, slik at de mest relevante kommer først. Algoritmene kan sortere raskt fordi datamaskinene de kjører på er så kraftige

EN KOMBINASJON AV MENNESKEKRAFT OG DATAKRAFT ER NØDVENDIG

Maskiner kan altså analysere og systematisere data uendelig mye raskere enn mennesker. Det snakkes om at algoritmer kan revolusjonere for eksempel diagnostisering av noen kreft-tilfeller . Da handler det om at en datamaskin er i stand til å bearbeide enorme informasjonsmengder (tidligere prøvesvar, epikriser, røntgenbilder, MR, CT, osv.) svært raskt. Slike mengder historiske data er ofte ikke mulig for den menneskelige hjerne å analysere på egen hånd. Imidlertid er det hevet over enhver tvil at det fortsatt er behov for den menneskelige erfaring, skjønnsmessige vurdering og særegne kapasitet til tolkning. En kombinasjon av menneskekraft og datakraft er uunngåelig.

UBEGRUNNET OPTIMISME om UPARTISKHET

Det er også stor optimisme knyttet til at maskiner kan behandle informasjon på en mer upartisk måte enn mennesker. Derfor fremstår det som paradoksalt at maskinelle prosedyrer faktisk kan føre til fordomsfullhet i større skala enn menneskene gjør.

Ulike negative sider ved å ta maskiner til hjelp for å behandle store datasett viser seg med jevne mellomrom. Et av det største problemene med algoritmer er fordomsfullhet, at algoritmene ikke presenterer objektive og nøytrale resultater – snarere at de både kan gi skjeve og diskriminerende utfall som kan få store konsekvenser. Algoritmer brukt i bildegjenkjenningssystemer har hatt problemer med å identifisere ikke-hvite kvinner, mens de er svært gode på å finne etnisk, hvite menn. Dette er fordi de som har bestemt hvilke datasett, altså hvilke bilder, algoritmen skal trene på – ikke har passet på at det er nok bilder av alle typer mennesker med tanke på etnisitet, alder og kjønn. Hvis data-settene inneholder flest bilder av etnisk, hvite middelaldrende menn er det det algoritmen blir god på å kjenne igjen. Det kan føre til en rekke utilsiktede og uheldige konsekvenser.

FORDOMMER I STOR SKALA

En stor utfordring og grunn til å overvåke den tette integrasjonen mellom algoritmer og direkte konsekvenser er måten innebygde fordommer skalerer voldsomt når volumet øker.  Altså når et system eller en løsning tas i bruk av mange vil en feil også ramme mange. Eksempler fra amerikanske rettssaler er velegnet til å illustrere dette. Dersom én enkeltstående dommer er partisk kan vedkommende sannelig påvirke enkeltmenneskers liv, men i begrenset omfang – kanskje et par hundre gjennom en yrkeskarriere. Dersom en algoritme med innebygde fordommer tas i bruk i alle rettssaler vil antallet øke betraktelig – langt ut over den enkelte dommers vurderinger.

Tilsvarende gjelder rekrutteringssystemer: Én enkelt rekrutteringskonsulent med sine fordommer kan påvirke enkeltmennesker – men en fordomsfull rekrutteringsalgoritme som har fått trene på skjeve datasett kan påvirke tusenvis av mennesker.  Det er ikke slik at algoritmer og datamaskiner er selvstendig tenkende enheter, og der vi tar i bruk maskiner for å fjerne menneskelig subjektivitet står vi i fare for å skape større urettferdighet i forsøket på å gjøre beslutninger nøytrale og objektive.

Fordommer oppstår på bakgrunn av sannsynlighetsberegning

Dersom en algoritme skrevet for å lese CV-er blir fôret med datasett fra tidligere ansettelser, og selskapet som eier datasettet historisk sett har ansatt flere hvite menn enn andre etnisiteter og kjønn – så vil algoritmen fange opp denne trenden og følgelig anbefale en lik ansettelse. Dette er standard sannsynlighetsberegning og avslører at selve datasettene er en kritisk faktor. I  eksemplene nevnt over er det verken onde intensjoner hos utviklere eller subjektive handlinger som forårsaker diskriminering – det er usynlige skjevheter i datasettene og ubevissthet rundt hvordan skjevheten arter seg ved skalering som gir dette resultatet.

Denne «ubevisstheten» forblir ukjent inntil den oppdages, og det skjer heldigvis at mennesker ser nærmere på beslutninger gjort av datamaskiner og ettergår algoritmene. Etter at disse eksemplene er oppdaget og forsket på, kan man gjøre mange grep for å korrigerer slike utfall – ved å kvalitetssikre datasettene og også legge til flere parametre i algoritmene.

MASKINLÆRENDE ALGORITMER MÅ KVALITETSSIKRES – AV MENNESKER

Maskinlærende algoritmer er avhengige av å ha datasett bestående av relevant informasjon for å trene opp beslutningsmotoren sin. Disse datasettene bør tilfredsstille noen minimumskrav, hvor selve datakvaliteten er et vesentlig et. I tillegg påvirkes resultater algoritmene kommer fram til av hvordan datasettene er samlet inn og organisert. Oppbygning av databaser og katalogisering utføres av mennesker og avhenger av hvilke kriterier som tas i bruk. Hvilke metadata som benyttes er ikke nødvendigvis basert på objektive valg. Også måten en programmerer setter opp algoritmer til å sortere datasettene på gjøres etter prioriteringer og hierarkier og krever menneskelige valg rundt hvordan data kategoriseres, inkluderes eller forkastes.

De siste årene har vi lest om flere  problemstillinger som går på at en minoritet har blitt urettferdig behandlet i et system. Et bildegjenkjenningssystem, som nevnt over,  er et eksempel på en løsning som er bygd opp av algoritmer som lærer seg å kjenne igjen ansikt basert på datasett med eksisterende bilder av ansikter.

Det samme gjelder systemer som skal gjenkjenne stemmer, som tilsvarende ikke har klart å identifisere lysere stemmer/kvinnestemmer like godt som mannlige stemmer fordi datasettene har inneholdt flest mannlige stemmer.

Ett konkret eksempel på hvorfor dette kan være problematisk: I nyere biler er ofte stemmegjenkjenningssystemer installert, de kan gjøre alt fra å gjøre anrop på telefon, sende SMS, osv. Hvis det er slik at dette systemet ikke gjenkjenner en kvinnestemme som en – ja, stemme, vil den ikke oppfatte det stemmen sier heller. I verste fall, ved en bilulykke kan sjåføren forsøke å ringe via stemmegjenkjenningssystemet på grunn av skade, men så vil det ikke fungere fordi sjåføren er en kvinne.

BEVISST OG KRITISK BRUK AV ALGORITMER

Det er vanskelig å se for seg en verden uten algoritmer nå, de er sammenfiltret med våre liv på måter det ikke har helt oversikt over. Vi har sett at det kan oppstå alvorlige problemstillinger dersom de brukes uten å være bevisst og kritisk til både den informasjonen som blir brukt til å fôre algoritmene, såvel som at vi ikke bør stole blindt på utfallene men bære med oss vår menneskelig evne til kritisk sans. Hvorvidt vi opplever algoritmenes arbeid for oss som positivt eller negativt er avhengig av flere momenter, blant annet hvor relevante anbefalingene vi får i for eksempel Spotify, på nettsteder for hoteller og reiser. Hvis relevansen ikke er der, faller poenget bort for oss.

TILLIT

Tillit er et viktig stikkord, og til hvem har vi tillit til? I noen land har forskning vist at respondenter har større tillit til kunstig intelligens enn politikere. 25% av respondentene svarte at de har større tillit til politiske beslutninger fattet av kunstig intelligens fremfor av politikere. Slik forskning er viktig for å forstå den makten som ligger bak algoritmene. Ikke bare i form av den subtile og transparente påvirkning vi utsettes for, men også fordi mennesker i vår tid plutselig stoler mer på maskiner enn politikere. Det er lett å se for seg negative konsekvenser av slik ubegrunnet tillit, men det kan også være grunn til å minne om mulighetene vi mennesker har til å gjøre noe med slike utfordringer: Fordomsfulle mennesker kan være vanskelig å forandre, fordomsfulle algoritmer derimot – dét kan vi gjøre noe med! Det krever imidlertid at vi alle engasjerer oss og forstår hva det er og at vi alle påvirkes på et eller annet nivå.

I mange av eksemplene over er feilene korrigert. Der datasett har vist seg å være ufullstendige slik at resultatene av algoritmenes jobbing har blitt fordomsfulle, skjeve eller inkonsistente har datasettene eller algoritmen blitt endret.  Læring skjer, heldigvis. Én viktig forutsetning for dette, er at mange engasjerer seg og har kunnskap om både positive og negative muligheter knyttet til algoritmer.

ALGORITMER INN I SKOLEN

Algoritmer og algoritmisk tenkning har kommet inn i både kjerneelementer og kompetansemål i noen ulike fag i de nye læreplanene som trer i kraft høsten 2020 (1). I noen av matematikk-kursene og i valgfaget programmering skal elevene selv kunne lage algoritmer og være produsenter, mens i samfunnsfag skal elevene øve på å forstå hvordan algoritmer påvirker informasjonssøk og reflektere over hvordan ens digitale spor kan brukes eller misbrukes av andre. Dette ønsker jeg varmt velkommen!  Både ungdom og voksne trenger kunnskap om algoritmer og mer generelt om teknologien vi bruker og som preger vår virkelighet. Digital kompetanse angår alle samfunnsborgere og bør ikke forbeholdes oss teknologer.

(1) Se Udirs oversikt på side 26-27 i høringsoppsummeringen de sendte til Kunnskapsdepartementet i september 2019.

Torunn Aardal er teknolog og skribent. Denne artikkelen er den første i en serie. Annen del, om kritisk tenkning, kan du lese her

Torunn Aardal

(født 1977) er teknolog med MBA i strategisk ledelse og har mange års erfaring fra teknologibransjen. Skriver om teknologi og samfunn blant annet i Minerva og Klassekampen.

Hold deg oppdatert på Fagsnakk