Hvem skal ha ansvar for kunstig intelligens?
June 25, 2019
June 25, 2019
Det har skjedd mye siden jeg startet min karriere innen teknologi og IT for snart 10 år siden. Den gang lærte vi at maskiner kun kan gjøre det de ble fortalt. Jeg lærte også at en av grunnprinsippene ved bruk av teknologi er at den ikke skal arve menneskelige laster som forutinntatthet, partiskhet eller i verste fall diskriminering. Med fremveksten av kunstig intelligens er ikke dette lenger tilfellet.
I dag finnes det selvlærende algoritmer som helt uten menneskelig påvirkning kan ta viktige beslutninger innen sentrale funksjoner i samfunnet. Dersom disse systemene blir fôret med et unøytralt datagrunnlag kan de i verste fall være direkte diskriminerende. En av de mest fremtredende eksemplene på dette skjedde da amerikanske tilsynsmyndigheter brukte selvlærende algoritmer til å forutse gjentakelsesfaren blant tidligere straffedømte. Resultatet ble svært uheldig da algoritmen endte opp med å diskriminere på bakgrunn av hudfarge. Det viste seg at systemet overvurderte sannsynligheten for gjentakelse blant afroamerikanske straffedømte, og undervurderte tilsvarende hos de hvite. Algoritmen hadde brukt hudfarge som en av de mest sentrale parameterne siden flere afroamerikanere historisk sett hadde blitt straffedømt. Når kunstig intelligens tar steget fra «laben» og ut i det virkelige liv er slike uheldige konsekvenser en reell risiko, også i Norge.
Når regjeringen, ledet an av vår nye digitaliseringsminister Nikolai Astrup, nå jobber med en ny nasjonal strategi for kunstig intelligens, bør et av de store spørsmålene være hvordan vi skal unngå lignende tilfeller i Norge. Svaret er, nokså forenklet, at teknologien må gjenspeile våre verdier, moralske prinsipper og grunnholdninger. Vi må rett og slett utdanne, oppdra og lære systemene rett fra galt. Kunstig intelligens vil gjøre det vi forteller den. Vi kan dermed ikke forvente at en algoritme som har blitt trent på et datagrunnlag som gjenspeiler vårt samfunn, oppfører seg bedre enn samfunnet - med mindre vi helt bevisst designer den til å være bedre. Slik jeg ser det bør følgende tre hovedutfordringer adresseres i den nasjonale strategien som ferdigstilles ved utgangen av 2019:
Disse utfordringene åpner også opp for det store spørsmålet for vår nye digitaliseringsminister: Hvordan skal samfunnet «regulere» kunstig intelligens? Hvem skal ha ansvar for å bestemme hvor og i hvilke sammenhenger vi kan og bør bruke kunstig intelligens? Hvem skal lære maskiner om hvilket datagrunnlag som bør brukes for å sikre ansvarlighet? Kunstig intelligens begynner å lære fra det sekundet den skrus på – vi må derfor sørge for at vi vurderer overnevnte spørsmål nøye og «oppdrar» den rett fra start.
Jeg støtter min amerikanske Accenture-kollega, og en av lederne for vår globale satsning på kunstig intelligens Ruman Chowdhury, at dette ansvaret ikke kun påligger myndighetene, men hele samfunnet. I samfunnet har vi normer og verdier som er utviklet og ivaretatt uten myndighetenes direkte innflytelse. Disse verdiene må også kunstig intelligens arve og reprodusere. Det kan kun skje ved at både samfunns- og næringsliv tar ansvar for å «oppdra» teknologien slik at den har en positiv innflytelse i fremtiden. Foreløpig finnes det få retningslinjer og en nasjonal strategi må derfor belyse denne tematikken.
Orginalt på trykk i Digi.no, 6.03.19.