Etikk og AI – quo vadis?
January 5, 2021
January 5, 2021
Maskinlæringsteknologi og AI begynner å spille større roller i dagens samfunn. Fra autopilot-funksjonen, som lar deg slappe av på motorveien og trykker på bremsene når et menneske trer ut i gaten, til kredittscore-algoritmer, som gjør lånebehandling mer effektiv, har ML blitt en del av hverdagen for mange mennesker. Selv om dette gjør livet enklere, er det imidlertid også spørsmål som dukker opp på grunn av denne teknologien, spesielt etiske. Vi har f.eks. sporvognsproblemer som kan oppstå i selvkjørende biler, og spørsmål om rettferdighet rundt hvem som faktisk får lån. Det er et stort antall intrikate etiske detaljer som skal vurderes når man utvikler og distribuerer moderne AI-systemer.
I Skottland har man sett skoleelever få karakterene redusert fordi de tilfeldigvis bodde i et skoledistrikt som historisk har vært underpresterende. En algoritme som hadde som oppgave å validere og normalisere karakterene som elevene fikk tildelt av lærerne, hadde tatt studentenes postnummer som en av input-variablene, og hadde redusert karakterene til studenter fra mindre velstående postnummer med i gjennomsnitt 15,2% sammenlignet med 6,9% i rikere områder.
De skotske skolestudentene er et eksempel på at kombinasjonen av etikk og AI er et vanskelig område. Tidlige eksempler på at denne kombinasjonen er krevende, er store teknologiselskapers ansettelsesalgoritmer som systematisk diskriminerer kvinnelige søkere, samt lån som metodisk blir nektet til ikke-hvite søkere selv om disse søkerne er like velstående som sine hvite kolleger. Disse utfordringene har vekket forskningsinteresse både i akademia og i privat sektor, hvor blant andre Accenture som har startet et Responsible AI-initiativ som en del av sin Applied Intelligence-praksis. I tillegg har teknologiledere måttet sette prosjekter som utviklet programvare hvis bruk kan være etisk tvilsom i seg selv på vent, for eksempel Amazon og IBM som stopper sitt arbeid med ansiktsgjenkjenningsteknologi.
I april 2019 presenterte EU-kommisjonen "7 Key Requirements for Trustworthy AI". Denne er basert på "AI4People Ethical Framework for a Good AI Society" og har satt standarden for hvilke grenser og krav som skal settes for utvikling av kunstig intelligens og avansert statistiske verktøy. Særlig har forklarbarhet, rettferdighet og personvern vært fokusområder for mye pågående forskning de siste årene.
Når vi designer eller utvikler løsninger drevet av ML og AI, er dette aspekter vi må huske på. Respekterer analysen av telekommunikasjonsdata personvernet til hvert enkelt individ i datasettet? Har jeg vurdert om etniske minoriteter er tilstrekkelig representert i opplæringssettet for kredittpoengmodellen min? Er jeg i stand til å trekke ut en forklaring for hver avgjørelse den prediktive modellen min tar?
Tanken om at ingen mennesker skal kunne skades av handlinger fra automatiserte prosesser, er imidlertid ikke ny. Allerede i 1942 laget Isaac Asimov sine berømte "Three Laws of Robotics" som sier følgende:
Det er mulig å se hvordan disse lovene fungerte som en inspirasjon for de kravene som senere ble stilt til hvordan kunstig intelligens kan distribueres for å støtte mennesker. I sin bok "Kunstig intelligens og livsbetydningen" reiste imidlertid den tyske filosofen Richard David Precht spørsmålet om uttrykket "ikke å forårsake skade" egentlig innebar alt som er av etikk og moral. Selv om dette fokuset selvfølgelig støtter opp under en prisverdig innsats for ikke å forsterke eksisterende urettferdigheter og fordommer, gjør det lite for å innlemme en menneskelig moral, da denne er mye mer kompleks enn bare å "ikke forårsake skade" i en beslutningsprosess.
Ideen om at en handling er moralsk rettferdiggjort hvis den ikke øker mengden skade i verden, men i stedet øker glede eller "nytte", kommer fra den filosofiske teorien om utilitarisme. Teorien ble først introdusert på 1700-tallet av den engelske filosofen Jeremy Bentham, og ble senere videreutviklet av John Stuart Mill. Dette kan virke som en fornuftig regel for dagens AI-verktøy, og kunne kanskje forhindret karkaterblemmen for de skotske skolene.
Som Precht påpeker, kan ikke menneskelig moral alltid forenkles til "å beskytte noen mot skade" - det finnes enda en kategori av moralske tilbøyeligheter som ikke lett kan forklares med dette formålet.
Disse mer komplekse ideene, som vi som mennesker oppfatter som moralsk rettferdig eller urettferdig, er det ikke så klart definerte, siden de avhenger av individuell erfaring, kulturell bakgrunn og situasjonsbevissthet. Utfordringen med å uttrykke komplekse moralske tilbøyeligheter matematisk er sannsynligvis grunnen til at disse konseptene ikke blir implementert i eksisterende AI-systemer.
Så selv om det foregår mye god forskning for å sikre kravene til rettferdighet, personvern og forklarbarhet i nåværende maskinlæringsverktøy, tenker vi kanskje ikke i dag nok på hva som er riktig eller galt, hva som er akseptabelt og hva som er uakseptabelt. Kanskje er vi like langt fra å implementere disse komplekse ideene i AI som vi er fra å utvikle kunstig generell intelligens (AGI).