Maskinlæringsteknologi og AI begynner å spille større roller i dagens samfunn. Fra autopilot-funksjonen, som lar deg slappe av på motorveien og trykker på bremsene når et menneske trer ut i gatentil kredittscore-algoritmer, som gjør lånebehandling mer effektiv, har ML blitt en del av hverdagen for mange mennesker. Selv om dette gjør livet enklere, er det imidlertid også spørsmål som dukker opp på grunn av denne teknologien, spesielt etiske. Vi har f.eks. sporvognsproblemer som kan oppstå i selvkjørende biler, og spørsmål om rettferdighet rundt hvem som faktisk får lån. Det er et stort antall intrikate etiske detaljer som skal vurderes når man utvikler og distribuerer moderne AI-systemer. 

Den kresne algoritmen 

I Skottland har man sett skoleelever få karakterene redusert fordi de tilfeldigvis bodde i et skoledistrikt som historisk har vært underpresterende. En algoritme som hadde som oppgave å validere og normalisere karakterene som elevene fikk tildelt av lærerne, hadde tatt studentenes postnummer som en av input-variablene, og hadde redusert karakterene til studenter fra mindre velstående postnummer med i gjennomsnitt 15,2% sammenlignet med 6,9% i rikere områder. 

De skotske skolestudentene er et eksempel på at kombinasjonen av etikk og AI er et vanskelig område. Tidlige eksempler på at denne kombinasjonen er krevendeer store teknologiselskapers ansettelsesalgoritmer som systematisk diskriminerer kvinnelige søkere, samt lån som metodisk blir nektet til ikke-hvite søkere selv om disse søkerne er like velstående som sine hvite kolleger. Disse utfordringene har vekket forskningsinteresse både i akademia og i privat sektor, hvor blant andre Accenture som har startet et Responsible AI-initiativ som en del av sin Applied Intelligence-praksis. I tillegg har teknologiledere måttet sette prosjekter som utviklet programvare hvis bruk kan være etisk tvilsom i seg selv på vent, for eksempel Amazon og IBM som stopper sitt arbeid med ansiktsgjenkjenningsteknologi.

Nøkkelkrav for pålitelig AI 

april 2019 presenterte EU-kommisjonen "7 Key Requirements for Trustworthy AI". Denne er basert på "AI4People Ethical Framework for a Good AI Societyog har satt standarden for hvilke grenser og krav som skal settes for utvikling av kunstig intelligens og avansert statistiske verktøy. Særlig har forklarbarhet, rettferdighet og personvern vært fokusområder for mye pågående forskning de siste årene. 

Når vi designer eller utvikler løsninger drevet av ML og AI, er dette aspekter vi må huske på. Respekterer analysen av telekommunikasjonsdata personvernet til hvert enkelt individ i datasettet? Har jeg vurdert om etniske minoriteter er tilstrekkelig representert i opplæringssettet for kredittpoengmodellen min? Er jeg i stand til å trekke ut en forklaring for hver avgjørelse den prediktive modellen min tar? 

Et eksempel på AI som blir implementert i tråd med personvernkravet i AI4People-initiativet er utviklingen av Differential Privacy. Dette er en teknikk som i dag er standard på alle iPhone-enheter og fungerer ved å å legge matematisk støy til dataene som hvert individ bidrar med inn i et datasett. På denne måten imøtekommer teknikken et av de viktigste kravene i Kearns og Roths «The Ethical Algorithm», nemlig at enkeltpersoner ikke skal ta skade av at deres data blir brukt i forskning eller analyse av tredjeparter.

De tre lovene om robotikk 

Tanken om at ingen mennesker skal kunne skades av handlinger fra automatiserte prosesser, er imidlertid ikke ny. Allerede i 1942 laget Isaac Asimov sine berømte "Three Laws of Robotics" som sier følgende: 

  1. En robot kan ikke skade et menneske eller ved passivitet la et menneske komme til skade. 
  2. En robot må adlyde ordrene gitt av mennesker, bortsett fra der slike ordrer er i strid med den første loven.
  3. En robot må beskytte sin egen eksistens så lenge en slik beskyttelse ikke er i strid med første eller andre lov. 

      Det er mulig å se hvordan disse lovene fungerte som en inspirasjon for de kravene som senere ble stilt til hvordan kunstig intelligens kan distribueres for å støtte mennesker. I sin bok "Kunstig intelligens og livsbetydningen" reiste imidlertid den tyske filosofen Richard David Precht spørsmålet om uttrykket "ikke å forårsake skade" egentlig innebar alt som er av etikk og moral. Selv om dette fokuset selvfølgelig støtter opp under en prisverdig innsats for ikke å forsterke eksisterende urettferdigheter og fordommer, gjør det lite for å innlemme en menneskelig moral, da denne er mye mer kompleks enn bare å "ikke forårsake skade" i en beslutningsprosess. 

      Moralen er enn bare "gjør ingen skade" 

      Ideen om at en handling er moralsk rettferdiggjort hvis den ikke øker mengden skade i verden, men i stedet øker glede eller "nytte", kommer fra den filosofiske teorien om utilitarisme. Teorien ble først introdusert på 1700-tallet av den engelske filosofen Jeremy Bentham, og ble senere videreutviklet av John Stuart Mill. Dette kan virke som en fornuftig regel for dagens AI-verktøy, og kunne kanskje forhindret karkaterblemmen for de skotske skolene. 

      Som Precht påpeker, kan ikke menneskelig moral alltid forenkles til "å beskytte noen mot skade" - det finnes enda en kategori av moralske tilbøyeligheter som ikke lett kan forklares med dette formålet. 

      Disse mer komplekse ideene, som vi som mennesker oppfatter som moralsk rettferdig eller urettferdig, er det ikke så klart definerte, siden de avhenger av individuell erfaring, kulturell bakgrunn og situasjonsbevissthet. Utfordringen med å uttrykke komplekse moralske tilbøyeligheter matematisk er sannsynligvis grunnen til at disse konseptene ikke blir implementert i eksisterende AI-systemer. 

      Så selv om det foregår mye god forskning for å sikre kravene til rettferdighet, personvern og forklarbarhet i nåværende maskinlæringsverktøy, tenker vi kanskje ikke i dag nok på hva som er riktig eller galt, hva som er akseptabelt og hva som er uakseptabelt. Kanskje er vi like langt fra å implementere disse komplekse ideene i AI som vi er fra å utvikle kunstig generell intelligens (AGI).

      Lennart R. Wilke

      Machine Learning Engineering Specialist

      Subscription Center
      Abonner på Accenture Innsikt Blog Abonner på Accenture Innsikt Blog