Kunstig intelligens blir i mye større grad enn før tatt i bruk til å ta kritiske forretningsavgjørelser. Det vil få konsekvenser for både samfunns- og næringsliv.

I stadig større omfang ser vi at kunstig intelligens brukes i kritiske funksjoner innen for eksempel helse, infrastruktur og finans. Økt bruk av selvlærende algoritmer bidrar til at vi nå ser et helt nytt risikobilde og dermed behov for nye spilleregler. Universitet i Oxford ga i februar ut en rapport om hvordan misbruk av kunstig intelligens kan få katastrofale konsekvenser. Accentures Technology Vision 2018 beskriver hvordan ansvarlig bruk av slike systemer må få større oppmerksomhet enn i dag og at dette er en utvikling vi må ta på alvor.

"Det menneskelige leddet som i alle tider har hatt et kritisk blikk på beslutningskjeden er ikke nødvendigvis tilstede lenger."

I dag finnes det algoritmer som gjør roboter i stand til å lære helt på egenhånd og ta kritiske beslutninger uten menneskelig påvirkning. Det er for eksempel utviklet roboter som er i stand til å lære seg regler i spill uten opplæring fra mennesker, men kun ved å spille mot seg selv og allikevel bli best i verden i løp av kort tid. Dette gjør at vi mennesker ikke nødvendigvis har kontroll over hvordan den har utviklet sin algoritme og hvordan utviklingen fortsetter. Det menneskelige leddet som i alle tider har hatt et kritisk blikk på beslutningskjeden er ikke nødvendigvis tilstede lenger. Enten om det er kundeveilederen i en kjøpsprosess, attestanten i en søknadsprosess eller sjåføren i en bil. Ukritisk bruk av kunstig intelligens kan få kritiske, eller i det minste uheldige konsekvenser. Man har blant annet eksempler hvor det er brukt algoritmer basert på store datamengder, for å avgjøre hvorvidt personer på bilder er menn eller kvinner. Det har i ett tilfelle ført til at roboten konkluderte med at alle personer som var avbildet på et kjøkken ble tolket som kvinner. Dette skjedde fordi datagrunnlaget ikke var 100% nøytralt, men inneholdt en del gamle bilder fra en tid hvor kjønnsrollene var annerledes.

La oss ta bankbransjen som et annet eksempel der selvlærende systemer er på frammarsj. Det er ikke utenkelig at det i nærmeste fremtid kun vil være opp til algoritmene å avgjøre om du får lån til bolig eller bil. Ukritisk bruk av kunstig intelligens i denne prosessen kan i verste fall føre til at roboten tar avgjørelser basert på hudfarge og etnisitet. Vi må derfor være oppmerksomme på hva vi fôrer våre systemer med og passe på at de normene vi har i samfunnet også implementeres i de systemene som brukes i kunstig intelligens. Med andre ord må selskapene ta ansvar for den algoritmen de lager selv og datagrunnlaget den får utvikle seg på. Det handler om å oppdra systemene før de eksponeres for kunder, samfunn og ansatte. Vi ser nå bilprodusenter som tar ansvar for eventuelle ulykker forårsaket av deres selvkjørende biler, og i flere andre bransjer er lignende problemstillinger på vei inn på toppledernes bekymringsliste. Dette setter helt nye krav til datagrunnlag og dataintegritet. Få norske selskaper har oversikten over den datainformasjonen som trengs for slik utstrakt bruk av intelligent automatisering. Et datagrunnlag som er korrekt for én type bruk, er ikke nødvendigvis en sannhet i alle tilfeller det kan tenkes brukt.

Med fremveksten av den såkalte fjerde industrielle revolusjon, er bruken av kunstig intelligens, algoritmer og robotisering kommet for å bli. Selv om Erna Solberg nylig ga uttrykk for at hun er teknologioptimist, og ikke frykter robotene og algoritmene, påligger det politikerne og beslutningstakere i offentlig sektor et ansvar om å ta innover seg de nye spillereglene og det nye risikobildet som vokser frem i kjølevannet av den fjerde industrielle revolusjon. Et bevisst forhold til datagrunnlag og ansvarlig bruk av kunstig intelligens er helt avgjørende i prosessen med å digitalisere samfunnet. Denne tematikken må få større oppmerksomhet enn den har i dag og vi må ta utviklingen på alvor.

Trygve Halvorsen

Leder for digital strategi i Accenture Norge

Kilder: University of Oxford (2018). The Malicious Use of Artificial intelligence: Forecasting, Prevention and Mitigation. Tilgjengelig fra: Malicious AI Report.

Les mer om Accenture Technology Vision 2018.

Originalt på trykk i Dagens næringsliv 28.08.18.

Subscription Center
Stay in the Know with Our Newsletter Stay in the Know with Our Newsletter