Vi trenger kjøreregler for kunstig intelligens

08/12/20

Rådgivere i PwC: Christine Ask Ottesten, Catharina Nes, Lar Erik Fjørtoft, Lars Erlend Leganger og Cecilie Rønnevik

– Personvern kan tolkes for å få til gode AI-løsninger, mener personvernekspertene i PwC: Fra venstre: advokat Christine Ask Ottesen; Catharina Nes; leder for IT risk, Lars Erik Fjørtoft; AI-direktør Lars Erlend Leganger og advokat Cecilie Rønnevik.

Se for deg at du får avslag på lånesøknad fordi «algoritmen sa avslag». Eller du ikke får medisinsk behandling fordi algoritmen sa nei. Omtrent så forklarende er ofte kunstig intelligens (AI) i dag. Vi trenger retningslinjer som hjelper virksomheter å lykkes med ansvarlig AI. 

– Jeg håper sandkassen bidrar til at man ikke ser på personvernregelverket som et hinder for innovasjon, men som et rammeverk for å lage gode og tillitvekkende AI-løsninger, sier Catharina Nes, nyansatt direktør i PwC.

Du trenger både jurister og teknologer for å skape innovasjon

– Det viktigste med den regulatoriske sandkassa til Datatilsynet er å minske fallhøyden forbundet med å sette i gang utvikling av nye AI-løsninger, forteller Nes som kommer fra lederstilling i Datatilsynet og har jobbet med sandkassa som ble lansert første desember 2020. Ved å delta i sandkassen kan prosjektdeltakerne, sammen med ansatte i Datatilsynet, identifisere risiko på et tidlig stadium i prosessen slik at man kan justere kursen i riktig retning. 

Det er mulig å bygge AI selv om du ikke heter Google

– Mange AI-prosjekt går åt skogen fordi de glemmer å ta hensyn til det juridiske før i sluttspurten. Det kuleste med sandkassa til Datatilsynet er at de får testet konseptene juridisk på et tidlig tidspunkt. Egentlig burde alle nye AI-initiativ en tur i “sandkassa” for å identifisere og håndtere etiske, juridiske, og omdømmemessige risikoer før byggingen går i gang for alvor. Du trenger nemlig ikke være kjempestor for å bygge AI, sier AI-direktør Lars Erlend Leganger.  

Ta lakmustesten på om du kan bruke AI i din bedrift.

Personvernreglene kan tolkes og endres 

– Personvern finnes ikke i et vakum. Nå skjer det mye på AI, og personvernreglene kan tolkes ulikt. Da er det viktig at vi sørger for å få gode kjøreregler for rettferdig AI , sier Fjørtoft som leder IT risk i PwC.

 – Det største dilemmaet er  at AI forutsetter at man skal bruke så  mye data som mulig, mens personvernhensyn tilsier at man skall bruke så lite data som mulig for å oppnå formålet, sier personvernekspert og advokat i PwC, Cecilie Rønnevik.

Mange sitter på AI-gjerdet

Resultater fra PwCs Global CEO Survey (åpnes i nytt vindu) viser at AI er blant de viktigste fokusområdene for toppledere globalt. 85 % mener at AI kommer til å endre deres forretningsmodell, og nesten to av tre forventer at AI kommer til å bli større enn internettrevolusjonen. 

Til tross for optimismen er mange forsiktig med å ta i bruk AI. AI fremstår for mange som komplisert og 84 % av de spurte mener at AI-beslutningene må kunne forklares for å skape tillit. 

Fire kjøreregler for å lykkes med ansvarlig AI

Ingen ville foreslått å forby biler som en måte å gjøre trafikken tryggere, men det er like utenkelig å ikke ha trafikkregler. Nå som roboter kan komme med forslag til ansettelser, anbefale medisinske behandlinger og ta del i juridiske beslutninger, trengs konkrete kjøreregler for AI-trafikken.

Dette bør være de viktigste AI-trafikkreglene:

  1. krav til forklarbarhet
  2. hvordan unngå bias/skjevhet
  3. etikk
  4. juss

Skal vi utnytte det fulle potensialet som ligger i AI er det viktig at AI-systemene er gjennomsiktige og kan forklares.

Daniel Øgård Kinn,AI-rådgiver

1. Krav til forklarbarhet

Suksessen til AI skyldes i stor grad dens imponerende prediktive kraft, men denne kommer på bekostning av forklarbarhet. AI kan foreta presise beregninger av ligningsverdien på en bolig, og raskt finne de beste kandidatene fra jobbsøkerbunken. Når AI benyttes til å foreta viktige beslutninger øker også behovet for forklarbarhet: Boligeier vil vite grunnen for AI-taksten og en jobbsøker vil forstå hvorfor han fikk avslag.

Svikt i forklaringene kan føre til at beslutninger tas på feil grunnlag, brudd på innsynsretten til forbrukere eller utsette organisasjoner for operasjonelle, finansielle og omdømmemessige farer. For å skape tillit til AI-systemer, må de være forståelige og forutsigbare. 

Forventningen til forklaring fører med seg et viktig spørsmål: Hvem skal AI-systemets oppførsel forklares for?

Et mulig svar er at ulike brukere har ulike innsynskrav, og ulike behov for forklaring. Forklaringsmodellene må tilpasses ulikt om det er en boligeier som vil vite grunnen for AI-taksten som ble satt, eller om det er en maskinlæringsekspert som skal evaluere hvorvidt en AI-algoritme diskriminerer på kjønn. 

Vi ser altså for oss to typer forklaringsmodeller: Èn kan være myntet på eksperter og interne, som har en dypere forståelse og rett til innsikt i data og forretningshemmeligheter. Den andre kan være beregnet for sluttbrukere, som primært har interesse av å vite hvilke av deres personlige opplysninger som inngikk i modellen og på hvilken måte disse var utslagsgivende.

Enkle modeller kan både forstås og forklares intuitivt. For mer kompliserte systemer, eksempelvis dype nevrale nettverk, er historien en annen, og forklaringsmodellene kan bli mer krevende å utarbeide enn selve AI-systemene. 

2. Hvordan unngå bias

For å trene opp en AI-algoritme, trengs det data fra tidligere beslutninger som for eksempel informasjon om tidligere ansettelser eller tidligere lånesøknader. I slike situasjoner er det en fare for at algoritmene «tar med seg» kjønns- og rasediskriminering som eksisterer i de historiske beslutningene inn i den automatiserte beslutningsmodellen. 

Det finnes andre typer skjevhet som kan oppstå selv i situasjoner hvor det ikke er fare for diskriminering: For eksempel vil algoritmer som ansetter, gjennomfører studieopptak eller innvilger lån bare ha tilgang til faktiske beslutninger - ikke hva som hadde skjedd hvis beslutningene hadde vært annerledes. Hva med personene som aldri ble ansatt, aldri fikk innvilget lån eller som aldri kom inn på studiet? Siden vi ikke vet hva som ville skjedd i motsatt tilfelle, kan dataene representere et skjevt utvalg. Hvis vi skal kunne sammenlikne algoritmenes avgjørelser med menneskelige avgjørelser, må vi gjøre studier som korrigerer for slike skjevheter. Dette er typiske spørsmål i økonomiske studier, men svært sjeldent analysert av teknologer.

3. Etikk

Det er bred enighet om at utvikling og bruk av AI må være etisk forsvarlig, men etiske prinsipper er kanskje de vanskeligste å formulere som konkrete tiltak. 

For å kunne oversette prinsipper til konkrete regler, må prinsippene først spesifiseres i en gitt kontekst. Selve prosessen med å spesifisere etiske krav kan hjelpe bedrifter med å forstå de etiske implikasjonene av AI-systemene de utvikler. Implikasjonene må studeres nøye for å forstå potensielt utilsiktede konsekvenser, og det bør utformes konkrete tiltak for å unngå disse. Hvis bedrifter lykkes i å formulere konkrete tiltak, kan de også enklere implementeres som en del av AI-systemene. 

At AI setter etiske spørsmål på agendaen er noe vi ser på flere områder, for eksempel med selvkjørende biler: Når et menneske er involvert i en ulykke, godtar vi at vedkommende handler på refleks og tar potensielt fatale avgjørelser i løpet av sekunder. Under programmeringen av bilkjøringsalgoritmer, har man derimot både tid og plikt til en diskusjon som dikterer beslutningsprosessen: Hvem skal bilen redde i ulike tilfeller?

4. Juss

For at samfunnet skal ha tillit til AI er beskyttelse av personopplysninger helt sentralt. Ansvaret for å avklare komplekse GDPR-vurderinger kan ikke ligge hos den enkelte virksomhet alene. Datatilsynet (og etterhvert et algoritmetilsyn) bør komme med regler som går på tvers av bransjer, mens bransjeorganisasjoner bør avklare bransjespesifikke forhold.

Like presise som globus på tur

En rapport (åpnes i nytt vindu) fra Confederation of British Industry hevder at mistillit til AI vil føre til at britene havner bakpå i teknologikappløpet, og her i Norge ga Datatilsynet nylig sine innspill til regjeringens strategi for kunstig intelligens der behov for gjennomsiktighet og forklarbarhet trekkes frem. EU kom tidligere i år ut med første versjon av etiske AI-retningslinjer . De staker ut en kurs, men i det praktiske arbeidet er de like presise som en globus på fjelltur. Vi trenger kart og kompass når algoritmene utvikles.

 

Kontakt oss

Christine Ask Ottesen

Christine Ask Ottesen

Advokat | Partner, PwC Norway

Tlf: 928 09 229

Daniel  Øgård Kinn

Daniel Øgård Kinn

Senior Manager | Deals, PwC Norway

Tlf: 481 65 598

Lars Erik Fjørtoft

Lars Erik Fjørtoft

Partner | Leder for Risk Services, PwC Norway

Tlf: 974 74 469