{{item.title}}
{{item.text}}
{{item.title}}
{{item.text}}
08/12/20
– Personvern kan tolkes for å få til gode AI-løsninger, mener personvernekspertene i PwC: Fra venstre: advokat Christine Ask Ottesen; Catharina Nes; leder for IT risk, Lars Erik Fjørtoft; AI-direktør Lars Erlend Leganger og advokat Cecilie Rønnevik.
Se for deg at du får avslag på lånesøknad fordi «algoritmen sa avslag». Eller du ikke får medisinsk behandling fordi algoritmen sa nei. Omtrent så forklarende er ofte kunstig intelligens (AI) i dag. Vi trenger retningslinjer som hjelper virksomheter å lykkes med ansvarlig AI.
– Jeg håper sandkassen bidrar til at man ikke ser på personvernregelverket som et hinder for innovasjon, men som et rammeverk for å lage gode og tillitvekkende AI-løsninger, sier Catharina Nes, nyansatt direktør i PwC.
– Det viktigste med den regulatoriske sandkassa til Datatilsynet er å minske fallhøyden forbundet med å sette i gang utvikling av nye AI-løsninger, forteller Nes som kommer fra lederstilling i Datatilsynet og har jobbet med sandkassa som ble lansert første desember 2020. Ved å delta i sandkassen kan prosjektdeltakerne, sammen med ansatte i Datatilsynet, identifisere risiko på et tidlig stadium i prosessen slik at man kan justere kursen i riktig retning.
– Mange AI-prosjekt går åt skogen fordi de glemmer å ta hensyn til det juridiske før i sluttspurten. Det kuleste med sandkassa til Datatilsynet er at de får testet konseptene juridisk på et tidlig tidspunkt. Egentlig burde alle nye AI-initiativ en tur i “sandkassa” for å identifisere og håndtere etiske, juridiske, og omdømmemessige risikoer før byggingen går i gang for alvor. Du trenger nemlig ikke være kjempestor for å bygge AI, sier AI-direktør Lars Erlend Leganger.
Ta lakmustesten på om du kan bruke AI i din bedrift.
– Personvern finnes ikke i et vakum. Nå skjer det mye på AI, og personvernreglene kan tolkes ulikt. Da er det viktig at vi sørger for å få gode kjøreregler for rettferdig AI , sier Fjørtoft som leder IT risk i PwC.
– Det største dilemmaet er at AI forutsetter at man skal bruke så mye data som mulig, mens personvernhensyn tilsier at man skall bruke så lite data som mulig for å oppnå formålet, sier personvernekspert og advokat i PwC, Cecilie Rønnevik.
Resultater fra PwCs Global CEO Survey (åpnes i nytt vindu) viser at AI er blant de viktigste fokusområdene for toppledere globalt. 85 % mener at AI kommer til å endre deres forretningsmodell, og nesten to av tre forventer at AI kommer til å bli større enn internettrevolusjonen.
Til tross for optimismen er mange forsiktig med å ta i bruk AI. AI fremstår for mange som komplisert og 84 % av de spurte mener at AI-beslutningene må kunne forklares for å skape tillit.
Ingen ville foreslått å forby biler som en måte å gjøre trafikken tryggere, men det er like utenkelig å ikke ha trafikkregler. Nå som roboter kan komme med forslag til ansettelser, anbefale medisinske behandlinger og ta del i juridiske beslutninger, trengs konkrete kjøreregler for AI-trafikken.
Dette bør være de viktigste AI-trafikkreglene:
Skal vi utnytte det fulle potensialet som ligger i AI er det viktig at AI-systemene er gjennomsiktige og kan forklares.
Suksessen til AI skyldes i stor grad dens imponerende prediktive kraft, men denne kommer på bekostning av forklarbarhet. AI kan foreta presise beregninger av ligningsverdien på en bolig, og raskt finne de beste kandidatene fra jobbsøkerbunken. Når AI benyttes til å foreta viktige beslutninger øker også behovet for forklarbarhet: Boligeier vil vite grunnen for AI-taksten og en jobbsøker vil forstå hvorfor han fikk avslag.
Svikt i forklaringene kan føre til at beslutninger tas på feil grunnlag, brudd på innsynsretten til forbrukere eller utsette organisasjoner for operasjonelle, finansielle og omdømmemessige farer. For å skape tillit til AI-systemer, må de være forståelige og forutsigbare.
Forventningen til forklaring fører med seg et viktig spørsmål: Hvem skal AI-systemets oppførsel forklares for?
Et mulig svar er at ulike brukere har ulike innsynskrav, og ulike behov for forklaring. Forklaringsmodellene må tilpasses ulikt om det er en boligeier som vil vite grunnen for AI-taksten som ble satt, eller om det er en maskinlæringsekspert som skal evaluere hvorvidt en AI-algoritme diskriminerer på kjønn.
Vi ser altså for oss to typer forklaringsmodeller: Èn kan være myntet på eksperter og interne, som har en dypere forståelse og rett til innsikt i data og forretningshemmeligheter. Den andre kan være beregnet for sluttbrukere, som primært har interesse av å vite hvilke av deres personlige opplysninger som inngikk i modellen og på hvilken måte disse var utslagsgivende.
Enkle modeller kan både forstås og forklares intuitivt. For mer kompliserte systemer, eksempelvis dype nevrale nettverk, er historien en annen, og forklaringsmodellene kan bli mer krevende å utarbeide enn selve AI-systemene.
For å trene opp en AI-algoritme, trengs det data fra tidligere beslutninger som for eksempel informasjon om tidligere ansettelser eller tidligere lånesøknader. I slike situasjoner er det en fare for at algoritmene «tar med seg» kjønns- og rasediskriminering som eksisterer i de historiske beslutningene inn i den automatiserte beslutningsmodellen.
Det finnes andre typer skjevhet som kan oppstå selv i situasjoner hvor det ikke er fare for diskriminering: For eksempel vil algoritmer som ansetter, gjennomfører studieopptak eller innvilger lån bare ha tilgang til faktiske beslutninger - ikke hva som hadde skjedd hvis beslutningene hadde vært annerledes. Hva med personene som aldri ble ansatt, aldri fikk innvilget lån eller som aldri kom inn på studiet? Siden vi ikke vet hva som ville skjedd i motsatt tilfelle, kan dataene representere et skjevt utvalg. Hvis vi skal kunne sammenlikne algoritmenes avgjørelser med menneskelige avgjørelser, må vi gjøre studier som korrigerer for slike skjevheter. Dette er typiske spørsmål i økonomiske studier, men svært sjeldent analysert av teknologer.
Det er bred enighet om at utvikling og bruk av AI må være etisk forsvarlig, men etiske prinsipper er kanskje de vanskeligste å formulere som konkrete tiltak.
For å kunne oversette prinsipper til konkrete regler, må prinsippene først spesifiseres i en gitt kontekst. Selve prosessen med å spesifisere etiske krav kan hjelpe bedrifter med å forstå de etiske implikasjonene av AI-systemene de utvikler. Implikasjonene må studeres nøye for å forstå potensielt utilsiktede konsekvenser, og det bør utformes konkrete tiltak for å unngå disse. Hvis bedrifter lykkes i å formulere konkrete tiltak, kan de også enklere implementeres som en del av AI-systemene.
At AI setter etiske spørsmål på agendaen er noe vi ser på flere områder, for eksempel med selvkjørende biler: Når et menneske er involvert i en ulykke, godtar vi at vedkommende handler på refleks og tar potensielt fatale avgjørelser i løpet av sekunder. Under programmeringen av bilkjøringsalgoritmer, har man derimot både tid og plikt til en diskusjon som dikterer beslutningsprosessen: Hvem skal bilen redde i ulike tilfeller?
For at samfunnet skal ha tillit til AI er beskyttelse av personopplysninger helt sentralt. Ansvaret for å avklare komplekse GDPR-vurderinger kan ikke ligge hos den enkelte virksomhet alene. Datatilsynet (og etterhvert et algoritmetilsyn) bør komme med regler som går på tvers av bransjer, mens bransjeorganisasjoner bør avklare bransjespesifikke forhold.
En rapport (åpnes i nytt vindu) fra Confederation of British Industry hevder at mistillit til AI vil føre til at britene havner bakpå i teknologikappløpet, og her i Norge ga Datatilsynet nylig sine innspill til regjeringens strategi for kunstig intelligens der behov for gjennomsiktighet og forklarbarhet trekkes frem. EU kom tidligere i år ut med første versjon av etiske AI-retningslinjer . De staker ut en kurs, men i det praktiske arbeidet er de like presise som en globus på fjelltur. Vi trenger kart og kompass når algoritmene utvikles.