Ansatte bruker apper som ikke er overvåket. De lekker data internt til verden
Mangel på gjennomsiktighet: Redde for at de ikke får oversikt over hvordan ansatte bruker teknologien
De frykter hvordan regulatoriske krav kan påvirke bruken av KI
De frykter at investeringen ikke gir gevinsten de håper på. At ansatte ikke tar det i bruk.
Dette er en diametralt ny måte å jobbe på. Det krever en enorm endringsledelse. Prosjektene er på et høyere plan enn IT-sjefer. Det er en game changer.
– Det grunnleggende sikkerhetsperspektivet er det viktigste. Det er det samme vi har snakket om i ti år nå: Sikker autentiseringskontroll, tilgangsstyring, nettverkssikkerhet, overvåking, ha en måte å respondere på varslinger på, bygg lag på lag med forsvar. Så det trengs mer enn en person for å overføre 500 000 kroner til andre, avslutter Eldar.
Disse hurtige utviklingene presser lovgivere til å regulere det nye markedet. For eksempel ble AI act vedtatt tidlig i 2024, og eksisterende reguleringer som EU GDPR (General Data Protection Regulation) og EU Data Act må også tas i betraktning. Mange institusjoner har publisert veiledning og rammeverk for sikkerheten til AI, inkludert NIST AI Risk Management, ENISA’s Multilayer Framework for Good Cybersecurity Practices for AI, UK National Cyber Security Center og US Cybersecurity and Infrastructure Security Agency Guidelines for sikker AI-systemutvikling, OWASP AI Exchange og MITRE ATLAS. Samtidig ligger utfordringen i å opprettholde en oversikt innenfor et svært dynamisk regulatorisk landskap og en raskt utviklende teknologi som AI. Standarder som ISO/IEC 42001 er viktige å vurdere for alle selskaper for å trygt implementere KI.
Les også: Tre steg for å implementere Copilot på en trygg måte
Se rapporten "managing the risk of generative AI". Alt en ansvarlig for compliance og sikkerhet trenger å vite.
Vi kan hjelpe deg med alt fra utvikling av KI-modeller til retningslinjer og organisering.
Ettersom generative KI-verktøy blir stadig mer tilgjengelige, dukker det opp en ny type risiko. “Skygge-KI" er uautoriserte applikasjoner brukt av ansatte og utviklere for bekvemmelighet eller eksperimentering. De omgår sikkerhetskontroller og øker sannsynligheten for databrudd eller lekkasjer. Dette forsterkes enda mer når vi ser at selskaper blokkerer tilgang til GenAI-verktøy på sine web-proxyer, noe som fører til at ansatte overfører sensitiv data til private enheter som kommer med et eget sett med risikoer.
–Å ha kontroll på data og hvem som har tilgang til den har alltid vært viktig. Data governance har blitt et helt annet tema nå. Nå er det en business enabler. Du får stor effekt av å bruke data til å skape verdi, sier Eldar Lorentzen Lillevik, cyberpartner i PwC.
Les mer: Slik bruker du Privileged Access Management (PAM) i din virksomhet
Kontekstbasert søking (Retrieval-Augmented-Generation/RAG) har åpnet markedet for individualisering. På denne måten kan bedrifter bruke generelle generativ KI-modeller og forsterke dem med sine interne og proprietære data. Samtidig forblir dataene innenfor et sikkert miljø uten behov for å trene dem direkte inn i modellene. Markedsperspektivet viser: Ettersom LLM-utdatakvaliteten konvergerer, kommer differensiering fra dataene som modellene har tilgang til. Bedrifter må finne måter å trygt mate den generative KI-en med dataene sine for ikke å falle bak.
Les mer: Seks råd til ledere som vil unngå cyberangrep
Kriminelle forholder seg ikke til compliance. De bruker KI for å kunne angripe enda raskere og de blir bedre og bedre på sosial manipulasjon, deepfakes og skadevare. – Men vi har etterhvert klart å stoppe mye, sier Eldar.
– Den grunnleggende cyber sikkerheten er det viktigste. Det er det samme vi har snakket om lenge: Sikker autentiseringskontroll, tIlgangsstyring, nettverkssikkerhet, overvåking, ha en måte å respondere på varslinger på, bygg lag på lag med forsvar, sier cyberpartner i PwC, Eldar Lorentzen Lillevik.
Se rapporten "managing the risk of generative AI". Alt en ansvarlig for compliance og sikkerhet trenger å vite.
Vi kan hjelpe deg med alt fra utvikling av KI-modeller til retningslinjer og organisering.