
Hvordan unngå skyggebruk av KI og jobbsøl

Hva er Skyggebruk av KI og jobbsøl?
Skyggebruk av KI (shadow AI) handler om når ansatte bruker generative KI-verktøy som ChatGPT på eget initiativ uten at det er godkjent eller støttet av virksomheten. Det kan være at man bruker språkmodeller som ChatGPT, Copilot eller Claude (for å nevne noen), for å få hjelp med ulike oppgaver. Hvis du vil lese mer om begrepet kan vi anbefale denne artikkelen fra IBM.
Hovedpoenget her er at den ansatte bruker KI uten godkjennelse fra arbeidsgiver og at arbeidsgiver ikke vet om det. Manglende åpenhet rundt bruken er det som er problematisk, fordi det kan skjule seg stor risiko bak slik skyggebruk: Man kan risikere datalekkasje, manglende etterlevelse (compliance), og svekket tillit til virksomheten.
En annen risiko kan rett og slett være dårlige resultater. En språkmodell kan gi svar som bare er dårlig arbeid. Det leder oss inn i neste begrep.
Jobbsøl ("workslop") er arbeid som ser bra og effektivt ut på overflaten, men som egentlig bare er meningsløst søl. Harvard business review laget dette begrepet i en artikkel nå i september. Det oppstår når man bruker KI "feil" eller ukritisk.
De fleste bruker KI til språkrelaterte oppgaver – å skrive, forbedre eller oppsummere tekst. Det er naturlig, siden språkmodeller nettopp er trent på å lage tekst som ser bra ut. Men det er også her risikoen for jobbsøl er størst. Tekster, rapporter, e-poster og gjennomganger som er laget av KI kan se fine og ferdige ut på overflaten. Språket flyter. Men når man ser nærmere på dem ser man at det er fullt av feil og meningsløsheter.
Den som har brukt KI har ikke alltid forutsetninger for å oppdage feilen, eller har ikke tid til å sjekke nøye nok før de sender det fra seg. Det er da det blir sølete. Ofte blir det mottakeren som oppdager feilene. Det må rettes, renskrives eller gjøres på nytt. Kanskje av den som oppdaget det, nettopp fordi det krever en fagperson for å se hva som ville vært riktig.
Dette skaper merarbeid og hemmer produktivitet. For hvis man må gjennomgå og rette på oppsummeringen, kunne man kanskje bare ha skrevet den selv?
Hvorfor skjer det?
Bruken av KI bunner i et ønske om å jobbe raskt og effektivt og få arbeidsoppgavene unna. Opplevelsen av tidspress og en forventning om effektivitet kan bidra her.
Manglende opplæring gjør at man:
- overvurderer hva språkmodellene faktisk kan
- ikke prompter bra nok
- ikke sjekker resultatet nøye nok
- ikke er bevisst risikoen ved bruk av KI
Manglende eller underkommuniserte retningslinjer kan være avgjørende. Hvis virksomheten har på plass tydelige retningslinjer som sier hvilke verktøy man kan bruke og hvorfor, så vil det være lettere for de ansatte å forholde seg til.
Når de ansatte ikke har fått spesialiserte verktøy kan de ende opp med å ty til generelle verktøy som er gode på tekst, men ikke spesifikt gode på akkurat det fagfeltet man jobber med. Hvis man tror at KI-en kan mer enn den kan, og den skriver overbevisende, er det lett å la seg lure. Kanskje man ender opp med å ikke utnytte den muligheten man har til å lære noe nytt og utvikle seg.
Hva kan være eksempler på jobbsøl og skyggebruk av KI?
I Norge har vi sett flere eksempler på jobbsøl og skyggebruk av KI i media den siste tiden.
I Tromsø-skandalen var språkmodellen brukt på en måte som virket effektivt. Den ansatte ba om kilder som argumenterte for skolenedleggelser. Når kildene ble presentert på en troverdig måte, var det vanskelig å se feilen. Det ble først oppdaget da journalistene skulle skrive om saken, og de ikke kunne finne kildene.
I NTB hadde en journalist brukt KI til å lage en sak. Problemet var at saken var full av feil, både i sitater og navn. De trakk saken fort, men det tok likevel litt tid før det ble oppdaget.
Riksrevisjonen hevdet at KI kunne spare 155 000 årsverk. Men de nevnte ikke at tallet var hentet fra ChatGPT før journalistene gravde i det.
En fellesnevner er at det har vært manglende åpenhet om at KI har vært brukt fra start. Teksten har vært så overbevisende at det ikke ble oppdaget med en gang.
Hva kan du gjøre?
Det første som må på plass, er at ledelsen selv får nok kunnskap og innsikt til at de kan lage tydelige retningslinjer. Disse må utarbeides sammen med de som skal bruke dem, og de må være mulig å sette ut i praksis. De må kommuniseres godt og være kjent. Og man må prate om det. Ta ansvar for en god KI-kultur. Hvem kan man spørre om KI, hvordan stiller ledelsen seg, og holder man seg oppdatert?
Hvis du har Lawai, har du tilgang til Academy hvor du kan laste ned og selv tilpasse en egen kvalitetssikret mal for KI-retningslinjer.
Bruk riktig verktøy til riktig jobb. Generelle språkmodeller, som ChatGPT, er gode på tekst. Men de ikke spesialisert: De er ikke spesielt gode til noe. Hvis du derimot bruker spesialiserte verktøy som er spisset ditt fagområde, vil det være lettere å bruke og samtidig få resultater av det.
Opplæring av de ansatte er veldig viktig. Og utviklingen av KI går så fort at det er viktig å holde kunnskapen oppdatert. KI er nå både en viktig ressurs og en stor trussel. Derfor bør det vies mye tid til KI på arbeidsplassen. De ansatte må vite nok om KI til at de vet både styrker og svakheter, de må kunne prompte godt og effektivt og de må kunne risikoen ved bruk av KI.
Praktiske tips
Vi arrangerer jevnlig gratis webinar med Eivind Arntsen, der vi deler den nyeste utviklingen innen kunstig intelligens i HR-feltet. Du får innsikt i praktisk bruk, effektiv prompting, mulige risikoer og hvordan KI kan skape verdi i HR-arbeidet. Følg med på våre arrangementer for å se når neste kurs settes opp.
Vi i Lawai snakker med mange som bruker KI på arbeidsplassen, og vi har plukket opp mange gode tips på veien. Her får du andres erfaringer med KI på arbeidsplassen. Kanskje hører du en historie som treffer deg eller noen tips du kan ta med deg i dag?