
Løpende oversikt over utviklingen i KI-regelverket

Kravene i den kommende KI-loven, som gjennomfører EUs KI-forordning, er omfattende og komplekse. Det kan derfor være krevende for virksomheter å forstå og holde oversikt over hvilke krav som gjelder. Loven er planlagt å tre i kraft sensommeren 2026, men den politiske utviklingen og den pågående debatten skaper fortsatt usikkerhet både om regelverkets endelige utforming og tidspunktet for ikrafttredelse.
Etter hvert som ikrafttredelsen nærmer seg, øker behovet for et klart, oppdatert og strukturert overblikk over regelverksutviklingen i både Norge og EU. I denne artikkelen samler vi derfor løpende oppdateringer, rettslige avklaringer og analyser knyttet til EUs KI-forordning og den norske KI-loven. Oversikten gjør det mulig å følge utviklingen uten å gå i dybden på politiske prosesser, samtidig som den legger til rette for tidlig identifisering av mangler og nødvendige tiltak.
Artikkelen er strukturert slik at kommende datoer presenteres øverst. Nedenfor følger en løpende oppdatert og kronologisk tidslinje over hendelser fra desember 2025 til i dag. For å se de nyeste oppdateringene må man bla forbi seksjonen med kommende datoer øverst i dokumentet.
(Artikkelen oppdateres ved relevante endringer og uttalelser. Den skal gjennomgås minimum annenhver uke)
Fremtidige datoer du bør være oppmerksom på:
Sensommeren 2026
# Tema: Ikrafftredelse og tidslinje
Den norske KI-loven er planlagt å tre i kraft. Loven skal gjennomføre EUs KI-forordning i norsk rett og etablere nasjonale rammer for tilsyn, håndheving og sanksjoner, herunder utpeking av kompetent tilsynsmyndighet.
02. august 2026
# Tema: Ikrafttredelse og tidslinje
(1) Hoveddelen av KI-forordningen trer i kraft. Artikkel 6 nr. 1 omfattes imidlertid ikke. Bestemmelsen fastsetter at KI-systemer skal klassifiseres som høyrisiko når de inngår som sikkerhetskomponent i et produkt, eller som selv utgjør et produkt, og som omfattes av EUs harmoniserte produktregelverk og krav om tredjeparts samsvarsvurdering. Slike KI-systemer klassifiseres derfor foreløpig ikke som høyrisiko etter KI-forordningen.
(2) Kravene som gjelder for høyrisiko-KI-systemer, herunder krav til risikostyring, datakvalitet, dokumentasjon og menneskelig kontroll, får som utgangspunkt ikke anvendelse for systemer som er brakt i omsetning eller tatt i bruk før 2. august 2026, med unntak av systemer omfattet av artikkel 111 nr. 1. For slike systemer oppstår plikter etter KI-forordningen først dersom det etter dette tidspunktet foretas vesentlige endringer i systemets utforming. I så fall anses systemet rettslig som «nytt» eller vesentlig endret, og operatøren blir underlagt forordningens krav til høyrisiko-KI.
(3) Medlemsstatene skal ha etablert minst én nasjonal regulatorisk KI-sandkasse som er operativ. En regulatorisk KI-sandkasse er en statlig styrt «øvelsesarena» der både virksomheter og myndigheter kan utvikle, teste og ta i bruk KI-systemer under tilsyn og veiledning fra kompetente aktører. I Norge har regjeringen besluttet at Digitaliseringsdirektoratet skal etablere en slik KI-sandkasse, kalt KI Norge, i samarbeid med Nkom og Datatilsynet. Datatilsynet har siden 2020 drevet en regulatorisk sandkasse for KI og innovasjon med særlig vekt på personvern, noe som gir et godt utgangspunkt for den nye sandkassen etter KI-forordningen.
Kronologisk tidslinje fra desember 2025 til i dag:
07. april 2026
# Tema: Utvikling og styring
Marcel Mir Teijeiro og Koen Holtman ved AI Standards Lab har analysert Rådets og Europaparlamentets posisjoner i forhandlingene om AI Omnibus. De anbefaler at hensynet til helse, sikkerhet og grunnleggende rettigheter prioriteres ved siden av administrativ forenkling. Konkret støttes gjeninnføring av registreringskrav, lovfesting av tilstrekkelig ressurstildeling til KI-kontoret, og en tidlig frist i februar 2027 for Kommisjonens veiledning om ettermarkedsovervåking.
02. april 2026
# Tema: Politisk og faglig debatt
Amnesty International hevder i en kritisk analyse av Digital Omnibus-forslaget i praksis fungerer som deregulering til fordel for næringslivsinteresser, ikke forenkling. Særlig pekes det på utsettelse av høyrisikoregler og en «grandfathering»-bestemmelse som tillater tidlig markedsintroduksjon uten full etterlevelse. Det advares også mot at en planlagt «digital fitness check» av eksisterende digitallovgivning kan legge til rette for ytterligere deregulering.
31. mars 2026
# Tema: Utvikling og styring
Eliška Andrš ved Future of Life Institute har publisert en oversikt over håndhevingen av reglene for leverandører av generelle KI-modeller (GPAI). Leverandørenes forpliktelser har vært gjeldende siden 2. august 2025, men Kommisjonens tilsyns- og håndhevingskompetanse trer ikke i kraft før 2. august 2026.
30. mars 2026
# Tema: Politisk og faglig debatt
Viktoria Henkemeier og Samuel Goodger ved European Policy Centre argumenterer for at KI-generert kjønnsbasert vold må behandles som et design- og styringsanliggende, ikke bare et spørsmål om innholdsmoderering. KI kan produsere skade i langt større skala enn tidligere og senker terskelen for reell vold. Likevel anerkjenner verken KI-forordningen eller de tilhørende atferdskodeksene kjønnede maktstrukturer eller kjønnsbasert vold som systemisk risiko.
30. mars 2026
# Tema: Politisk og faglig debatt
Julia Tréhu og Adrienne Goldstein ved German Marshall Fund rapporterer fra en amerikansk delegasjon som i desember 2025 besøkte Paris og Brussel for å studere europeisk KI-styring. Studieturen utfordrer forestillingen om at USA innoverer mens Europa regulerer, og finner delte prioriteringer om borgerbeskyttelse på tvers av Atlanteren.
Strukturelle hindringer for europeisk KI-konkurranseevne – som fragmenterte kapitalmarkeder, høye energikostnader og kompetanseflukt – vurderes som langt viktigere forklaringsfaktorer enn KI-forordningen.
26. mars 2026
# Tema: Ikrafttredelse og tidslinje
Europaparlamentet vedtok sin posisjon på forslaget om forenkling av KI-forordningen. Forslaget utsetter reglene for høyrisiko-KI-systemer for å gi tid til utarbeidelse av veiledning og standarder.
Parlamentet fastsetter faste anvendelsesdatoer: 2. desember 2027 for høyrisiko-KI-systemer og 2. august 2028 for systemer under sektorspesifikke sikkerhetsregelverk. Leverandører gis frist til 2. november 2026 for vannmerkingskrav.
18. mars 2026
# Tema: Ikrafttredelse og tidslinje
Europaparlamentets komité vedtok en felles posisjon om forenkling av KI-forordningen med 101 stemmer for, ni mot og åtte avholdende.
Forslaget støtter utsettelse av ikrafttredelsen for visse høyrisikoregler, ettersom sentrale standarder trolig ikke vil være ferdigstilt innen fristen 2. august 2026.
For å sikre forutsigbarhet foreslår parlamentet faste anvendelsesdatoer: 2. desember 2027 for høyrisiko-KI-systemer og 2. august 2028 for systemer omfattet av EUs sektorspesifikke sikkerhetsregelverk.
17. mars 2026
# Tema: Politisk og faglig debatt
Claudie Moreau og Maximilian Henning rapporterer i Euractiv at autonome KI-agenter er i ferd med å bli utbredt i praksis, og at det er uklart om EUs regelverk er tilstrekkelig tilpasset disse systemenes kapasiteter.
I motsetning til KI-chatboter som krever brukerinteraksjon, opererer agenter mer selvstendig og benytter digitale verktøy til å utføre oppgaver. Siden KI-forordningen ble utformet før agentbasert KI fikk sitt gjennombrudd, mener enkelte at det er behov for egne regler.
Kommissær Henna Virkkunen har antydet at agenter trolig faller inn under eksisterende regelverk, men noen tjenestemenn mener dedikerte regler er nødvendig. Ifølge en rapport fra november har EU-landene foreløpig argumentert mot nye regler og pekt på «regulatorisk utmattelse».
13. mars 2026
# Tema: Utvikling og styring
Rådet har vedtatt sin posisjon om forenkling av KI-reglene og behandler forslaget med høyeste prioritet. Rådet opprettholder i stor grad Kommisjonens forslag, men tilføyer enkelte bestemmelser.
Rådets mandat gjeninnfører leverandørers registreringsplikt i EU-databasen for systemer som er unntatt høyrisikokategorien, og utsetter etablering av KI-sandkasser til 2. desember 2027.
12. mars 2026
# Tema: Politisk og faglig debatt
Equinet og ENNHRI har i en felles uttalelse uttrykt bekymring for at de foreslåtte endringene i KI-forordningen gjennom Digital Omnibus gjennomføres uten tilstrekkelige konsekvensutredninger og offentlig høring.De understreker at KI-forordningen først trådte i kraft 1. august 2024, og at de fleste forpliktelsene først gjelder fra 2. august 2026, noe som gjør det for tidlig å foreta en meningsfull konsekvensutredning av regelverksendringer.
11. mars 2026
# Tema: Politisk og faglig debatt
Flere organisasjoner, blant andre TÜV-Verband, AlgorithmWatch og ForHumanity, advarer i et åpent brev mot Digital Omnibus-forslaget om å flytte høyrisikoprodukter til vedlegg I-B, noe som vil forlate KI-forordningens horisontale reguleringstilnærming.
De mener dette ikke vil forenkle regelverket, men tvert imot øke regulatorisk fragmentering, rettslig usikkerhet og langsiktige etterlevelseskostnader. Organisasjonene peker på at fragmenterte sektorspesifikke regler vil bremse innovasjon, øke kompleksiteten og særlig ramme oppstartsselskaper og SMBer.
Mars 2026
# Tema: Utvikling og styring
Tristan Marcelin fra Europaparlamentets forskningstjeneste har publisert en oversikt over håndhevingsstrukturen under KI-forordningen.
Forordningen håndheves gjennom en hybrid modell delt mellom medlemsstatene og EU-kommisjonen: risikobaserte krav for KI-systemer håndheves på nasjonalt nivå med sentralisert støtte, mens regler for generelle KI-modeller (GPAI) utelukkende håndheves av Kommisjonen. Det desentraliserte mønsteret er likevel dominerende, noe som kan føre til ulik håndheving på tvers av EU.
Medlemsstatene skal utpeke to nasjonale myndigheter – én for notifisering og én for markedstilsyn – som også fungerer som nasjonale kontaktpunkter. Fristen for utpeking var 2. august 2025, men mange land har opplevd forsinkelser.
På EU-nivå er følgende organer etablert for å støtte håndhevingen:
- KI-kontoret håndhever GPAI-reglene og utarbeider veiledning;
- Det europeiske KI-styret koordinerer nasjonale myndigheter;
- Det vitenskapelige ekspertpanelet gir faglige råd til KI-kontoret og nasjonale myndigheter; og
- KI-rådgivningsforumet sikrer bidrag fra næringsliv, oppstartsselskaper, SMBer, sivilsamfunn og akademia.
05. mars 2026
# Tema: Utvikling og styring
EU-kommisjonen har publisert sitt andre utkast til en frivillig atferdskodeks for merking av KI-generert innhold. Kodeksen skal støtte etterlevelsen av åpenhetskravene i artikkel 50 i KI-forordningen, som pålegger merking av KI-generert eller manipulert innhold.
Utkastet bygger på innspill fra næringsliv, akademia, sivilsamfunn og medlemsstater. Det legger opp til åpne standarder og et felles EU-ikon for merking.
Kodeksen er delt i to deler: én om teknisk merking og deteksjon av KI-innhold for leverandører av generative KI-systemer, og én om merking av blant annet deepfakes og KI-generert tekst om forhold av offentlig interesse.
05. mars 2026
# Tema: Politisk og faglig debatt
Eksperter fra The AI Standards Lab har analysert mer enn 750 foreslåtte endringer til Kommisjonens Digital Omnibus-forslag i Europaparlamentet.
De advarer særlig mot forslag som fritar leverandører av generelle KI-modeller med systemisk risiko fra tilsyn og forpliktelser, samt forslag om å unnta enkelte høyrisiko-KI-systemer fra forordningens virkeområde. Slike endringer kan etter deres syn skape regulatoriske smutthull og svekke håndhevingen.
26. februar 2026
# Tema: Politisk og faglig debatt
Ifølge Euractiv har ti EU-land, deriblant Tyskland, Frankrike, Italia, Spania og Polen, bedt om ytterligere avklaringer om hvordan KI-forordningen samvirker med EUs regelverk for maskiner og industriprodukter. De etterlyser også mer realistiske frister for gjennomføring av regler for industriell KI.
I Europaparlamentet har flere grupper samtidig foreslått forenklinger for industriell KI, blant annet ved å utvide et mildere regelregime til flere sektorer eller ved å unnta enkelte industrielle anvendelser fra forordningens virkeområde.
25. februar 2026
# Tema: Politisk og faglig debatt
Fire svenske teknologigründere argumenterer i et debattinnlegg i Sifted for at Europas konkurransefortrinn innen KI bør ligge i anvendelse av eksisterende modeller, fremfor utvikling av egne grunnmodeller i konkurranse med USA og Kina.
Samtidig peker de på at europeiske KI-strategier ofte gir begrensede praktiske resultater. I Sverige trekkes særlig frem kompetanseflukt til teknologimiljøer i USA, samt fragmentering i offentlig sektor som en barriere for rask implementering av KI-teknologi.
16. februar 2026
# Tema: Politisk og faglig debatt
DIGITALEUROPE advarer mot å nøye seg med å utsette anvendelsen av høyrisikoreglene i KI-forordningen i forbindelse med behandlingen av AI Omnibus. Organisasjonen mener standarder og håndhevingsstrukturer ennå ikke er på plass, og at virksomheter derfor ikke har reelle forutsetninger for å etterleve regelverket.
Samtidig fremheves det at en forhastet vedtakelse av en kun marginalt revidert tekst kan låse inn strukturelle svakheter i forordningen i lang tid. Det etterlyses en bredere politisk diskusjon om regelverkets betydning for europeisk konkurranseevne før endringene vedtas.
13. februar 2026
# Tema: Utvikling og styring
Et nytt kompromissutkast fra Rådet om AI Omnibus utdyper og styrker KI-kontorets rolle i markedstilsynet etter KI-forordningen, ifølge Euractiv. I tråd med Kommisjonens forslag legges det opp til økt sentralisering av tilsynet på EU-nivå, særlig overfor KI-systemer som bygger på leverandørers egne generelle KI-modeller (GPAI).
Medlemsstatene presiserer at tilsynet også skal omfatte systemer utviklet innenfor samme «foretak», et vidt begrep som kan omfatte større konsernstrukturer. Utkastet gir KI-kontoret adgang til å kreve innsyn i selskapsdokumenter og data, ta kopier og avhøre ansatte, samtidig som lovbeskyttet informasjon og kildevern opprettholdes. Kontoret kan også anmode nasjonale myndigheter om å gjennomføre undersøkelser på sine vegne.
12. februar 2026
# Tema: Utvikling og styring
EUs KI-kontor har etablert Signatory Taskforce for å støtte gjennomføringen av reglene for generelle KI-modeller (GPAI) i KI-forordningen. Taskforcen, som ble opprettet 30. januar 2026 og ledes av KI-kontoret, skal bidra til en ensartet anvendelse av regelverket og legge til rette for dialog mellom signatarer av retningslinjene (Code of Practice).
Reglene for leverandører av generelle KI-modeller har vært gjeldende siden 2. august 2025 og stiller krav til blant annet åpenhet, sikkerhet og ansvarlighet. Etterlevelse kan dokumenteres gjennom tilslutning til retningslinjene, som er utarbeidet av uavhengige eksperter i en flerpartsprosess og godkjent av Kommisjonen og AI-styret.
Taskforcen skal fungere som forum for erfaringsutveksling, innspill til veiledning og drøftelser av teknologisk utvikling. Det skal publiseres et eget Vademecum med oversikt over deltakere, og møtene registreres med sammendrag, under hensyn til konfidensiell informasjon.
10. februar 2026
# Tema: Politisk og faglig debatt
I et brev ledet av Access Now ber en rekke organisasjoner og enkeltpersoner om at forslaget om å fjerne åpenhetsgarantien i AI Omnibus artikkel 49 nr. 2 for høyrisiko-KI-systemer avvises. Bestemmelsen skal hindre at leverandører omgår sentrale forpliktelser etter KI-forordningen.
Ifølge brevet vil en fjerning ikke innebære reell forenkling, men snarere svekke håndhevingen og skape økt risiko for helse, sikkerhet og grunnleggende rettigheter. Det fremheves særlig at:
- Markedstilsynsmyndigheter vil miste oversikt over unntak og forskjeller mellom medlemsstatene.
- Leverandører kan benytte lite transparente reservasjonsmuligheter, noe som skaper uheldige insentiver og setter ansvarlige aktører i en konkurranseulempe.
- Offentligheten får redusert innsyn i hvilke leverandører som påberoper seg unntak innenfor høyrisikokategorier, noe som undergraver åpenhet, tillit og muligheten til å utfordre slike unntak.
03. februar 2026
# Tema: Politisk og faglig debatt
Rapporten International AI Safety Report 2026 ble lansert under AI Impact Summit i New Delhi. Rapporten er ledet av Yoshua Bengio og utarbeidet av over 100 uavhengige eksperter fra mer enn 30 land.
Den analyserer kapabiliteter og risikoer knyttet til generelle KI-modeller, herunder misbruk (som deepfakes, manipulasjon og cyberangrep), tekniske svikt og mer systemiske effekter på arbeidsmarked og menneskelig autonomi.
Rapporten peker samtidig på at KI-systemer utvikler seg raskere enn kunnskapsgrunnlaget for sikker testing og regulering, noe som omtales som et «evidence dilemma».
Februar 2026
# Tema: Utvikling og styring
Europaparlamentets forskningstjeneste (EPRS) har publisert et bakgrunnsnotat om Digital Omnibus for KI, fremlagt av Kommisjonen i november 2025. Forslaget innebærer endringer i KI-forordningen og regelverket for sivil luftfart, med sikte på å håndtere implementeringsutfordringer og redusere reguleringsbyrden. Tiltaket inngår i en bredere digital pakke for å forenkle regelverket og styrke konkurranseevnen.
Samtidig understrekes det at forenkling ikke må svekke grunnleggende rettigheter. Interessentene står langt fra hverandre: Næringslivet etterlyser ytterligere lettelser og utsettelser, mens sivilsamfunnet advarer mot svekkelse av sentrale garantier. Forslaget behandles under tidspress, blant annet fordi det berører ikrafttredelsen av høyrisikoreglene fra 2. august 2026.
31. januar 2026
# Tema: Politisk og faglig debatt
Representanter fra ALLAI advarer mot at AI Omnibus innebærer strukturelle endringer som i realiteten svekker KI-forordningens beskyttelsesnivå, før store deler av regelverket har trådt i kraft. Det hevdes at forslaget beveger seg i retning av deregulering fremfor forenkling. Blant hovedinnvendingene er:
- Forenkling strider mot prinsippet om at klare og håndhevbare regler muliggjør innovasjon.
- Å knytte forpliktelser til standarder kan svekke proaktiv etterlevelse og forsinke innebygd sikkerhet («safety-by-design»).
- Å utvide SMB-lignende lettelser til små mellomstore selskaper innebærer at nær sagt hele næringslivet underlegges mildere krav uavhengig av risiko.
Videre pekes det på at nedgradering av krav til KI-kompetanse, kombinert med svekket dokumenttilgang for grunnrettighetsmyndigheter og bortfall av registreringsplikt for enkelte systemer bidrar til redusert åpenhet, ansvarlighet og effektiv kontroll.
03. februar 2026
# Tema: Ikrafttredelse og tidslinje
EU-kommisjonen hadde frist 2. februar 2026 for å publisere retningslinjer om identifisering av høyrisiko-KI-systemer etter KI-forordningen, men har ikke overholdt denne. Maximilian Henning rapporterer i Euractiv at Kommisjonen vil publisere et utkast senere i februar for å bistå utviklere i klassifiseringen av KI-systemer – en prosess av stor betydning ettersom høyrisiko-KI er underlagt vesentlig strengere krav, blant annet til dokumentasjon og etterlevelse.
Retningslinjene skal bygge på innspill fra offentlig høring og KI-styret, og vil inneholde praktiske eksempler. Forsinkelsen forklares med behovet for å innarbeide omfattende tilbakemeldinger og følge interne prosedyrer.
02. februar 2026
# Tema: Ikrafttredelse og tidslinje
Kommisjonen skal innen denne datoen ha utarbeidet retningslinjer som presiserer den praktiske gjennomføringen av artikkel 6, herunder krav til planer for ettermarkedsovervåking.
[Ingen eksakt dato]
# Tema: Politisk og faglig debatt
Mathieu Pollet og Pieter Haeck rapporterte i POLITICO at EUs teknologisjef Henna Virkkunen forsvarte KI-forordningen under Davos-møtet. Hun avviste at USAs fragmenterte delstatsregulering er mer innovasjonsvennlig, og viste til Stanford-forskning som dokumenterer over 200 delstatsreguleringer av KI.
Virkkunen fremhevet at Kommisjonen vedtok regelverket tidlig for å forhindre regulatorisk fragmentering, samtidig som hun erkjente at nasjonal håndheving fortsatt kan føre til fragmentering i praksis.
29. januar 2026
# Tema: Politisk og faglig debatt
Felix Bieker (ULD) og Katherine Nolan (Technological University Dublin) hevder i et debattinnlegg i Verfassungsblog at Kommisjonens tilnærming til digital regulering har endret seg markant det siste året, drevet av geopolitisk usikkerhet og bekymringer for EUs konkurranseevne. De beskriver utviklingen som preget av «KI-FOMO» (fear of missing out), og advarer mot en forenklet motsetning mellom regulering og innovasjon som kan undergrave grunnleggende rettigheter.
Ifølge forfatterne risikerer selv den nylig vedtatte KI-forordningen å bli gjenåpnet for deregulering, blant annet gjennom utsettelser, svekkede kompetansekrav og brede unntak for eksisterende høyrisikomodeller.
28. januar 2026
# Tema: Politisk og faglig debatt
Patrick Grady, EU-policyansvarlig i Chamber of Progress, argumenterer i et blogginnlegg for at KI-forordningen krever omfattende veiledning for å kunne etterleves, særlig av mindre virksomheter.
Han påpeker at utviklingen av tekniske standarder ligger betydelig bak skjema, og at Kommisjonens foreslåtte håndhevingspause frem til desember 2027 kan skape rettslig usikkerhet. Grady mener Europa bør prioritere en tydelig og forutsigbar tidslinje fremfor å vanne ut regelverket.
26. januar 2026
# Tema: Tolkning og håndheving
EU-domstolen er anmodet om å ta stilling til tolkningsspørsmål knyttet til KI-forordningen i sak C-245/25 (Obshto Zastrahovane). Saken gjelder blant annet forståelsen av prinsippene om menneskelig kontroll og ansvarlighet.
Domstolen skal vurdere om et programvareverktøy som bistår en sakkyndig i utarbeidelsen av en rapport som danner grunnlag for rettens avgjørelse, kan anses som et høyrisiko-KI-system etter vedlegg III punkt 8 i forordningen. Videre reises spørsmål om artikkel 101 TFEU er til hinder for bruk av et programvareprodukt som ikke er beregnet for det indre marked, men som er tilpasset EU-krav av den sakkyndige selv.
19. januar 2026
# Tema: Politisk og faglig debatt
I følge Maximilian Henning i Euractiv er flere ledende KI-selskaper trege med å oppfylle kravene om åpenhet rundt treningsdata for grunnmodeller. Utviklere av modeller som ChatGPT og Gemini er pålagt å offentliggjøre informasjon om treningsdata, noe som er særlig viktig for rettighetshavere.
Til tross for at Kommisjonen har utarbeidet en rapporteringsmal, har de største aktørene hittil vært tilbakeholdne. Dette kan tvinge frem inngrep fra Kommisjonen når overgangsperioden utløper sommeren 2026.
[Kontinuerlig prosess]
# Tema: Utvikling og styring
EU-kommisjonen forbereder midlertidige retningslinjer dersom tekniske standarder for KI-forordningen ikke er klare innen 2027. Standardene, som utvikles av CEN-CENELEC, skal presisere kravene til høyrisiko-KI-systemer. Forsinkelser har ført til vurderinger om å utsette eller midlertidig fryse deler av regelverket. Retningslinjene vil fungere som en overgangsløsning og kan avvike fra de tekniske spesifikasjonene som opprinnelig var forutsatt.
15. januar 2026
# Tema: Politisk og faglig debatt
57 medlemmer av Europaparlamentet har krevd forbud mot KI-applikasjoner som genererer seksuelt innhold uten samtykke (deepfakes), etter kritikk av bilder generert av Grok-boten på X. Parlamentarikerne mener slike systemer bør forbys under KI-forordningen, og at Digital Services Act alene ikke gir tilstrekkelig beskyttelse. De ber Kommisjonen klargjøre om slike systemer allerede omfattes av eksisterende forbud.
13. januar 2026
# Tema: Politisk og faglig debatt
Det er rapportert i TechPolicy at EU-regelverket ikke i tilstrekkelig grad er tilpasset hendelser som oppstår gjennom samspill mellom flere KI-systemer (multi-agent-hendelser). Artikkel 73 i KI-forordningen krever rapportering av alvorlige hendelser, men dagens retningslinjer fokuserer primært på enkeltstående systemfeil. Eksperter peker også på manglende kanaler for tredjeparts- og varslerrapportering.
01. januar 2026
# Tema: Politisk og faglig debatt
William Denselow i CGTN rapporterer at flertallet av reglene i KI-forordningen vil bli håndhevet i 2026, noe som markerer et vendepunkt i global KI-regulering. EU fremhever pålitelig KI som et konkurransefortrinn og et kvalitetsstempel, mens kritikere advarer mot innovasjonshemmende effekter.
Samtidig som EU-tjenestemenn understreker at både medlemsstatene og næringslivet trenger tid til å tilpasse seg, peker eksperter på behovet for klare ansvarsregler og robuste håndhevingsmekanismer. Uten effektiv håndheving risikerer ambisiøs og gjennomarbeidet lovgivning å få begrenset praktisk betydning.
29. desember 2025
# Tema: Politisk og faglig debatt
Nature spår at 2026 vil bli et år med økt global satsing på KI-sikkerhet. Ifølge Stanford AI Index Report 2025 økte antallet KI-lover globalt betydelig i 2023 og 2024, med særlig aktivitet i Europa, Øst-Asia og amerikanske delstater. Samtidig forblir lavinntektsland i stor grad uten regulatoriske tiltak, og den føderale amerikanske regjeringen motvirker i enkelte tilfeller delstatsregulering.
17. desember 2025
# Tema: Utvikling og styring
(1) Første utkast til atferdskodeks for åpenhet om KI-generert innhold ble publisert. Kodeksen skal støtte etterlevelsen av merkingskravene i artikkel 50 nr. 2 og 4 i KI-forordningen, og er utviklet gjennom en bred flerpartsprosess.
Målet er å sikre at KI-generert og manipulert innhold merkes i maskinlesbare og interoperable formater, samtidig som den gjør det mulig for mennesker å identifisere deepfakes og KI-generert tekst publisert om forhold av offentlig interesse.
(2) EU vurderer å innføre et felles ikon for merking av KI-deepfakes. Ikonet skal gjøre det umiddelbart synlig at innhold er KI-generert eller manipulert, og gi tilgang til ytterligere informasjon. Ikonet skal inkludere et tobokstavs akronym som viser til kunstig intelligens, vanligvis «AI», tilpasset det aktuelle språket.
Selskaper som slutter seg til kodeksen, forplikter seg til å benytte en midlertidig merkeløsning inntil et endelig symbol er fastsatt, og tilbydere som trener KI-modeller skal legge til rette for at viderebrukere kan merke syntetisk innhold.
12. desember 2025
# Tema: Utvikling og styring
Danmarks institutt for menneskerettigheter og European Centre for Not-for-Profit Law har publisert en praktisk veiledning for vurderinger av konsekvenser for grunnleggende rettigheter (FRIA) ved bruk av høyrisiko-KI-systemer.
Veiledningen bygger på internasjonale standarder og er strukturert i fem faser, med tilhørende mal. KI-forordningen pålegger visse brukere av høyrisiko-KI å gjennomføre slike vurderinger, særlig innen offentlig sektor. Godt gjennomførte FRIAs bidrar til ansvarlig styring, økt tillit og redusert rettslig og omdømmemessig risiko.
* Opplysningene i denne oversikten bygger på flere kilder, herunder The EU AI Act Newsletter, Lovdata Europalov, relevante nyhetsartikler, faglitteratur samt offentlige dokumenter fra EU og norske myndigheter