- within Intellectual Property topic(s)
- within Intellectual Property, Food, Drugs, Healthcare, Life Sciences, Media, Telecoms, IT and Entertainment topic(s)
- with readers working within the Banking & Credit, Technology and Pharmaceuticals & BioTech industries
Kulturministeriet har den 15. september offentliggjort rapport fra ekspertgruppen om ophavsret og kunstig intelligens (AI). Denne artikel beskriver dele af rapporten og indeholder bemærkninger om visse uklarheder i rapporten.
Rapport fra ekspertgruppen om ophavsret og kunstig intelligens (AI) blev offentliggjort af Kulturministeriet den 15. september 2025. Rapporten indeholder en række anbefalinger, der sigter mod at adressere de udfordringer, som kunstig intelligens medfører i relation til ophavsretten.
Rapporten indeholder således anbefalinger om forbedret transparens og kontrol over træningsdata, styrkede rammevilkår for kollektiv licensering, og indførelse af tekniske foranstaltninger mod ulovlig brug af beskyttet indhold. Derudover foreslås en undersøgelse af tiltag for at styrke menneskeskabt indhold, samt vejledning og oplysningstiltag for at sikre klarhed og retssikkerhed i brugen af AI-systemer.
Ekspertgruppen bestod af repræsentanter fra Samrådet for Ophavsret, RettighedsAlliancen, Dansk Erhverv, DI, Danske Medier, Det Kongelige Bibliotek samt tekniske og juridiske eksperter.
Rapporten var længe ventet af mange i den kreative sektor m.fl., og idet den efter kommissoriet skulle have været afleveret til Kulturministeren allerede i vinteren 2024/2025.
Rapporten markerer et vigtigt skridt i dansk håndtering af AI i forhold til ophavsret og kommer uden tvivl til at få betydning. Den indeholder dog visse uklarheder og forekommer ikke helt opdateret, hvilket denne artikel vil sætte fokus på.
Kodeks vedrørende AI-forordningen
Rapportens afsnit 1.2 vedrørende AI-forordningen angiver (side 24), at ”kodekset skulle efter planen foreligge i en færdig version den 2. maj 2025. Offentliggørelsen af et endeligt praksiskodeks er imidlertid blevet udskudt”.
Det bemærkes, at kodekset blev offentliggjort den 10. juli 2025 og godkendt af EU-Kommissionen og AI-udvalget den 1. august, netop før AI-forordningens regler om AI til almen brug trådte i kraft den 2. august 2025. Dvs. tidligere end ekspertgruppens rapport fra september.
Ekspertgruppen har ikke taget kodeksets regler med i sin vurdering, hvilket havde været relevant, selvom kodekset udgør ”soft-law” i den forstand, at reglerne formelt set er frivillige. Det gør, at rapporten ikke forekommer helt opdateret.
Information om træningsdata
Ekspertgruppens anbefaling 1 er om ”effektiv transparens i træningsdata”, og at der på EU-niveau sikres effektiv transparens ved brug af ophavsretligt beskyttet indhold til at træne og udvikle kommercielle AI-systemer.
Det bemærkes, at AI-forordningen stiller krav i artikel 53, stk. 1, litra d, om at udbydere skal udarbejde og offentliggøre en tilstrækkeligt detaljeret sammenfatning af det indhold, der anvendes til træning af modellen. Denne sammenfatning vedrørende træning skal i henhold til det samlede AI-regelgrundlag ske efter en skabelon, der leveres af det såkaldte AI-kontor, hvilket også er omtalt i AI-forordningens betragtning 107.
Brugeres ulovlige upload
Ekspertgruppen behandler situationen, hvor brugere kopierer ophavsretligt beskyttet materiale til instrukser eller uploader sådant materiale til systemerne. Tilsvarende angår ekspertgruppens anbefaling 6 ”krav om tekniske foranstaltninger til hindring af ulovlig upload og kopiering af ophavsretligt beskyttet indhold på kunstig intelligenstjenester”.
Det er i denne forbindelse værd at bemærke AI-kodeksets krav om, at udbydere i deres brugervilkår skal forbyde brug, der er ophavsretskrænkende.
Ekspertgruppen nævner i øvrigt selv (side 49), at mange store tech-virksomheder i deres vilkår og betingelser har klausuler, som ”betyder, at brugeren er ansvarlig for potentielle ophavsretskrænkelser, hvis brugeren uploader ophavsretligt beskyttet materiale uden tilladelse fra rettighedshaveren”. Man kan derfor spørge sig selv, om tekniske foranstaltninger er nødvendige til hindring af ulovlig upload og kopiering af ophavsretligt beskyttet indhold på AI-tjenester.
I forhold til træning af AI-systemet nævner ekspertgruppen (side 50), at man som bruger, uden at være bevidst om eller opmærksom på det, kan bidrage til den løbende træning af systemet.
Det bemærkes, at AI-kodekset indeholder krav om, at udbydere implementerer tekniske sikkerhedsforanstaltninger for at sikre, at modellen ikke i sit output reproducerer træningsindholdet, således at dette udgør en ophavsretlig krænkelse.
Vedrører DSM-direktivets artikel 3-4 AI-træning?
I rapporten (side 22) fremgår det, at ”Kunstig intelligens er ikke nævnt i DSM-direktivet i relation til tekst- og datamining. Spørgsmålet om, hvorvidt og i hvilken udstrækning disse undtagelser finder anvendelse på træning og anden brug af kunstig intelligens, er derfor ikke afklaret.” Ekspertgruppen anfører dog selv, at AI-forordningen, som tidsmæssigt kom efter DSM-direktivet, ”kan indikere, at EU lovgiver opfatter reglerne om tekst- og datamining i medfør af DSM-direktivets artikel 4, som mulig (fremtidig) hjemmel til modeltræning”.
Også senere i rapporten (side 38) anfører ekspertgruppen, at “Hvorvidt træningen af kunstig intelligens kan sidestilles med tekst- og datamining er omdiskuteret”. Man kan spørge sig selv, om ekspertgruppen hermed mener, at det er tvivlsomt, om man kan bruge tekst- og datamining reglerne i ophavsretslovens §§ 11b-c på AI-model træning.
Forvirringen understreges af, at ekspertgruppen selv før dette (højere på side 38) anvender tekst- og datamining-reglerne på AI: ”Bestemmelsen i § 11 b, stk. 2, gør det bl.a. muligt for udviklere af kunstig intelligens at gøre brug af ophavsretligt beskyttet materiale og skabe eksemplarer af værker og andre frembringelser, hvis det sker med henblik på tekst- og datamining, uden at det kræver, at rettighedshaverne har givet tilladelse hertil”.
Vi bemærker, at det rigtignok var uafklaret/omdiskuteret efter DSM-direktivet i 2019 og blev særlig aktuelt med lanceringen af ChatGPT i november 2022, om DSM-direktivets artikel 3 og 4 drejede sig om AI-træning. Med AI-forordningens vedtagelse i marts 2024 synes der ikke i bredere kredse at være rejst spørgsmål ved, at tekst- og datamining i DSM-direktivet er det samme som AI-træning, jf. AI-forordningens artikel 53, stk. 1, litra c, der klart udtrykker dette ved direkte i sin ordlyd at henvise til ”artikel 4, stk. 3, i direktiv (EU) 2019/790”, som er AI-forordningen.
Træning før den 2. august 2025
I rapporten (side 39) angives, at AI-forordningen har ”imidlertid ikke betydning for træning, som er sket før dens ikrafttræden”.
Det afgørende er dog ikke tidspunktet for træningen, men hvornår modellen er placeret på markedet, dvs. træning sket fx i 2024 er omfattet af AI-forordningen, hvis modellen placeres på markedet efter den 2. august 2025. Desuden indebærer overgangsregler, at selv modeller trænet og placeret på markedet før den 2. august 2025 skal opfylde reglerne i AI-forordningen, blot med en 2 års længere tidsfrist.
AI-forordningens artikel 111, stk. 3, fastslår således, at ”Udbydere af AI-modeller til almen brug, der er bragt i omsætning før den 2. august 2025, tager de nødvendige skridt til at overholde de forpligtelser, der er fastsat i denne forordning, senest den 2. august 2027.”
Digitale efterligninger af personlige kendetegn
Ekspertgruppens anbefaling 5 er om ”beskyttelse mod digitale efterligninger af personers personlige kendetegn”.
Det bemærkes, at lovforslag hertil allerede har været i offentlig høring af Kulturministeriet med høringsfrist den 21. august 2025, i hvilken forbindelse ministeriet angav, at lovforslaget forventes at træde i kraft den 31. marts 2026. Dette lovforslag er ikke nævnt af ekspertgruppen i rapporten.
Betydning for virksomheder
Virksomheder skal være opmærksomme på, at ekspertgruppens rapport som nævnt ovenfor indeholder visse uklarheder og ikke er helt opdateret på gældende regler/udvikling, idet den fx ikke medtager AI-kodekset, hvilket er relevant for anbefaling 1 (effektiv transparens i træningsdata) og anbefaling 2 (effektive forbeholdelsesmuligheder eller nye regler for tekst- og datamining).
Anbefaling 5 (beskyttelse mod digitale efterligninger af personers personlige kendetegn) og anbefaling 6 (krav om tekniske foranstaltninger til hindring af ulovlig upload og kopiering af ophavsretligt beskyttet indhold på kunstig intelligenstjenester) er behandlet ovenfor.
Rapportens øvrige anbefalinger kan umiddelbart få betydning. Disse er forbedring af rammevilkår for kollektiv licensering (anbefaling 3), forsøgsordning om obligatorisk voldgift til løsning af rettighedskonflikter på området for pressepublikationer (anbefaling 4), betinget offentlig påtale i sager om ophavsret og kunstig intelligens, der er teknisk og territorialt komplicerede (anbefaling 7), undersøgelse af mulige tiltag for at styrke brugen af menneskeskabt indhold (anbefaling 8), vejledning om oplysningstiltag om ophavsret og kunstig intelligens (anbefaling 9) og præcisering i ophavsretslovgivningen af, at udbud af kunstig intelligenssystemer udgør tilgængeliggørelse for almenheden (anbefaling 10).
The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.