Bringt der AI Act neue Regeln für die journalistische Praxis?
Mit dem AI Act hat die EU eine umfangreiche Verordnung auf den Weg gebracht, die abseits umstrittener Buzzwords wie „biometrische Echtzeitidentifizierung“ alle erdenklichen Facetten der „lernenden Maschinen“ betrifft. Während das Gesetz nach der Zustimmung des EU-Parlaments auf der Zielgeraden ist, häufen sich die Fragen über die Praxisrelevanz des kommenden Gesetzeswerks – insbesondere für Journalistinnen und Journalisten.
Für journalistisch Tätige beginnen die Nutzungsmöglichkeiten der neuen Technik mit Algorithmen-gestütztem Agenda-Setting und enden beim Einsatz generativer künstlicher Intelligenz (KI, englisch: „artificial intelligence“, AI), die binnen Sekunden einen vermeintlich druckfertigen Text zustande bringt. Das wirft Fragen auf wie zum Beispiel diese: Wo setzt der Artificial Intelligence Act die Grenze und was habe ich als Journalistin bzw. als Journalist jetzt zu beachten? Und wie schütze ich meine Inhalte davor, an datenhungrige Deep-Learning-Modelle verfüttert zu werden? Der folgende Beitrag von Rechtsanwalt Christian Solmecke gibt einen rechtlichen Überblick für die Praxis.
Muss ich KI-Inhalte kennzeichnen?
Die bekannteste Nutzungsmöglichkeit von KI ist derzeit die „generative KI“. Dazu gehören beispielsweise Systeme wie ChatGPT oder Dall-E. Sie geben anhand eines bestimmten Inputs („Prompt“) ein errechnetes Ergebnis („Output“) in Form von Text oder Bild aus. Der AI-Act fasst diese generative KI nun unter den Begriff der „General Purpose AI“ (GPAI) zusammen. Für diese ist zwar von einer durchgängigen „Transparenzpflicht“ die Rede. Das betrifft allerdings ausschließlich die Anbieter der Systeme – nicht deren Nutzerinnen und Nutzer. Erstere müssen mit technischen Mitteln dafür sorgen, dass KI-Texte und/oder Bilder in „maschinenlesbarer Form“ als solche erkennbar werden – etwa durch digitale, unsichtbare Wasserzeichen.
Für (journalistische) Nutzerinnen und Nutzer gilt daher weiter die bisherige Rechtslage. Und nach dieser gibt es keine gesetzliche Pflicht, KI-generierte Inhalte zu kennzeichnen. Laut einer Rüge des Presserats vom 08.12.2023 müssen zwar KI-generierte Bilder zumindest als symbolische Illustration nach Ziffer 2, Richtlinie 2.2. Pressekodex gekennzeichnet werden. Für Texte – in dem Fall handelte es sich um KI-generierte Rezepte – würden allerdings auch mit dem neuen AI-Act ausdrücklich keine besonderen Regeln gelten.
Das Urheberecht
Für KI-generierte Inhalte gelten damit die gleichen Regeln wie für selbst erstellte: Falschaussagen und Fehlberichterstattungen machen sich die Nutzerinnen und Nutzer durch die Veröffentlichung zu eigen – und müssen im Ernstfall dafür vor dem Pressekodex, dem Urheberrechtsgesetz oder Bürgerlichen Gesetzbuch (BGB) geradestehen.
Gerade Urheberrechtsverletzungen sind beim Einsatz generativer KI leicht denkbar. Die Nutzung selbst verletzt zwar in der Regel keine Urheberrechte jener Urheberinnen und Urheber, deren Werke in die Trainingsdaten der KI geflossen sind. Denkbar ist allerdings, dass das Ergebnis rein zufällig einem urheberrechtlich geschützten Werk entspricht – vor allem, wenn die Trainingsdatenmenge in bestimmten Bereichen nicht groß genug war. In solchen Fällen können Beseitigungs- und Unterlassungsansprüche entstehen – unabhängig davon, ob die Verletzung beabsichtigt war.
Schadensersatzforderungen liegen aber eher fern. Schließlich dürfte die Nutzerin oder der Nutzer von KI von der zufälligen Übereinstimmung nichts gewusst haben und hat somit unverschuldet gehandelt.
Wie schütze ich meine Inhalte vor Data Mining? (Opt-Out)
KI-Entwickler trainieren ihre Systeme mit Datensätzen, die Data-Researcher durch sogenanntes „Scraping“ zusammenstellen. In automatischen Prozessen werden damit bestimmte Content-Typen aus öffentlich erreichbaren Internet-Fundstellen erkannt und in Trainingspaaren in Verzeichnisse aufgenommen. Im journalistischen Bereich bestehen diese Trainingspaare zum Beispiel gelegentlich aus den Adressen der Artikel und einer jeweiligen manuell geschriebenen Zusammenfassung.
Diese Automatisierung ist der Grund dafür, dass dieses sogenannte „Data Mining“ nach dem geltenden Urheberrechtsgesetz auch ohne Erlaubnis des Urhebers oder der Urheberin gestattet ist, um „Muster Trends und Korrelationen“ zu gewinnen (§ 44b UrhG). Genau das passiert während des KI-Trainings.
Um die eigenen Inhalte davor zu bewahren, beim Scraping ausgelesen zu werden, müssen Urheberinnen und Urheber einen Nutzungsvorbehalt erklären, der wiederum „maschinenlesbar“ sein muss (Opt-Out nach § 44b Abs. 3 UrhG). Ein maschinenlesbares Opt-Out funktioniert über website- bzw. serverseitige Lösungen. Mit einer robots.txt-Datei kann die Betreiberin bzw. der Betreiber des Severs Regeln für Crawler aufstellen, die diese zu befolgen haben. Dabei können auch spezifische Crawler von der gesamten Seite oder ihren Unterseiten ausgeschlossen werden. Ähnliches bewirkt zum Beispiel auch der (seitenweise) „robots“ meta-tag im http-Header.
Veröffentlicht man die eigenen Inhalte auf einer eigenen Website, lässt sich ein Opt-Out ebenfalls mit ein wenig technischem Know-how verwirklichen. Veröffentlicht man sie stattdessen auf öffentlichen Plattformen Dritter, legt man den Nutzungsvorbehalt in die Hände des Betreibers. Hier sollte man sich vorab über deren Nutzungsbedingungen informieren.