Künstliche Intelligenzen wie ChatGPT revolutionieren derzeit die Art und Weise, wie journalistische Beiträge produziert werden können. Dabei stellt sich nicht nur die Frage, in welcher Form mit Künstlicher Intelligenz journalistisch gearbeitet werden kann, sondern auch, welche Auswirkungen die Weiterentwicklung von KI in Zukunft auf den Journalismus haben wird. Darüber hinaus sind auch auch rechtliche Fragen von großer Bedeutung.
(Der folgende Text wurde für den DFJV von Rechtsanwalt Christian Solmecke, Partner der Kölner Medienrechtskanzlei WILDE BEUGER SOLMECKE, verfasst.)
Ein Werk aus Worten zu erschaffen, hat seit dem rasanten Fortschritt der Forschung zur Künstlichen Intelligenz (KI) eine neue Bedeutung gewonnen. Dabei sind es nicht Schriftstellerinnen bzw. Schriftsteller, die Worte kunstvoll aneinanderreihen, sondern Nutzerinnen bzw. Nutzer vor dem Computer, die einem Chatbot sagen, was sie gerne hätten: „ChatGPT, schreibe eine Kurzgeschichte mit zwei Liebenden an einem lauen Samstagmorgen in der französischen Provinz“. Und die KI wird eine mehr oder minder spannende Geschichte generieren, die vielleicht die Augen trocken lässt, aber dafür weitgehend grammatikalisch korrekt ist.
Zugegeben plakativ, ist dies nur ein Anwendungsbeispiel für fortschrittliche KI-Systeme. Schon seit geraumer Zeit unterstützen sie vor allem im Hintergrund Unternehmen bei internen Prozessen. Was die Algorithmen von morgen für die Branche des Journalismus bedeuten können, ist dabei vor allem aus rechtlicher Sicht Neuland.
Was ist „KI“?
Bei der Omnipräsenz von Künstlicher Intelligenz, könnte man meinen, dass man sich inzwischen auf eine Definition geeinigt hat. Ganz im Gegenteil ist der KI-Begriff dafür allerdings zu vielseitig. Die Frage kann also nicht sein, was KI überhaupt ist, sondern welche Teilbereiche der Forschung den Journalismus unterstützen können. Dabei fallen zwei ins Auge: das prozedurale Generieren von Inhalten auf Basis von Maschinellem Lernen und Datenanalyse für Redaktionen. In Kürze:
Prozedural-generative KI stecken in den Anwendungen, die vor allem bei Verbraucherinnen und Verbrauchern besonders beliebt sind: Anhand einer bestimmten Eingabe durch die Nutzerin bzw. den Nutzer wird aus einem großen Datensatz ein neuer Inhalt generiert. Diese Datensätze beruhen auf sog. Maschinellem Lernen – einem Prozess, bei denen unzählige Trainingsdaten (etwa im Internet zugängliche Texte) verwendet werden, um Gesetzmäßigkeiten und Muster zu erkennen. Diese komplexen Systeme können dann genutzt werden, um aus dem angehäuften „abstrakten Wissen“ neue Inhalte zu erstellen.
In der Datenanalyse (sog. „AI Analytics“) werden Techniken des Maschinellen Lernens auf bestimmte Datenbereiche angewandt, um die gefundenen Muster direkt an den Nutzer weiterzugeben und ggf. anhand dessen Empfehlungen zu erstellen.
Generative KI: Anwendung im Journalismus
Für die direkte Anwendung im journalistischen Arbeiten haben die bisher verfügbaren generativen KI-Modelle einen entscheidenden Nachteil: Sie haben keinen Begriff von tagesaktuellen Ereignissen. Das liegt daran, dass ihre Trainingsdaten grundsätzlich erst aufbereitet werden müssen, sodass die KI sie lesen kann. Dieser Prozess ist relativ aufwändig. Nicht umsonst hat die im Moment wohl prominenteste KI „ChatGPT“ einen Datensatz auf dem inhaltlichen Stand von 2021.
„Schreibe mir einen Text über die gestrigen Geschehnisse im Jemen“ ist damit bisher kaum im Rahmen des Möglichen – jedenfalls nicht, solange die Aufbereitung der Trainingsdaten nicht ihrerseits weiter automatisiert wird.
Denkbar ist allerdings, dass Journalistinnen und Journalisten die fortschrittlichen KI-Sprachmodelle wie GPT-3 nutzen (das Grundgerüst für ChatGPT), um im Dialog Texte generieren und anpassen zu lassen. Dafür müssen sie die Informationen nach aktuellen Stand aber selbst liefern. Das ist bei den Dialog-KIs nicht unmöglich. Dort lassen sich bestimmte Informationen voraussetzen, von denen die KI ausgehen muss. Da aber die Nutzerinnen und Nutzer weiterhin diejenigen sind, die umfassend informiert sein müssen, ist das wohl weniger eine Entlastung als eine erfrischende neue Arbeitsweise. Generative KI finden im Journalismus daher bisher weniger Anklang, aber undenkbar ist ihr Einsatz keineswegs.
Rechtliche Fragen rund um KI und Journalismus
Vorausgesetzt, die genannten Hindernisse werden beseitigt: Was bleibt, sind die rechtlichen Fragen. Mit Blick auf den kommenden „AI-Act“, dessen Vorschlag gerade auf Unionsebene diskutiert wird, ist die Rechtslage rund um KI im Wandel. Was die Journalismusbranche hier am meisten beschäftigen wird, ist die urheberrechtliche Lage.
Weitgehend unbestritten ist: Die KI selbst kann kein Urheber sein. „Schöpfer“ nach § 7 Urheberrechtsgesetz (UrhG) kann nur derjenige sein, der die Sache in einem geistigen Prozess geschaffen hat – ein Mensch also. Es entscheidet sich vielmehr zwischen den Urhebern der Trainingsdaten, Entwicklern der KI-Systeme und schließlich ihren Anwendern.
Wenn es überhaupt einen Urheber der Texte geben kann, könnte dieser allenfalls der Anwender sein, der selbst eine gewisse Kreativität bei den Anweisungen an die KI aufweist. Wenn er genaue Parameter eingibt und in einem detaillierten Input eigene Gestaltungen einfließen lässt, liegt eine Urheberschaft nahe. In dem Fall hat er sich des Sprachmodells eher als Werkzeug bedient, um etwas Eigenes zu schaffen. Microsoft trägt schließlich auch keine Urheberschaft an Texten, die in Word geschrieben werden.
Anders könnte es nur liegen, wenn der Input nur grob in eine Richtung weist. Bei einer Eingabe wie „schreibe eine Geschichte im Stil von XY“ könnte es hier an einer ausreichenden Prägung durch den Nutzer fehlen, wodurch er nicht zum Urheber an dem generierten Text wird. Die Entwickler stehen dem Produkt der KI in der Regel allerdings ebenfalls nicht näher, da sie den Parameter nicht persönlich eingesetzt haben, sondern die KI mit ihm anhand von den im Training erkannten Mustern arbeitet. In solchen Fällen wird daher vertreten, dass das Werk gar keinen rechtlichen Schutz genießt und damit gemeinfrei ist.
Die Urheber der Werke, die in die Trainingsdaten einfließen, erwerben übrigens in keinem Fall ein Urheberrecht an den Erzeugnissen der KI. Die KI nutzt ihre Werke höchstens als Informationsgrundlage unter Millionen zur Ermittlung bestimmter Muster. Sie finden sich damit im Ergebnis nicht unmittelbar wieder. Wenn das System einen urheberrechtlich geschützten Inhalt zu sehr übernimmt, dann entweder durch (statistisch höchst unwahrscheinlichen) Zufall oder indem es vom Nutzer bewusst und schrittweise darauf hingeführt wurde. Das Erzeugnis wäre in diesen Extremfällen wohl ein Plagiat, für das der Urheberrechtsschutz greift.
Für die Betreiber von KI ist das Fahrwasser aktuell übrigens noch etwas unsicher. Auch der kommende AI-Act sieht hier noch keine eindeutigen Regelungen vor. Nach geltendem Recht wird das Einspeisen der Daten in die KI als eine Verarbeitung nach dem UrhG gesehen, für die man eigentlich die Einwilligung jedes einzelnen Urhebers bräuchte, dessen Werke in den Trainingsdatensatz einfließen. Für wissenschaftliche Forschungsgruppen wie Open AI – der Organisation hinter KI-Systemen wie ChatGPT oder der Kunst-KI Dall_E – gilt diese Verarbeitung zwar als nach § 60d UrhG zulässiges „Data Mining“, für das man ausnahmsweise keine Einwilligung der Urheber der Werke braucht, mit denen die KI „lernt“. Bisher nicht rechtssicher ist hingegen die Einschätzung von KI-Training von Systemen, die von vorneherein rein kommerzielle Ziele haben.
AI Analytics: Wie steht es und wo geht es hin?
Die Datenanalyse mittels AI ist keine Zukunftsmusik für Redaktionen. Im Gegenteil findet sie bereits heute statt, und zwar in Form algorithmischer Empfehlungs-Software („Algorithmic News Recommendator“ – ANR). ANR geben mittels fortschrittlicher Machine-Learning Algorithmen Empfehlungen für das redaktionelle Agenda-Setting aus. Sie unterstützen damit bisher etwa The Washington Post, The Wall Street Journal und BBC, aber auch deutsche Redaktionen wie die der Bayerischer Rundfunk Radiostation oder des Spiegels.
Die Algorithmen sind dabei „content-based“. Sie untersuchen die Metadaten von Artikeln und Pressemitteilungen daraufhin, wie berichtenswert und inhaltlich ertragreich sie sein können. Gerade bei News-Peaks wie der COVID-Pandemie oder Präsidentschaftswahlen wurden sie verwendet, um herauszufinden, welche Leitartikel zu größeren Stories entwickelt werden können.
Die Nutzerinnen und Nutzer nehmen sie dabei eher gut an, wobei sich das aufgrund des Vorsprungs der englischen Sprachmodelle eher für die englischsprachigen Redaktionen gilt. Manche befürchten, dass sich eine gewisse Faulheit bei der Auswahl der Inhalte einstellen könnte. Daneben ist noch ein Problem zu bedenken, das sich beim Einsatz von KI zur Entscheidungsfindung immer aufdrängt: Voreingenommene Algorithmen. Wenn Algorithmen mit verfügbaren Daten trainiert werden, dann mit solchen, die statistisch die Mehrheit der Gesellschaft abbilden. Es kann damit passieren, dass das KI-System in gewissen Fragen Entscheidungen trifft, die gesellschaftliche Minderheiten übergehen. Gerade bei ANR dürfte das schnell zu einem Problem werden.
Bei kontrolliertem Einsatz versprechen ANR hingegen, und das hat auch die Erfahrung gezeigt, eine Beschleunigung des Prozesses und sie deuten auch auf Anhaltspunkte hin, die der menschlichen Prüfung entgehen könnten.
Der Unionsgesetzgeber will den genannten Gefahren in seinem AI-Act unter anderem mit starken Transparenz- und Darlegungspflichten begegnen. Im Ernstfall kann es hierbei natürlich auch um Fragen der Pressefreiheit und der Unabhängigkeit der Presse gehen. Im Übrigen werden die rechtlichen Regelungen in Sachen AI Analytics zwar eher die Betreiber verpflichten. Die Nutzerinnen und Nutzer müssen allerdings mit diesen aber Hand in Hand arbeiten. Sie verpflichten sich ihrerseits zu einem vertragsgemäßen Gebrauch der KI-Systeme und haben nötigenfalls auch die Pflicht, Hinweise zu geben, sollte ihnen eine Gefahr auffallen. Ob diese Gefahren bei AI Analytics für die Nutzerinnen und Nutzer überhaupt erkennbar sind, sei dahingestellt. Das Urheberrecht spielt hier voraussichtlich nur vor dem Hintergrund des Data-Minings – und damit wiederum auf Seiten der Betreiber – eine Rolle.
Ausblick
Mit generativen und analytischen Systemen wird also auch die Presse nicht frei von dem rasant zunehmenden Einfluss der Künstlichen Intelligenz bleiben. Sie verspricht neben punktuellen Arbeitserleichterung auch ein Streamlining ganzer redaktioneller Prozesse und bietet damit zukunftsweisende Chancen. In näherer Zukunft ist gerade im journalistischen Bereich dabei weniger von einer Übernahme als von einer Ergänzung durch KI-Systeme die Rede. Für den einen oder anderen mag es hier beruhigend sein, dass auch das Recht auf absehbare Gefahren reagiert und in einem letzten Schritt stets den Menschen hinter der Maschine zur Verantwortung anhält.
Weiterführende Links:
„Anbieterverzeichnis für KI-Anwendungen”, (Journalismus Lab, Landesanstalt für Medien NRW, Stand April 2023): Anbieterverzeichnis für KI-Anwendungen – Journalismus Lab
„Künstliche Intelligenz im Journalismus – Potenziale und Herausforderungen für Medienschaffende”, (Plattform Lernende Systeme, Stand Januar 2023): AG3_WP_KI_und_Journalismus.pdf (plattform-lernende-systeme.de)
„Künstliche Intelligenz in Journalismus und Medien”, (Medien360G, mdr.de, abgerufen am 19.06.2023): https://www.mdr.de/medien360g/medienwissen/ki-in-journalismus-und-medien-100.html
Lesetipps:
– Dennis Fajt: Künstliche Intelligenz und Journalismus: Anwendungsgebiete, Herausforderungen und Risiken am Beispiel ChatGPT, (Fachjournalist, 05.04.2023)
– Gunter Becker: „Der Fotojournalismus braucht eigentlich gar keine KI“, (Fachjournalist-Interview mit Boris Eldagsen, 17.05.2023)
Hörtipp:
– Aileen Gharaei: Nie wieder Angst vor dem leeren Blatt – Die Arbeit mit ChatGPT, (Fachjournalist-Podcast – Gespräch mit Ulrike Köppen, 03.05.2023)