Eine Analyse von Rechtsanwalt Christian Solmecke.
Für die Medienlandschaft bedeuten die aktuellen Entwicklungen der Künstlichen Intelligenz im besten Fall eine Renaissance: Der Journalismus wird durch starke Tools unterstützt, Content-Bots entlasten Redaktionen, der kreative Kern rückt weiter ins Rampenlicht. Auf der anderen Seite droht eine Katastrophe für die Presse-, Meinungs- und Informationsfreiheit, wenn bestimmte Gefahrenherde der fortwährend entwickelten KI-Systeme nicht adressiert werden. Welche Gefahren KI-Journalismus birgt, warum das KI-Gesetz auf den redaktionellen Betrieb eher weniger unmittelbare Anwendung findet und welche Punkte dringender Klärung bedürfen, hat Rechtsanwalt Christian Solmecke für den DFJV analysiert.
Der EU-Gesetzgeber nimmt sich dieser hinlänglich bekannten Gratwanderung zwischen Freiheit und Sicherheit seit 2021 mit dem sog. „Gesetz über Künstliche Intelligenz“ (engl. Artificial Intelligence Act) an. Die Trilog-Verhandlungen haben begonnen und nach der ersten Lesung im Parlament lässt sich nun eine Bilanz ziehen: Was wird der AI Act bewerkstelligen und welche Stellschrauben sollte der Journalismus im Blick behalten?
- KI-Journalismus birgt Gefahren
Schon jetzt findet Künstliche Intelligenz an zahlreichen Stellen der Medienbranche Anwendung.
Es beginnt im Kleinen mit alltäglichen Tools, die interne Arbeitsschritte erleichtern – etwa die Transkription oder Text-to-Speech-Umsetzung von Kommentaren oder Artikeln –, gefolgt von größeren Prozesserleichterungen wie dem Agenda Setting durch ANR-Systeme (s. dazu auch den Beitrag zu Künstlicher Intelligenz in unserer Rubrik „Journalistische Trendthemen“), das in vielen Redaktionen inzwischen zur Gewohnheit geworden ist.
Auch der Investigativjournalismus profitiert: Bei der Aufdeckung von Panama Papers – und jünger der Steuervermeidung in Europa („OpenLux“, 2021) – ist KI bereits im großen Stil zur Analyse von Dokumentenmassen zum Einsatz gekommen. Bei letzterer gerieten rund 3 Millionen Dokumente unter den Algorithmus.
Content-Empfehlungsalgorithmen sind weitgehend ebenfalls KI-gestützt. Nutzer sind personalisierte Inhalte gewöhnt – neben der automatischen Zusammenstellung durch News-Aggregatoren lassen sich auch „Next Read“-Empfehlungen artifiziell zuschneiden. Gerade in der Lokalberichterstattung könnte hieraus eine neue öffentliche Dynamik entstehen.
Am sichtbarsten wird der Einfluss von Künstlicher Intelligenz dort, wo sie Inhalte für die Leser generiert. Der „Robojournalismus“ hat bereits einen Namen, ist aber noch weit davon entfernt, die Branche zu übernehmen. Allerdings kann er inzwischen durchaus zuverlässig Zweizeiler zu aktuellen Ereignissen verfassen, sofern diese technisch und zahlenmäßig einfach erfassbar sind. So finden kurze Bilanz- und Börsennews, Sportergebnisse und Statistiken ihren Weg von der KI direkt in die Öffentlichkeit. Noch prominenter ist der Einsatz von Deepfakes in Verbindung mit fortgeschrittenen Text-to-Speech-Algorithmen, die etwa künstliche Nachrichtensprecher völlig virtuell generieren können.
Eine optimistischere Perspektive zeigt sich für Redaktionen, die von alltäglicher Routinearbeit befreit werden und ihren Fokus stattdessen auf kreativ anspruchsvollere Tätigkeiten legen können. Durch potente Textanalysetools können Informationen genutzt werden, die der Öffentlichkeit sonst verborgen geblieben wären.
Die Kehrseite ist ein hohes Gefahrenpotenzial: Auch Analysetools können Fehlschlüsse ziehen, generierte News können Fehler enthalten, die Inhalte könnten an Seriosität verlieren. Voreingenommene Algorithmen können subtil politisch beeinflussen, das Reproduzieren einseitiger Agendas und der Einsatz von Deepfakes können das öffentliche Meinungsbild extrem verzerren. Eine Content-Flut macht kleine Arbeiten entbehrlich und erleichtert den Personalabbau massiv. Die Probleme sind mannigfaltig und oft höchst grundrechtsrelevant.
Experten verlangen nun vom AI Act, angemessen auf diese Gefahren zu reagieren. Doch inwieweit sind Medienschaffende überhaupt betroffen?
2. Der AI Act aktuell
Der AI Act befindet sich seit Juni 2023 in einem der letzten Stadien. Die Trilog-Verhandlungen haben begonnen und aus der ersten Parlamentslesung gingen zahlreiche Änderungsvorschläge hervor. Die Grundlinie bleibt gleich: Der AI Act ordnet KI-Systeme nach Risikoklassen ein und knüpft daran entsprechend unterschiedlich starke Sicherheitsvorschriften. Das Ziel der Verordnung ist, KI-Systeme zukunfts- und rechtssicher zu machen. Die Gefahren sollen minimiert werden, ohne dass der Fortschritt über Gebühr gefährdet wird. Gleichzeitig werden die nationalen Gesetze entsprechend harmonisiert, also untereinander angeglichen.
Betroffen sind davon nicht nur Anbieter und Entwickler, sondern auch alle, die Künstliche Intelligenz für sich nutzbar machen; insbesondere auch Unternehmen bzw. Redaktionen, die KI-Tools verwenden und deren Ergebnisse in jedweder Form verwenden.
Die Einordnung der Risikoklassen ist ebenfalls strukturell gleich geblieben: Weiterhin sollen KI-Systeme mit einem „unanehmbaren Risiko“ gänzlich verboten bleiben, etwa Social-Rating-Algorithmen oder Systeme, die unterschwellige psychologische Manipulation zum Ziel haben.
Darunter stehen die sog. „Hochrisikosysteme“, an die der AI Act höchstmögliche Anforderungen stellt. Hochrisikosysteme sind vor allem solche, die als Sicherheitskomponente oder in sensiblen, grundrechtlich stark kritischen Bereichen zum Einsatz kommen. Sie sind im Anhang des AI Acts aufgezählt und enthalten etwa Systeme zur biometrischen Identifizierung, Strafverfolgung oder zum Personalmanagement. Der journalistische Bereich ist dabei nicht erwähnt. Es könnte aber bald Berührungspunkte geben: Der Änderungsvorschlag des EU-Parlaments fasst hierunter nämlich auch Content-Empfehlungsalgorithmen von Social-Media-Plattformen. Bei Hochrisikosystemen müssen Anbieter Risikomanagementsysteme vorweisen und engen Transparenzpflichten nachkommen. Das Ziel ist, die gesamte Datenverwaltung nachvollziehbar und durchschaubar zu machen. Die Einordnung als Hochrisikosystem ist damit auch der akute Brennpunkt der öffentlichen Diskussion.
Unter den Hochrisikosystemen ordnen sich die Systeme mit „begrenztem Risiko“ ein, deren Anwendung keine kritischen Bereiche betrifft. Hiervon erfasst sind laut Entwurf etwa Chatbots oder Deepfake-Algorithmen. Diese müssen nach dem Gesetzesvorschlag ihre Herkunft kenntlich machen. Bei Deepfakes per Kennzeichnung, im Chat kann es auch aus dem Kontext ersichtlich sein. Das EU-Parlament sieht in seinem Änderungsvorschlag seit Kurzem hierfür auch KI-Basismodelle (z. B. das Sprachmodell GPT-4, auf dem OpenAIs ChatGPT basiert) vor. Das würde bedeuten, dass diese „von Haus aus“ die generierten Inhalte als KI-Inhalte deutlich zu machen hätten. Das wird momentan von Deutschland, Frankreich und Italien kritisiert. In einem gemeinsamen Positionspapier plädieren die Länder für vorerst freiwillige Auflagen anstatt harter gesetzlicher Pflichten. Die Gefahren lägen eher in den konkreten Anwendungen als in den zugrunde liegenden Modellen. Aus Sicht vieler Medienorganisationen und journalistischer Interessenvertretungen ist eine gesetzliche Kennzeichnungspflicht von KI jedoch unabdingbar, da es für Mediennutzer jederzeit erkennbar sein sollte, ob es sich um KI-generierte Inhalte handelt.
3. Wenig „Hochrisiko“ im redaktionellen Betrieb
Inwieweit die neuen KI-Regularien für den redaktionellen Gebrauch jedoch überhaupt Anwendung finden, richtet sich nach mehreren Faktoren. Sind die Medienschaffenden „Nutzer“ eines Hochrisikosystems – was nach aktueller Lage unwahrscheinlich ist –, so träfe sie nur die Pflicht, das System nach Gebrauchsanweisung zu verwenden und besondere Gefahrenlagen zu melden. Für die übrigen Fälle sind die Transparenzpflichten durch den jeweiligen Dienstleister zu erfüllen. Nutzt ein Redaktionsmitglied nach Inkrafttreten des AI Acts etwa ChatGPT zur Erstellung eines redaktionellen Texts und entfernt die (bisher umstrittene, s. oben) verpflichtende Kennzeichnung oder übernimmt den Inhalt ungeprüft, verstößt er nicht gegen eine Pflicht aus dem AI Act, sondern lediglich gegen andere nationale Vorschriften. Auch der „Robojournalismus“ unterfiele dann nicht dem AI Act. Allerdings könnte eine entsprechende Verpflichtung zu Kennzeichnung nach Inkrafttreten des AI Acts unter die presserechtliche Sorgfaltspflicht nach § 19 MStV fallen; gegebenenfalls wird es hier auch neue presserechtliche Regelungen geben.
Eigene Pflichten aus dem AI Act würden Redaktionen nur treffen, wenn sie „Anbieter“ eines Hochrisikosystems wären; wenn sie die Software also etwa intern unterhalten und weiterentwickeln, verändern oder unter eigener Marke betreiben. Auch das ist voraussichtlich eher unwahrscheinlich.
Das KI-Gesetz findet damit auf den redaktionellen Betrieb eher weniger unmittelbare Anwendung. Nur indem es die Entwickler und Anbieter verpflichtet, landet in den Redaktionen ein standardgemäßes Produkt. Realisieren Medienschaffende nun trotzdem die genannten Gefahren (Fehlinformation, Urheberrechtsverletzungen etc.), haften sie nach den nationalen Vorschriften und nicht nach dem AI Act. Die Landesgesetze sollten hier „harmonisiert“, also dermaßen angepasst werden, dass sie den neuen Wertungen des AI Acts entsprechen. Um die pressemäßige Sorgfalt einzuhalten, sollten Medienschaffende ihren Blick also auf die Landtage und den Bundestag richten, die im Anschluss an das Inkrafttreten offene Fragen klären.
Das betrifft unter anderem Neuregelungen zur zivilrechtlichen Haftung – denn das „eigenständige“ Arbeiten einer Künstlichen Intelligenz passt nicht gut unter das geltende Zivilrecht. Es fehlt an einer menschlichen Handlung. Auch das Urheberrecht braucht dringend Klärung: Ob und wann nämlich ein Urheberrecht an KI-generierten Inhalten entsteht, ist nach wie vor nicht gerichtlich entschieden. Eine EU-Parlamentsresolution aus 2020 kündigt hier Änderungen an.
Solange Künstliche Intelligenz als nützliches Tool begriffen wird, stehen die Chancen auf eine Renaissance dennoch gar nicht so schlecht. Die endgültige Fassung des AI Acts wird noch Ende 2023 erwartet, das Inkrafttreten im Jahr 2026.
(Anm. der Redaktion: bearbeitet am 14.12.2023)