„Manche gehen davon aus, dass sowieso schon alles von der KI geschrieben wird“

Interview mit Katharina Schell, stellvertretende Chefredakteurin der Austria Presse Agentur (APA), über KI-Kennzeichnung im Journalismus.
Der Einsatz künstlicher Intelligenz (KI) ist in Redaktionen bereits weit verbreitet, denn sie erleichtert viele journalistische Tätigkeiten. Kontrovers diskutiert wird darüber, ob und wie von der KI erledigte journalistische Arbeiten fürs Publikum gekennzeichnet werden sollten. Katharina Schell, stellvertretende Chefredakteurin der Austria Presse Agentur (APA) und Mitglied der Taskforce AI der APA, hat im Rahmen eines Forschungsaufenthalts an der Universität Oxford die KI-Transparenz im textbasierten Nachrichtenjournalismus untersucht und dazu ein White Paper vorgelegt. Sie macht konkrete Vorschläge, wo und wie eine KI-Kennzeichnung im Journalismus sinnvoll ist.
Frau Schell, Sie sind ausgebildete Literaturwissenschaftlerin. Bei der APA beschäftigen Sie sich ganz praktisch mit dem Einsatz von Künstlicher Intelligenz im Journalismus. Wo stehen wir allgemein beim KI-Einsatz und welche praktischen Erfahrungen machen Sie selbst damit?
KI-Systeme, KI-Applikationen, semiautonome oder auch autonome Systeme übernehmen langsam in den Newsrooms und Redaktionen gewisse Aufgaben. Aber sie haben sehr oft nur assistierenden Charakter. Der Einsatz von KI im Journalismus wird häufig überschätzt, das zeigen Befragungen.
Manche gehen davon aus, dass sowieso schon alles von der KI geschrieben wird. Das ist ein extrem überzogenes Szenario und wird es auch noch lange sein. Tatsache ist, dass KI kein flächendeckender dominanter Faktor beim Verfassen journalistischer Texte ist.
In der APA sagen wir ganz klar: Wir verwenden KI assistierend, unterstützend und – das ist uns sehr wichtig – modifizierend. Ausgangsbasis ist immer ein menschlich, intellektuell, journalistisch erstellter Content. Und ich kann dann eine KI zur Hilfe nehmen, um daraus etwas anderes zu machen.
Eine Kennzeichnung des Einsatzes von KI soll ja vor allem die Leserschaft informieren. Was halten die „User“ generell von einem KI-Einsatz im Journalismus?
Der Reuters Digital News Report hat im vergangenen Jahr erstmals die Einstellungen der User zum Einsatz von KI im Journalismus abgefragt und auch versucht herauszufinden, wie es generell um deren Wissen zu KI und zu KI im Journalismus bestellt ist.
Die Ergebnisse zeigen, dass es noch keine eindeutige Haltung der User gibt, weil das Wissen um diese Technologie, die sogenannte AI-Awareness, auch abseits des Journalismus, noch nicht so verbreitet ist. Als Verbraucher kann man noch nicht gut abschätzen, was KI für den Journalismus bedeutet. Zudem wissen User oft gar nicht so genau, wie Journalismus funktioniert.
Ist es also eher gefährlich, einen KI-Einsatz zu kennzeichnen, weil es bei den Usern – ohne tiefere Kenntnis der Zusammenhänge – schnell zu Ablehnung und Misstrauen führen kann?
Tatsächlich steht die KI generell unter einem Täuschungsverdacht und hat so einen gewissen Misstrauensvorschuss; auch deshalb, weil man nie weiß, wie Maschinen halluzinieren. Die Angst, getäuscht zu werden, ist durchaus vorhanden bei den Usern. Texte oder auch täuschend echte Bilder könnten falsch sein, weil sie von der KI generiert wurden. Umgekehrt ist bei den Medien das Bemühen vorhanden, diesen Täuschungsverdacht zu entkräften.
Wenn ich aber überall KI draufklebe und nicht erkläre, warum ich das kennzeichne, dann bleibt eigentlich nur diese Täuschungsangst bei den Usern. Sie haben dann generell weniger Vertrauen in etwas, das mit KI gelabelt ist, als in etwas, das gar nicht gelabelt ist. Mit einer unreflektierten Kennzeichnungsstrategie würde man also im schwersten Fall erreichen, dass nicht gelabelter generischer KI-Müll quasi vertrauenswürdiger wirkt als gelabelter guter Journalismus.
Bezieht sich das Misstrauen der User gegenüber einem KI-Einsatz auf alle Zielgruppen, Mediengattungen und Medienarten gleichermaßen?
Der Reuters Newsreport hat ganz konkret danach gefragt, wie unbehaglich sich verschiedene Usergruppen beim Einsatz von KI im Journalismus fühlen. Es gibt da durchaus ein demografisches Gefälle. Jüngere männliche Befragte sind gelassener, wenn es um KI im Journalismus geht. Ältere Personen sind etwas vorsichtiger und fühlen sich schneller verunsichert. User, ob männlich oder weiblich, haben scheinbar kein so großes Problem, wenn KI für „Soft News“ eingesetzt wird, zum Beispiel im Bereich Entertainment, teilweise auch im Sport. „Hard News“, also Politikberichterstattung, Wirtschaftsberichterstattung, chronikale Berichterstattung, hält man für gewichtiger und denkt, es könnte heikler sein, wenn dort KI zum Einsatz kommt. Zum Fach- und Wissenschaftsjournalismus habe ich leider nichts Spezifisches finden können.
Zudem sagen die User, dass die KI nur im Kleinen helfen und nicht genuin Journalismus produzieren sollte. Letzteres wird sehr skeptisch beäugt.
Was geben denn die KI-Guidelines der Medienhäuser zum Thema KI-Kennzeichnung her?
Die meisten Guidelines bekennen sich zur Transparenz beim KI-Einsatz – und das ist gut so. Das ist aber auch nicht überraschend, denn eine halbwegs solide verfasste KI Guideline, nicht nur im Medienbereich, sollte auf Werten wie Nachvollziehbarkeit, Erklärbarkeit, Transparenz basieren. Das sind Schlüsselbegriffe im KI-Diskurs.
Eine Schwäche all dieser KI-Guidelines – übrigens auch der unseren, an der ich mitgeschrieben habe und die ich eigentlich für ganz gut halte – ist die Definition, wann eine Transparenzselbstverpflichtung wirken soll. Konkret: Ab wann soll ein KI-Einsatz transparent gemacht werden?
Da schummeln sich alle etwas drum herum. Manche schreiben „weitgehend automatisiert“, manche schreiben „ohne menschliche Kontrolle“ – was meiner Meinung nach nicht sein darf.
Haben Sie Positivbeispiele für gute KI-Guidelines?
Eine sehr gute Definition, wie ich finde, ist die des „signifikanten journalistischen Impacts oder Einflusses“. Die kommt von den schwedischen Kollegen. Die haben ein umfangreiches Paper zu KI-Transparenz geschrieben und fordern eine Kennzeichnung im Fall eines „signifikanten journalistischen Einflusses“ des KI-Systems. Nur: Was dieser signifikante journalistische Einfluss ist, wird auch nicht definiert.
Die etwa 17 Guidelines, die ich analysiert habe, konnten – Stand 2024 – alle noch keine konkreten Antworten geben. Deshalb habe ich versucht, selbst eine zu erarbeiten.
Sie haben zur Kennzeichnung von KI im Journalismus ein White Paper geschrieben. Darin beschreiben sie auch die neuen Verhältnisse in den Medienhäusern und nutzen den Begriff des „hybriden Journalismus“. Was beschreibt der Begriff?
Tatsache ist, dass wir immer öfter in unseren Redaktionen nicht nur menschliche Kolleg:innen haben, sondern auch KI-Assistenzsysteme. Anders als ein Textverarbeitungsprogramm oder ein Redaktionssystem sind diese Systeme in der Lage, Aktionen zu setzen. Sie werden zu Akteuren in unseren Newsrooms. Das führt dazu, dass wir künftig in einem hybriden Szenario Journalismus machen werden.
Durch diese Situation – Journalisten arbeiten neben der KI – ist der hybride Journalismus ein brauchbarer Begriff, um die Aufgabenverteilungen in den Redaktionen oder auch an einzelnen Schreibtischen zu beschreiben: Der Mensch delegiert etwas an die Maschine, aber trotzdem haben wir auf beiden Seiten Autonomie.
Man könnte sich das als einen Schieberegler vorstellen. Journalistische Tätigkeiten haben die Werte 0 bis 100 und geregelt wird das über einen Schieberegler. 100 Prozent Autonomie für den Menschen bedeutet 0 Prozent Autonomie für die Maschine. Und umgekehrt. Im hybriden Journalismus lässt sich dieser Regler bis hin zu 100 Prozent Autonomie für die Maschine verschieben, wenn man das denn will. In der APA wollen wir das nicht.
Der Regler regelt dann den KI-Einfluss auf verschiedene journalistische Tätigkeiten?
Wichtig ist: Journalismus ist natürlich viel mehr als nur Schreiben. Der ganze Hype darum, dass die Maschine die Journalist:innen ersetzt, weil sie schreiben kann, lässt dies völlig außen vor.
Traditionell können wir den Workflow im Journalismus in drei Hauptphasen einteilen. Erstens gilt es, die Informationen zu finden und zu verarbeiten, auf Englisch „News Gathering“ genannt. Zweitens geht es um das Verfassen des Contents an sich. Also darum, die Geschichte, den Text zu machen – sozusagen die „Story Generation“.
Die dritte Phase ist dann das Distribuieren, das Veröffentlichen. Auch das ist nicht trivial. Wir müssen zum Beispiel überlegen, ob wir die Story morgens in der Früh spielen, weil sie dann besser platziert ist.
Wie entscheide ich, wohin ich den Regler bei verschiedenen Tätigkeiten ziehe?
In jeder Phase werden unzählige redaktionelle Entscheidungen getroffen. Manche sind extrem trivial und manche sind von sehr großer Tragweite. Als Nachrichtenagentur ist es für uns zum Beispiel sehr wichtig, welche Priorität eine Nachricht hat. Ist sie eine Eilmeldung, ein Alarm? Wir wissen, das hat einen völlig anderen Impact da draußen. Andere Entscheidungen wiederum kann man an KI-Systeme auslagern. Dann ist da eben ein wesentlicher Autonomiefaktor geschwächt, wertfrei gesagt.
Ich habe versucht, das zunächst allgemein anhand zweier zentraler Faktoren zu beschreiben. Diese sind die „redaktionelle Entscheidungsgewalt“, leider kein schönes Wort auf Deutsch, und die „Autorenschaft“.
Ein Beispiel für die redaktionelle Entscheidungsgewalt: Wenn ich sage: „Liebe Maschine, entscheide du für mich, welche Geschichte ich heute mache! Entscheide du für mich, welche Quellen ich für diese Story verwende!“, dann habe ich meine redaktionelle Entscheidungsgewalt bis zu einem gewissen Grad abgegeben.
Das zweite ist das Konzept der Autorenschaft. Wir Journalist:innen spucken ja nicht einfach irgendwelche Texte aus, wie ein schlecht gepromptetes Sprachmodell. Wir erzählen Geschichten. Journalismus bedeutete schon immer, Geschichten zu erzählen – lange bevor Storytelling zu einem Schlagwort wurde. Aber auch dieses Geschichtenerzählen kann ich an ein System auslagern – damit gebe ich dann einen Teil meiner Autonomie als Autorin ab. Ich kann der Maschine sagen: „Entscheide du, was der Titel ist! Entscheide du, was die Geschichte ist! Entscheide du, wie der Einstieg ist!“ Dann sind das alles wesentliche narrative Strukturen und Strategien. Wenn ich die an die Maschine abgebe, dann habe ich eine hybride Autorenschaft. Das halte ich für einen zweiten wesentlichen Aspekt bei der Frage „Kennzeichnung von KI-Einsatz“.
Welche konkreten Regeln für eine Kennzeichnung von KI-Beteiligung kann ich daraus ableiten?
Ich habe als Vorschlag eine Matrix entwickelt. Die demonstriert, wie man die beiden zentralen Faktoren – redaktionelle Entscheidungsgewalt und Autorenschaft – verwenden kann, um die eigenen Anwendungsfälle für KI zu klassifizieren.
Natürlich sind dabei auch noch andere Faktoren wichtig, zum Beispiel die KI-Leitlinien des Medienhauses, für das man schreibt. Die erstelle ich gerade auch für unser Haus. Deshalb überlege ich jetzt genau, welche Anwendungsfälle wir haben und wie man die klassifizieren kann.
Geben Sie uns ein konkretes Beispiel?
Für unsere English News verwenden wir die Übersetzungs-KI DeepL. Damit übersetzen wir seit einiger Zeit für unseren englischsprachigen Feed. Früher wurde intellektuell übersetzt, jetzt verwenden wir die KI.
Das Übersetzte wird natürlich noch gründlich lektoriert und auch teilweise umgeschrieben. Aber für das Transponieren von Deutsch in Englisch ist das eine super Erleichterung und die Kolleg:innen, die früher viel zu viel Zeit damit verbracht hatten, sind jetzt zum Beispiel in unserer Faktencheckabteilung tätig: Das ist für uns viel wertvoller – und für sie auch.
Wir hatten letztes Jahr lange diskutiert, ob wir das als KI-Beteiligung kennzeichnen sollten. Damals hatte ich – eher aus dem Bauch heraus – gesagt: „Ich glaube nicht, dass wir das kennzeichnen müssen.“ Inzwischen können wir das anhand der Systematik, die ich entwickelt habe, gut begründen.
Wie? Die redaktionelle Entscheidungsgewalt ist beim Einsatz eines KI-gesteuerten Übersetzungsprogramms eigentlich gar nicht beeinträchtigt. Denn die Entscheidung, den Text ins Englische zu übersetzen, den treffe ich. Und, daran was und wie wir in dem Text berichten, ändert die KI-Übersetzung auch nichts. Ist meine Autorenschaft durch die KI-Nutzung an dieser Geschichte beeinträchtigt? Natürlich auch nicht. Denn ein gutes Übersetzungsprogramm wird nichts an der Story ändern, sondern sie lediglich in die andere Sprache hinüberheben.
Haben Sie auch ein Beispiel für ein Produkt, das Sie kennzeichnen?
Wir haben eine automatisch generierte Wahlberichterstattung. Die basiert nicht auf generativer KI, sondern ist regelbasiert. Sie enthält Lückentexte, die Menschen geschrieben haben. Die Maschine setzt dann nur noch die aktuellen Zahlen ein. Das Produkt kennzeichnen wir aber schon seit 2019 als KI-Beteiligung.
Zu dem Fall haben mir sogar Forschende in Oxford gesagt: „Die Texte sind ja von Menschen, die Maschine setzt nur die Daten ein. Da müsstet ihr nichts kennzeichnen, das ist ja eigentlich sicher, denn der Output ist 100 Prozent kontrollierbar.“ Das stimmt. In meinem Modell ist die Autorenschaft zu 100 Prozent beim Menschen, weil wir selbst all diese möglichen Geschichten geschrieben haben, die dann auf Basis der Daten entstehen können. Trotzdem werden die Geschichten aber automatisch publiziert. Am Wahlabend wird die Geschichte generiert und veröffentlicht, sobald ein neues Ergebnis für die Gemeinde eintrifft – und das sind mehr als 2.000 Meldungen an einem Wahlabend. Kein Mensch trifft diese Publikationsentscheidung, sondern die KI. Und damit haben wir im Bereich der journalistischen Entscheidungsmacht eine 100 Prozent maschinelle Autonomie. Deshalb die Kennzeichnung.
In dem Moment kommt dann bei Usern wahrscheinlich wieder die Angst vor der KI als Produzentin von Fehlern ins Spiel. Die Angst, dass sie Wahlergebnisse fantasiert. Wir erinnern uns an die „Hard News“. Oder?
Die Angst, oder besser die Bedenken, sind ja auch völlig verständlich. Die Sorge, dass durch den Einsatz von KI Fehler passieren und damit Schaden verursacht wird, ist ja nicht irrational. Aber einen Text nur zu kennzeichnen, weil eine KI möglicherweise nicht gemacht hat, was sie hätte machen sollen, kann ja nicht Ziel der Transparenz sein.
Unser Ziel als Medien muss es ja sein, korrekten Journalismus zu machen. Und wenn ich ein Tool einsetze, das mich in die Gefahr bringt, dass mein Journalismus nicht mehr korrekt ist, dann habe ich ein Problem mit dem Tool und nicht mit der Transparenz. Das ist meine Position.
Werden sie dieses APA-Framework veröffentlichen, oder bleibt das intern?
Das wird veröffentlicht. Das legen wir offen.
Ich bin auch selbst gespannt, wie es uns selbst mit der Matrix geht und ob dieses System, dass ich mir da ausgedacht habe, für eine Zeit lang zumindest, praktikabel ist.
Das Gespräch führte Gunter Becker.
Titelillustration: Esther Schaarhüls.
Das Magazin Fachjournalist ist eine Publikation des Deutschen Fachjournalisten-Verbands (DFJV).

Foto: APA
Die studierte Literaturwissenschaftlerin Katharina Schell ist stellvertretende Chefredakteurin der österreichischen Nachrichtenagentur APA. Sie vertritt bei der APA die Redaktion in der Einheit „Trusted AI“ und beschäftigt sich mit digitaler Innovation, KI im Journalismus und in der Kommunikation sowie mit Datenjournalismus. Zudem ist sie für die Softwareentwicklungsprojekte der Redaktion zuständig.