Logo DFJV

Jetzt Mitglied werden und sofort profitieren!

Werden Sie jetzt Mitglied und lassen Sie sich kostenlos und individuell von unseren Experten beraten.

Mitglied werden

Jetzt Mitglied werden und sofort profitieren!

Werden Sie jetzt Mitglied und lassen Sie sich kostenlos und individuell von unseren Experten beraten.

Mitglied werden

Jetzt Mitglied werden und sofort profitieren!

Werden Sie jetzt Mitglied und lassen Sie sich kostenlos und individuell von unseren Experten beraten.

Mitglied werden

Jetzt Mitglied werden und sofort profitieren!

Werden Sie jetzt Mitglied und lassen Sie sich kostenlos und individuell von unseren Experten beraten.

Mitglied werden

Urheberrecht und KI

Rechte kontrollierbar halten, Vergütung fair gestalten, KI-Einsatz überprüfbar machen

Urheberrecht sichert die wirtschaftliche Basis professionellen Veröffentlichens. KI beschleunigt Produktion, Auffindbarkeit und Wiederverwendung von Inhalten und verschiebt Wertschöpfung in Richtung automatisierter Systeme. Der DFJV vertritt eine klare Position: Rechte müssen kontrollierbar bleiben, Vergütung muss fair und nachvollziehbar sein, und KI-Einsatz muss überprüfbar werden. Für professionell Veröffentlichende zählen dabei vor allem Rechtssicherheit im Alltag, planbare Erlöse und Workflows, die Qualität und Tempo verbinden.

Starkes Urheberrecht und Durchsetzung

Die bestehenden urheberrechtlichen Ansprüche und Verfahren müssen in digitalen Verwertungsketten wirksam bleiben und praktisch durchsetzbar sein. In der Realität scheitert die Durchsetzung oft an Tempo, Kosten und Intransparenz, obwohl die Rechtslage grundsätzlich Instrumente bietet.

Notwendig sind klare, standardisierte Abläufe für Meldung, Beweissicherung, Prüfung und Abhilfe, die nachvollziehbar dokumentiert werden und verlässliche Fristen enthalten. Zuständigkeiten müssen entlang der technischen Kette eindeutig adressierbar sein – auch wenn Nutzung über Plattformen, Hosting, Aggregation, AdTech oder KI-Dienste läuft. Maßnahmen gegen wiederholte Verletzungen sollen abgestuft sein und legale Nutzung wie Zitat, Berichterstattung und Satire nicht beschädigen. Technische Hilfsmittel wie Referenzdateien oder Fingerprinting sind nur akzeptabel, wenn Fehlalarme korrigierbar bleiben, Entscheidungen begründet werden und eine unabhängige Kontrolle möglich ist. Professionell Veröffentlichende brauchen verlässliche kollektive Optionen – Schlichtung, Musterverfahren und kosteneffiziente Rechtsdurchsetzung –, damit Rechte auch für kleinere Akteure realistisch verteidigt werden können.

Angemessene Vergütung für Nutzungsrechte

Die bestehenden Prinzipien der angemessenen Vergütung und Nachvergütung dürfen nicht ausgehöhlt werden und müssen in der Praxis konsequent greifen – auch bei KI-getriebener Nutzung. Wenn Inhalte für Training, Retrieval, Zusammenfassungen, Übersetzungen oder automatisierte Ausspielung verwertet werden, muss diese Nutzung vergütungsfähig und abrechenbar bleiben.

Entscheidend ist Transparenz: Abrechnung ist nur fair, wenn Nutzungsarten, Reichweiten und Erlösströme nachvollziehbar ausgewiesen werden und wenn Auskunfts- und Rechenschaftsrechte ohne übermäßige Hürden durchgesetzt werden können. Pauschale Total-Buy-outs dürfen nicht zur Standardlösung werden, insbesondere nicht bei dauerhaft wiederkehrender und skalierender Nutzung. Wo sich eine Nutzung wirtschaftlich deutlich besser entwickelt als erwartet, müssen Anpassungsmechanismen zuverlässig funktionieren, damit die Arbeit professionell Veröffentlichender nicht systematisch entwertet wird. Standardisierte Vertragsklauseln, kollektive Lizenzmodelle und unabhängige Schieds- oder Schlichtungswege reduzieren Transaktionskosten und stärken die Verhandlungsposition der Veröffentlichenden.

Zweitverwertung und neue Nutzungsarten

Die bestehenden Regeln zu neuen und bislang unbekannten Nutzungsarten müssen auch im KI-Kontext konsequent angewendet werden und dürfen nicht durch pauschale Vertragskonstruktionen leerlaufen. Wenn Inhalte in zusätzlichen Formaten, Kanälen oder KI-basierten Produkten verwertet werden, müssen die Urheberinnen und Urheber rechtzeitig informiert werden und eine gesonderte, nachvollziehbar kalkulierte Vergütung erhalten.

Das betrifft besonders automatisierte Übersetzungen, Audio- und Video-Repurposing, synthetische Sprecher, personalisierte Zusammenfassungen, Trainingsdatensätze und Retrieval-Datenbanken, wenn sie Originalangebote ersetzen oder deren wirtschaftlichen Kern berühren. Um das praktikabel zu machen, sollen Lizenzen modular aufgebaut werden – mit transparenten Optionen je Nutzungsart, definierten Laufzeiten und klaren Vergütungslogiken. Digitale Rechtemanagement-Prozesse können Zustimmung, Territorium, Versionen und Abrechnungen abbilden und so Transaktionskosten senken. Wo sich der Verwertungsumfang nachträglich wesentlich erweitert, müssen Anpassungs- und Rückrufmechanismen tatsächlich handhabbar bleiben.

Text und Data Mining und Opt-out

Das bestehende Opt-out bei Text und Data Mining muss wirksam bleiben und in technischen Prozessen zuverlässig beachtet werden. Ein Opt-out ist nur dann ein echtes Steuerungsinstrument, wenn es praktisch umsetzbar, maschinenlesbar und nachweisbar respektiert wird.

Dazu braucht es einheitliche Signale über etablierte Standards, eine saubere Übernahme in Datenpipelines und eine nachvollziehbare Versionierung, damit Opt-outs nicht bei Updates, Re-Crawls oder Datenweitergaben verloren gehen. Anbieter sollen dokumentieren können, wie Opt-outs erkannt, umgesetzt und dauerhaft durchgesetzt werden, damit später überprüfbar ist, ob Inhalte rechtmäßig verarbeitet wurden. Wo Opt-outs gesetzt sind, müssen Unterlassung und Korrektur realistisch durchsetzbar sein. Gleichzeitig braucht es praxistaugliche Wege für rechtssichere Nutzung – etwa über Lizenzangebote, kuratierte Datenpakete und kollektive Modelle –, damit Verhandlungen nicht an Transaktionskosten scheitern. Für Forschung und professionelles Veröffentlichen sind sichere, standardisierte Datenzugänge wichtig, die Datenschutz und legitime Geheimhaltungsinteressen respektieren und dennoch überprüfbare Ergebnisse ermöglichen.

Transparenzpflichten für KI-Training

Die Transparenz- und Compliance-Pflichten rund um KI-Training und Retrieval müssen inhaltlich stark bleiben und so umgesetzt werden, dass sie in der Praxis nutzbar sind. Transparenz darf nicht auf formale Mindestberichte reduziert werden, die Rechteklärung und Kontrolle faktisch unmöglich machen.

Erforderlich sind standardisierte, prüfbare Nachweise zu Quellenkategorien, Datenbeschaffung, Filter- und Sperrlisten sowie zu wesentlichen Änderungen über Modell- und Datensatzversionen hinweg. Vollständige öffentliche Werklisten sind nicht in jedem Fall realistisch – aber professionell Veröffentlichende brauchen verlässliche Verfahren, um Nutzung plausibilisieren zu lassen, Opt-outs wirksam durchzusetzen und gegebenenfalls Lizenzangebote zu verhandeln. Unabhängige Audits und attestierte Kontrollsysteme sind ein praktikabler Weg, um Geschäftsgeheimnisse zu schützen und dennoch belastbare Prüfbarkeit zu gewährleisten. Trainingsdaten, Sperrlisten und Modellversionen müssen so versioniert werden, dass Löschungen und Opt-outs nachvollziehbar bleiben und nicht durch Re-Training oder Datenweitergabe unterlaufen werden.

Kennzeichnung von KI-Inhalten

Kennzeichnungspflichten für KI-generierte oder wesentlich KI-bearbeitete Inhalte müssen einheitlich, sichtbar und technisch robust umgesetzt werden. Kennzeichnung stärkt Vertrauen nur dann, wenn sie für das Publikum verständlich ist und in der Weiterverbreitung nicht verschwindet.

Praktikabel sind abgestufte Hinweise, die zwischen Assistenz, teilautomatischer Bearbeitung und vollständiger Generierung unterscheiden, ergänzt um maschinenlesbare Metadaten zum Automatisierungsgrad und zum verwendeten Werkzeug. Für Bild, Audio und Video sind Provenance- und Wasserzeichen-Standards zentral, die auch nach Konvertierung und Re-Upload möglichst erhalten bleiben. In sensiblen Kontexten – politische Kommunikation, Werbung, Personenbezug, Krisenlagen – müssen Kennzeichnungen besonders klar sein, weil hier Täuschungs- und Schadenspotenziale hoch sind. Gleichzeitig müssen Schwellenwerte eindeutig definiert werden, damit Kennzeichnungspflichten nicht zu unnötiger Bürokratie führen. Plattformen sollen Kennzeichnungen sichtbar ausspielen, Manipulation erschweren und missbräuchliche Entfernung sanktionieren. Professionell Veröffentlichende brauchen integrierbare Tools in ihren Workflows, damit Transparenz zur Routine wird.

Verantwortung bei automatisierten Veröffentlichungen

Die publizistische Verantwortungszuordnung muss auch in automatisierten Workflows voll gelten und darf nicht durch technische Auslagerung verwischt werden. Bei redaktionellen Angeboten muss weiterhin eine benannte natürliche Person verantwortlich sein, damit Korrekturen, Gegendarstellungen, Beschwerdewege und Haftungsfragen eindeutig zuordenbar bleiben.

Automatisierung ist zulässig, wenn sie von klaren Freigabe- und Kontrollpunkten begleitet wird, die sich am Risiko orientieren. Bei hohen Risiken – etwa bei schwerwiegenden Vorwürfen, Gesundheits- oder Finanzthemen, Wahlberichterstattung oder identifizierbaren Personen – ist eine menschliche Prüfung vor Veröffentlichung zwingend. Im Routinebereich sind Stichproben, Monitoring und klare Eskalationsregeln geeignet, solange Verantwortlichkeiten nicht anonymisiert werden. Notwendig sind Protokolle, die Quellen, Prompts, Modelleinstellungen und wesentliche Änderungen dokumentieren, damit Fehler nachvollzogen und behoben werden können.

KI-Richtlinien und Governance

Wir fordern verbindliche, auditierbare KI-Richtlinien in Organisationen, die professionell veröffentlichen. Die bestehenden allgemeinen Regeln allein schaffen keine belastbaren Workflows. Richtlinien sollen Zweck, zulässige Datenquellen, Urheberrechtsprüfung, Datenschutz, Bias-Risiken, Sicherheit, Rollen und Freigaben klar definieren und regelmäßig aktualisiert werden.

Sinnvoll ist eine risikobasierte Einteilung, die für sensible Anwendungsfälle strengere Prüfungen vorsieht als für reine Assistenzfunktionen. Praktisch bewährt sich ein KI-Register, das verwendete Tools, Versionen, Datenflüsse und Verantwortlichkeiten dokumentiert. Beschaffung und Verträge müssen Mindestklauseln enthalten – zu Datennutzung, Update-Transparenz, Incident-Response, Löschmöglichkeiten, Audit-Rechten und Exit-Optionen –, damit ein Anbieterwechsel realistisch bleibt und Lock-in vermieden wird. Weiterbildung ist Bestandteil der Governance, weil nur geschulte Teams Risiken einordnen und Ergebnisse fachlich prüfen können.

Nachvollziehbarkeit bei KI-gestützter Recherche

Es braucht verbindliche Standards für Nachvollziehbarkeit bei KI-gestützter Recherche, weil ohne Prüfbarkeit keine belastbare Veröffentlichung möglich ist. KI-Ergebnisse können halluzinieren, veralten oder Verzerrungen verstärken – deshalb muss die Nutzung in Recherche, Zusammenfassung und Analyse dokumentiert werden, mindestens intern und bei Bedarf gegenüber Ombudsstellen oder Gerichten.

Aussagen, die auf KI-Ergebnissen beruhen, müssen auf Primärquellen zurückgeführt werden können – einschließlich Datum, Version, Zugriffspfad und relevanter Kontextstellen. Wo Quellen fehlen oder unklar sind, dürfen Ergebnisse nur als Hinweis behandelt werden und nicht als überprüfte Tatsache. Praktisch umsetzbar ist das durch standardisierte Rechercheprotokolle, Zitierregeln, Versionierung von Prompt und Output sowie klare Kriterien, wann eine zweite Quelle oder menschliche Gegenprüfung erforderlich ist. Transparente Korrekturprozesse, die Fehler sichtbar berichtigen, senken Risiken, stärken Reputation und machen KI-Einsatz rechtssicher.

Deepfakes und synthetische Täuschung

Die Regeln gegen täuschende synthetische Medien müssen wirksam durchgesetzt werden und Betroffene müssen schnelle, praktikable Abhilfe erhalten können. Deepfakes gefährden Vertrauen, Sicherheit und die Integrität öffentlicher Debatten – insbesondere bei Personenbezug, Wahlkontext, Betrug, Erpressung oder Rufschädigung.

Erforderlich sind robuste Provenance- und Kennzeichnungsstandards, die in Produktions- und Distributionsketten erhalten bleiben und Manipulation erkennbar machen. Ebenso wichtig sind zügige Melde- und Abhilfeprozesse, die Beweissicherung unterstützen, Re-Uploads eindämmen und klare Statusinformationen liefern. Sanktionen müssen dort greifen, wo vorsätzlich getäuscht oder Schaden verursacht wird – während satirische und künstlerische Formen möglich bleiben, wenn sie eindeutig erkennbar sind. Professionell Veröffentlichende sollen Zugang zu Verifikationstools und Schulungen erhalten, um Deepfakes zu erkennen, einzuordnen und glaubwürdig zu widerlegen.

Leistungsschutzrecht und Plattformvergütung

Das bestehende Leistungsschutzrecht und die Vergütungsmechanismen für Veröffentlichungen müssen an neue Ausspielwege angepasst angewendet werden. Wo Snippets, Previews, Link-Vorschauen oder KI-Antwortformate inhaltlich auf professionellen Veröffentlichungen beruhen und Aufmerksamkeit oder Werbewert abschöpfen, muss Lizenzierung realistisch möglich sein und Vergütung nachvollziehbar abgerechnet werden.

Entscheidend ist, dass Reportingdaten zu Reichweite, Interaktionsintensität und Monetarisierung in einer Form bereitstehen, die Abrechnungen überprüfbar macht. Vergütungsflüsse sollen transparent sein und die Urheberinnen und Urheber angemessen beteiligen. Kollektive Verhandlungen, Schiedsstellen und standardisierte Verträge reduzieren Transaktionskosten und verhindern, dass einzelne Veröffentlichende gegeneinander ausgespielt werden. Kleine und spezialisierte Angebote müssen einbezogen werden, damit Vergütung nicht nur bei reichweitenstarken Anbietern ankommt. Die Inanspruchnahme von Rechten darf nicht zu missbräuchlicher Benachteiligung führen – etwa durch willkürliche Sichtbarkeitsnachteile. Das offene Linkprinzip bleibt unberührt: Vergütet wird die inhaltliche Nutzung, nicht das bloße Setzen eines Links.

Innovation für gemeinwohlorientierte Medien-KI

Wir brauchen planbare, skalierbare Innovationsstrukturen für Medien-KI, die Unabhängigkeit stärken und rechtssichere Nutzung erleichtern. Vieles existiert bereits in Programmen, Hubs und Kooperationen – entscheidend ist Verlässlichkeit, Anschlussfähigkeit und die konsequente Ausrichtung auf interoperable Standards.

Sinnvoll sind gemeinsame Infrastrukturen wie sichere Datenräume, Referenzmodelle für Lizenzierung, praxisnahe Testumgebungen und geteilte Komponenten für Recherche, Übersetzung, Barrierefreiheit, Moderation oder Betrugsabwehr. Anschubfinanzierung kann dort helfen, wo Anfangsinvestitionen hoch sind und Nutzen erst mit Skalierung entsteht – sollte aber als Hebel angelegt sein, mit Ko-Finanzierung, klaren Exit-Pfaden und messbaren Wirkungszielen. Transparente Kriterien wie Auditierbarkeit, dokumentierte Datenquellen, Sicherheitskonzepte, Portabilität und faire Beteiligung der Veröffentlichenden sind Voraussetzung, damit Innovation nicht auf Kosten von Qualität und Rechten geht. Wo möglich, sollten Ergebnisse als Open Source oder über konsortiale Betriebsmodelle verfügbar sein, damit auch kleine Organisationen und Einzelveröffentlichende profitieren.

Überzeugen Sie sich von unseren Leistungen

Mitglied werden
WordPress Cookie Plugin von Real Cookie Banner