Faire Regeln dort, wo Sichtbarkeit, Reichweite und Erlöse entstehen
Digitale Öffentlichkeit wird über Plattformen organisiert. Sichtbarkeit, Reichweite, Erlöse und Reputation professionell Veröffentlichender hängen von Algorithmen, Moderationsentscheidungen, Monetarisierungsregeln und technischen Schnittstellen ab, die sie nicht kontrollieren. Das betrifft Redaktionen ebenso wie Creator, freie Autorinnen ebenso wie publizierende Forschende. Wir fordern messbare Nachvollziehbarkeit, planbare Abläufe und wirksame Abhilfe – überall dort, wo Plattformentscheidungen die Praxis professionellen Veröffentlichens prägen.
Algorithmus-Transparenz und Nichtdiskriminierung
Transparenzpflichten zu Ranking- und Empfehlungssystemen müssen wirksam umgesetzt werden. Angaben zu „Hauptparametern" dürfen nicht bei Allgemeinplätzen stehen bleiben, sondern müssen die wesentlichen Signalgruppen und Priorisierungslogiken verständlich beschreiben – einschließlich der Optionen, mit denen Nutzende die Sortierung beeinflussen können.
Für professionelle Accounts braucht es darüber hinaus praxistaugliche Diagnose-Informationen, wenn Reichweite oder Sichtbarkeit auffällig abweichen: standardisierte Reason-Codes, Versionshinweise und konsistente Kategorien für Downranking. Unabhängige Audits sollen nach gemeinsamen Messstandards prüfen, ob vertrauenswürdige Veröffentlichungen systematisch benachteiligt oder ob Eigeninteressen der Plattform verdeckt bevorzugt werden. Bezahlte Bevorzugung ist eindeutig zu kennzeichnen. Transparenzberichte sollen Reichweitenbrüche, Fehlerquoten und Beschwerdeausgänge in aggregierter Form abbilden. Wenn messbare Nachteile belegt sind, müssen wirksame Abhilfemechanismen greifen: Korrektur, Fristen, dokumentierte Entscheidungen und ein überprüfbarer Beschwerdeweg.
Schutz vor willkürlichen Sperrungen
Begründungs- und Beschwerderechte bei Moderationsentscheidungen müssen verlässlich angewandt und praktisch nutzbar sein. Wenn Inhalte entfernt, Accounts gesperrt, Reichweiten begrenzt oder Monetarisierung entzogen wird, müssen die Gründe konkret, fallbezogen und verständlich mitgeteilt werden – einschließlich betroffener Inhalte, herangezogener Regeln und nachvollziehbarer Indizien. Diese Begründungen müssen dauerhaft abrufbar sein.
Interne Beschwerdeverfahren müssen fristgebunden und unter qualifizierter menschlicher Aufsicht funktionieren – besonders bei strittigen Sachverhalten oder zeitkritischer Berichterstattung. Ergänzend braucht es eine unabhängige Streitbeilegung, die in der Praxis erreichbar ist, nicht nur auf dem Papier. Automatisierte Entscheidungen müssen als solche erkennbar sein und dürfen nicht zu dauerhaften Fehlentscheidungen führen. Missbräuchliche Massenmeldungen sind technisch zu erkennen und dürfen nicht als Entscheidungsgrundlage dienen. Fehler müssen schnell korrigiert werden: mit Wiederherstellung, Dokumentation und klaren Ansprechpartnern für professionelle Accounts.
Monetarisierung und Revenue-Share
Transparenz und Nachprüfbarkeit bei der Monetarisierung müssen Standard sein. Bei Werbediensten und Vermittlungsketten darf Transparenz nicht an der Oberfläche enden, sondern muss in nutzbaren Formaten ankommen – sodass Preise, Gebühren, Abzüge und die zugrunde liegenden Messgrößen plausibilisiert werden können.
Reports sollen maschinenlesbar, versioniert und mit klaren Definitionen für Reichweite, Sichtbarkeit und validen Traffic bereitgestellt werden. Plattformeigene Monetarisierungsprogramme für professionell Veröffentlichende und Creator sollen nach vergleichbaren Mindeststandards arbeiten: klare Regeln, stabile Kennzahlen, exportierbare Reports, planbare Auszahlungen und keine rückwirkenden Änderungen. Abrechnungen müssen Streitfälle praktisch lösbar machen – mit dokumentierten Korrekturwegen, festen Fristen und neutraler Schlichtung bei wiederkehrenden Konflikten. Wenn Boni, Mindestgarantien oder Exklusivmodelle angeboten werden, sind Bedingungen und Ausschlusskriterien transparent zu machen. Fair gestaltete Monetarisierung stärkt Investitionen in Qualität, statt kurzfristige Klickoptimierung zu belohnen.
Datenmissbrauch und Tracking
Datenschutz- und Zweckbindungsprinzipien müssen im Plattformökosystem konsequent eingehalten und gegen Umgehungen abgesichert werden. Profiling, Targeting und Tracking sind auf das notwendige Maß zu begrenzen – mit verständlichen Einstellungen, echten Opt-out-Optionen und ohne manipulative Einwilligungsdialoge.
Daten professionell Veröffentlichender – ob Redaktionen, Creator, freie Autorinnen oder publizierende Forschende – dürfen nicht zweckentfremdet werden: nicht zur Verdrängung, nicht zum Kopieren von Geschäftsmodellen und nicht zur verdeckten Reichweiten- und Preissteuerung. Wo der Schutz vor Nutzung nicht öffentlicher Geschäftsdaten greift, muss er praktisch durchsetzbar sein – inklusive nachvollziehbarer Nachweise und wirksamer Konsequenzen bei Verstößen. Technisch braucht es saubere Trennung von Werbeprofilen, Protokollierung wesentlicher Zugriffe sowie sichere Schnittstellen. Praxistaugliche Alternativen wie kontextbasierte Werbung, aggregierte Messung und Privacy-Preserving Analytics sollen gestärkt werden, damit Leistung messbar bleibt, ohne Vertrauen zu verlieren.
Zugang zu Plattformdaten für Forschung und Audits
Datenzugänge für geprüfte Forschung und Audits müssen zuverlässig funktionieren und dürfen nicht durch Verzögerung, restriktive Auslegung oder technische Hürden entwertet werden. Der Zugang muss reproduzierbar sein: mit dokumentierten Schnittstellen, stabilen und versionierten Datenformaten sowie klaren Antragswegen, die fristgerecht entschieden werden.
Für Untersuchungen zu Desinformation, Wahlbeeinflussung und systemischen Risiken braucht es die relevanten Metriken vollständig – unter strengen Sicherheits- und Datenschutzvorkehrungen wie Pseudonymisierung, Aggregation, abgestuften Rollenmodellen und kontrollierten Arbeitsumgebungen. Änderungen an Datenschemata sind rechtzeitig anzukündigen, damit laufende Projekte nicht abbrechen. Transparenzberichte sollen offenlegen, wie viele Anträge gestellt, bewilligt oder abgelehnt wurden und aus welchen Gründen. Wo Gerichte oder Aufsichtsstellen Datenzugang konkretisieren, muss die Umsetzung unmittelbar erfolgen. Evidenzbasierte Kontrolle stärkt Vertrauen und macht Fehlentwicklungen früh sichtbar.
AdTech-Transparenz und Brand Safety
Transparenz zu Werbung und Werbeausspielung muss so umgesetzt werden, dass Qualitätsveröffentlichungen nicht systematisch benachteiligt werden. Anzeigen müssen nachvollziehbar auffindbar und analysierbar sein – einschließlich klarer Kennzeichnung, zentraler Angaben zum Auftraggeber und zu wesentlichen Targeting-Kriterien. Dazu gehören durchsuchbare Repositorien mit API-Zugriff und ausreichender Historie.
Wo Preis-, Fee- und Performance-Transparenz vorgesehen ist, muss sie in standardisierten, auditierbaren Reports ankommen, damit Geldflüsse und Optimierungsanreize entlang der Wertschöpfungskette nachvollziehbar werden. Brand-Safety-Klassifikationen müssen erklärbar, kontextsensitiv und anfechtbar sein. Pauschale Blocklisten, die seriöse Veröffentlichungen zu Politik, Gesundheit oder Krisen von Werbeerlösen abschneiden, sind durch differenzierte, überprüfbare Modelle zu ersetzen. Unabhängige Messung von Invalid Traffic und klare Verantwortlichkeiten bei Fehlklassifikationen gehören dazu. Verifizierte Qualitätslabels und kuratierte Deals zu fairen Konditionen sollen ermöglichen, dass Werbekunden Qualität gezielt buchen können.
Portabilität und Interoperabilität
Portabilität und Plattformwechsel müssen praktisch nutzbar bleiben und dürfen nicht durch technische Hürden oder strategische Verschlechterung entwertet werden. Professionell Veröffentlichende müssen Inhalte, Metadaten, Abonnements, Community-Strukturen und Leistungskennzahlen in maschinenlesbaren Standardformaten exportieren können.
Schnittstellen sollen stabil, dokumentiert, versioniert und mit verlässlichen Service-Levels betrieben werden. Änderungen an APIs oder Exportformaten brauchen Übergangsfristen und Migrationshilfen, damit Archive, Workflows und Tools nicht brechen. Interoperabilität soll sich auf klar definierte Kernobjekte konzentrieren – Identitätsnachweise, Inhaltsreferenzen, Abonnements, Moderationssignale –, um Multihoming zu erleichtern, ohne neue Risiken zu erzeugen. Ergänzend sind Testumgebungen und klare Ansprechpartner erforderlich, damit Wechsel und parallele Distribution planbar werden und Lock-in dauerhaft an Wirkung verliert.
Schutz vor Impersonation und Account-Missbrauch
Melde- und Abhilfeprozesse bei Identitätsmissbrauch müssen konsequent greifen und für professionelle Accounts priorisiert funktionieren. Impersonation, Fake-Profile, Kontoübernahmen und koordinierte Missbrauchsaktionen müssen schnell unterbunden werden – mit verifizierten Kontaktkanälen, klaren Nachweiswegen, kurzen Reaktionszeiten und Beweissicherung.
Entscheidungen dürfen nicht allein auf automatisierten Signalen beruhen, sondern müssen bei strittigen Fällen menschlich geprüft werden. Ebenso wichtig ist der Schutz vor koordinierten Falschmeldungen: Sie dürfen nicht zur Sperre legitimer Accounts führen und müssen als Muster erkannt werden. Wiederholungstäter sind systematisch zu erfassen und konsequent auszuschließen. Für Originalinhalte sollen Authentizitätssignale dauerhaft gestärkt werden – etwa durch datensparsame Verifikation und technische Provenance-Mechanismen, die Kopien erkennbar machen. Das stärkt Vertrauen, Sicherheit und wirtschaftliche Stabilität in der digitalen Öffentlichkeit.
Transparenz bei Policy-Änderungen
Informationspflichten zu Nutzungsbedingungen und Plattformregeln müssen zuverlässig erfüllt und praxistauglich umgesetzt werden. Signifikante Änderungen dürfen nicht überraschend in Kraft treten, sondern müssen frühzeitig, verständlich und versioniert kommuniziert werden – inklusive Begründung und Hinweis, welche Inhalte, Formate, Reichweitenmechaniken, Moderationspraxis, Monetarisierung und Schnittstellen betroffen sind.
Nutzungsbedingungen sollen leicht auffindbar und maschinenlesbar sein, damit Compliance und Archivierung automatisierbar werden. Einheitliche Versionierung muss Rückverfolgbarkeit über mindestens zwölf Monate sichern. Für professionell Veröffentlichende braucht es Change-Logs, Release-Notes und Impact-Beschreibungen, ergänzt um Testumgebungen und Migrationshilfen für API- oder Formatwechsel. Notfalländerungen sind möglich, müssen aber nachträglich transparent begründet und evaluiert werden – inklusive messbarer Nebenwirkungen wie Reichweitenabfällen bei seriösen Informationsangeboten. Wenn Änderungen widersprüchlich oder diskriminierend wirken, muss ein überprüfbarer Beschwerdeweg zur Korrektur führen.