Neuer Fachjournalist-Beitrag.
Wenn KI-Crawler und -Bots großer Tech-Konzerne das Internet nach Inhalten aus Texten, Filmen, Musik oder Bildern abgrasen, um KI-Modelle wie ChatGPT zu trainieren, gehen die Urheberinnen und Urheber dabei meist leer aus. Auch die Rechtslage ist bei dieser Form der Nutzung eigentlich urheberrechtlich geschützter Inhalte unklar, wie Gunter Becker in diesem Beitrag festhält. Doch wie können sich Medienschaffende vor Scraping, dem „Abschürfen“ ihrer Werke durch KI-Bots, schützen? Welche technischen Schutzmaßnahmen gibt es für die eigenen Seiten? Und: Wie steht es um Nutzungsregeln und Vergütungen? Der Medienjournalist hat sich für den Fachjournalist über die aktuelle Rechtslage, die technischen Möglichkeiten des Content-Schutzes von der robots.txt-Datei bis zum „Data Poisoning“ und über denkbare Vergütungsmodelle beim KI-Berater Branko Trebsche sowie dem Sprecher der Kreativen der Initiative Urheberrecht, Matthias Hornschuh, informiert.