Zum Inhalt

KI-Verhaltenskodex: Erster Entwurf und erstes Copyright-Meeting

Am 1. August 2024 trat das EU-Gesetz über künstliche Intelligenz in Kraft. Diese Verordnung hat erhebliche Auswirkungen auf den Kultur- und Kreativsektor, da KI künstlerische Prozesse zunehmend verändert und kulturelle Daten nutzt. Das KI-Gesetz führt unter anderem Verpflichtungen für Anbieter von Allzweck-KI-Modellen (GPAI) ein, darunter Transparenz und Urheberrecht.

Um die technischen Maßnahmen und Richtlinien festzulegen, die GPAI-Anbieter umsetzen müssen, um diesen Verpflichtungen nachzukommen, unterstützt das KI-Büro der Europäischen Kommission die Ausarbeitung eines Verhaltenskodex. Bis Mai 2025 wird dieses Dokument bewährte Praktiken und Maßnahmen darlegen, die Anbieter bei der Einhaltung ihrer gesetzlichen Anforderungen unterstützen. Der Kodex wird in einem Multistakeholder-Prozess entwickelt, an dem fast 1000 Teilnehmer aus Industrie, Wissenschaft, Zivilgesellschaft und Rechteinhaberorganisationen. Culture Action Europe nimmt ebenfalls an dieser Arbeitsgruppe teil. Der Prozess wird von Vorsitzenden – renommierten Experten – geleitet, die die Beiträge der Interessengruppen konsolidieren, um sukzessive Versionen des Dokuments zu entwerfen.

 

Ein erster Entwurf

Letzte Woche veröffentlichte das AI Office der erste Entwurf des KodexNachfolgend finden Sie eine Übersicht über die wichtigsten Maßnahmen im Bereich Transparenz und Urheberrecht.

Maßnahme 3: Interne Copyright-Richtlinie

  • Anbieter von GPAI-Modellen müssen implementieren eine interne Richtlinie, die die Einhaltung der EU-Urheberrechtsgesetze sicherstellt über den gesamten Lebenszyklus ihrer Modelle hinweg. Sie sollten auch innerhalb ihrer Organisationen klare Verantwortlichkeiten für die Überwachung dieser Richtlinie festlegen.
  • Anbieter von GPAI-Modellen müssen Urheberrechtliche Sorgfaltspflicht gegenüber Upstream-Parteien bevor Sie sie beauftragen, und stellen Sie sicher, dass diese Unternehmen ihre Rechtevorbehalte respektiert haben. Im Kontext der Entwicklung von KI-Modellen bezieht sich „Upstream“ auf den Prozess des Sammelns und Vorbereitens der Datensätze, die zum Trainieren des Modells verwendet werden.
  • Anbieter von GPAI-Modellen sollten Maßnahmen ergreifen, um das Risiko zu verringern, dass nachgelagerte Systeme urheberrechtsverletzende Ergebnisse produzieren. „Downstream“ bezieht sich auf spätere Phasen, in denen das KI-Modell, das im Wesentlichen ein statistisches Modell ist, in Tools oder Anwendungen für den Einsatz in der realen Welt integriert wird. Anbieter werden dringend gebeten, Überanpassung vermeiden ihre Modelle (wenn das Modell die Trainingsdaten, einschließlich des Rauschens oder spezifischer Details, zu genau lernt) und sollten nachgelagerte Einheiten dazu verpflichten, die wiederholte Generierung von Ergebnissen zu verhindern, die mit geschützten Werken identisch oder erkennbar ähnlich sind. Diese Maßnahme gilt nicht für KMU.

Maßnahme 4: Anbieter sollten Rechtevorbehalte erkennen und einhalten

  • Anbieter sollten nur Crawler einsetzen, die das robots.txt-Protokoll.
  • Anbieter sollten sicherstellen, dass Rechtevorbehalte, die über robots.txt ausgedrückt werden, sich nicht negativ auf die Auffindbarkeit der Inhalte in ihrer Suchmaschine.
  • Anbieter sollten respektieren andere geeignete maschinenlesbare Mittel um einen Rechtevorbehalt auf Quellen- und/oder Werkebene gemäß weit verbreiteten Industriestandards auszudrücken.
  • Anbieter, mit Ausnahme von KMU, sollten zusammenarbeiten, um interoperable maschinenlesbare Standards zur Äußerung von Rechtevorbehalten.
  • Krabbelaktivitäten müssen Raubkopien ausschließen, wie sie auf der Website der Europäischen Kommission aufgeführt sind Beobachtungsliste für Produktfälschungen und Produktpiraterie oder nationale Äquivalente.

Maßnahme 5: Transparenz

  • Anbieter werden Informationen auf ihren Websites veröffentlichen über die Maßnahmen, die sie ergreifen, um Rechtsvorbehalte zu ermitteln und einzuhalten. Diese Informationen müssen in klarer und verständlicher Sprache verfasst sein.
  • Diese Informationen sollten Folgendes umfassen: Namen aller Crawler wird für das GPAI-Modelltraining und die entsprechenden Robots.txt-Funktionen verwendet.
  • Die Anbieter werden ermutigt, einen einziger Kontaktpunkt um Rechteinhabern eine direkte Kommunikation und die Möglichkeit zu geben, umgehend Beschwerden bezüglich der Verwendung geschützter Werke bei der Entwicklung des GPAI-Modells einzureichen.
  • Die Anbieter erstellen, aktualisieren und übermitteln dem AI-Büro auf Anfrage Informationen zu den für das Training verwendeten Datenquellen, Tests und Validierungen sowie über Berechtigungen für den Zugriff und die Verwendung geschützter Inhalte für die Entwicklung eines GPAI-Modells. 

 

Transparenz und Urheberrecht

Am 21. November fand die erste Sitzung der Arbeitsgruppe für Transparenz und Urheberrecht unter dem gemeinsamen Vorsitz von Nuria Oliver und Alexander Peukert, fand statt. Vorab ausgewählte Teilnehmer, die sowohl Rechteinhaber als auch Technologieunternehmen vertraten, stellten kurz ihre Positionen zum ersten Entwurf des Verhaltenskodex vor. Culture Action Europe liefert allgemeines Feedback zum Treffen (gemäß der Chatham-House-Regel werden die Namen der Organisationen nicht bekannt gegeben). 

  1. Die Urheberrechtsrichtlinien der Anbieter sollten über die bloße Einhaltung von Opt-outs hinausgehen, obwohl dies ein entscheidender Aspekt ist. Sie sollten auch Maßnahmen zur Schaffung robuster Lizenzierungsrahmen umfassen und die Zusammenarbeit mit Verwertungsgesellschaften und wichtigen Rechteinhabern fördern.
  2. Viele Rechteinhaber argumentierten, dass die alleinige Verweisung auf die Das robots.txt-Protokoll zum Opt-out ist unzureichend und es besteht das Risiko einer missbräuchlichen Anwendung von KI-Trainingsberechtigungen. Rechteinhaber sollten andere maschinenlesbare Mechanismen nutzen können, wie z. B. das Opt-out über Geschäftsbedingungen auf einer Website, öffentliche Repositorien von Rechtevorbehalten, öffentliche Erklärungen oder die Verwendung Automatisierte Inhaltserkennung (ACR)-Technologie zum Entfernen geschützter Inhalte aus Datensätzen. 
  3. Einige Teilnehmer schlugen vor, eine offizielles öffentliches Register zur expliziten Erfassung von Rechtevorbehalten. Dieses Register würde allen Beteiligten Rechtssicherheit bieten und die Verfolgung der Daten von Rechtevorbehalten ermöglichen, sodass geschützte Daten bei Bedarf leichter aus Datensätzen entfernt werden können. Ein Teilnehmer lehnte den Vorschlag jedoch mit der Begründung ab, dass er eine unangemessene Belastung für die Rechteinhaber darstellen könnte.
  4. In Bezug auf die Einhaltung des Urheberrechts im Upstream-Bereich argumentieren Rechteinhaber, dass diese nicht auf eine einfache Vorabprüfung von Datensätzen beschränkt sein sollte – GPAI-Modellanbieter sollten von Dritten verlangen, vollständige Rückverfolgbarkeit der von ihnen bereitgestellten Daten und Einzelheiten zu ihren Erfassungsmethoden. Das Konzept der „angemessenen Sorgfaltspflicht“ bedarf einer weiteren Ausarbeitung.
  5. Um die Einhaltung des Urheberrechts nach der Erstanmeldung sicherzustellen, ist GPAI-Modellanbieter geben detaillierte Informationen weiter über die für das Training verwendeten Daten mit dem KI-Büro und nachgelagerten Stellen. Nur so kann sichergestellt werden, dass KI-Ergebnisse nicht unter Verwendung illegaler oder rechtsverletzender Inhalte erzeugt werden.
    Andere merkten jedoch an, dass nachgelagerte Anbieter oft die einzigen sind, die in der Lage sind, die Einhaltung des Urheberrechts in ihrem spezifischen Betriebskontext angemessen zu beurteilen und zu verwalten. Sie manipulieren möglicherweise ihre eigenen geschützten Inhalte oder verfügen über Lizenzen, die außerhalb der Kontrolle der GPAI-Anbieter liegen.
  6. Autoren und Rechteinhaber müssen Entschädigung für die vorherige unerlaubte und illegale Nutzung urheberrechtlich geschützter Werke durch GPAI-Anbieter. Der Verhaltenskodex sollte eine Bestimmung enthalten, die KI-Anbieter dazu verpflichtet, sich im Rahmen ihrer Urheberrechtsrichtlinien zu verpflichten, für eine solche unbefugte Nutzung Entschädigungen zu zahlen. Der Kodex sollte auch einen Rahmen für Sanktionen und Maßnahmen zur Behandlung von Verstößen festlegen.
    Gleichzeitig betonten Vertreter von Technologieunternehmen, dass man sich an den Geltungsbereich des AI Act halten und zusätzliche Verpflichtungen vermeiden müsse: „Wir sind hier, um die Regeln des AI Act fertigzustellen, nicht mehr und nicht weniger.“ Sie stellten die Rolle des AI Office infrage und argumentierten, dass es „keine Urheberrechtsbehörde“ sei und dass seine Verantwortung bei der Überprüfung der Einhaltung des Urheberrechts unklar sei.
    Sie wiesen auch auf technische Herausforderungen hin, darunter die Undurchführbarkeit von Rechtevorbehalten auf Werkebene und die Schwierigkeit der Einhaltung durch nachgelagerte Anbieter. Die Vorhersage von rechtsverletzenden Ergebnissen, so argumentierten sie, sei mit der aktuellen Technologie nahezu unmöglich, und die Durchsetzung der Einhaltung des Urheberrechts durch nachgelagerte Anbieter liege außerhalb des Geltungsbereichs des AI Act. 

Sowohl das nächste Treffen als auch die Veröffentlichung der zweiten Version des Verhaltenskodex werden voraussichtlich im Januar 2025 stattfinden.

Culture Action Europe hat gemeinsam mit der Michael Culture Association Überlegungen zur Umsetzung des KI-Gesetzes, entwickelt durch unsere Aktionsgruppe für KI und Digitales. Dieses Dokument bildet die Grundlage für das Feedback, das wir im Entwurfsprozess des Verhaltenskodex geben.