SaveTheInternet

Urheberrechtsreform

Steckbrief

Was:

EU-Richtlinie
 

Name:

Gesetz zur Anpassung des Urheberrechts an die Erfordernisse des digitalen Binnenmarktes

(aufgeteilt in 2 Gesetze: „Gesetz I zur…“ und „Gesetz II zur…“)
 

Aka:

Artikel 13,  Artikel 17,  Uploadfilter,  Zensurmaschine,  Memefilter
 
 

TL;DR:

Der derzeitige Referentenentwurf zur nationalen Umsetzung von Artikel 17 sieht vor, dass auf allen Plattformen Echtzeit-Uploadfilter während des Hochladens eingesetzt werden sollen. Erst beim Anschlagen des Filters soll der Nutzer die Möglichkeit erhalten, Stellung zu nehmen. Alle bereits auf der Plattform befindlichen Uploads sollen ebenfalls durch Filter geprüft werden und bei Erkennung urheberrechtlich geschützten Materials automatisch entfernt werden. Es gibt keine Möglichkeit für Nutzer, bereits hochgeladene Inhalte als legal zu markieren. Auch soll es keine Möglichkeit für eine menschliche Überprüfung seitens der Plattformen geben.

 

 
 
 

Zitate:

 
Hier handelt es sich mit großer Sicherheit um eine allgemeine Überwachungspflicht, von der der europäische Gerichtshof gesagt hat, dass diese gegen die Grundrechte verstößt.“ – Julia Reda
 
Wir müssen es schaffen, dass wieder alle Leute, die letztes Jahr protestiert haben, wissen, dass dieser Gesetzgebungsprozess jetzt ansteht und wir jetzt aktiv werden müssen.“  – Julia Reda, gleiches Video (Minute 13:29)

 

 

 

Gefahren:

– Fehleranfälligkeit technischer Filtermechanismen
– Blockierung legaler Inhalte (z. B. Parodien)
– Einschränkung von Informations- und Meinungsfreiheit
– Missbrauch zu Zwecken der Zensur
 

Eigentliches Ziel:

Schutz von Rechteinhabern vor illegaler Nutzung ihrer Werke,
faire Vergütung
 

Aktueller Stand:

Entwürfe der Ausgestaltung auf nationaler Ebene in Deutschland,
öffentliche Konsultation des BMJV am 6. November 2020
 
 
 
 



Die lange Geschichte hinter der Urheberrechtsreform

Im Jahr 2001 wurde zum letzten Mal eine Reform des europäischen Urheberrechts beschlossen. Die EU hatte es versäumt, sich mit den neuen digitalen Gegebenheiten auseinander zu setzen. Plattformen boten ihren Nutzern an, sich kreativ auszudrücken und miteinander auszutauschen. Es entstand eine Internetkultur des freien Teilens und  der vielfältigen Auseinandersetzung mit Inhalten aller Art. Die Film- und Musikindustrie sah sich durch das kostenlos verfügbare und teilweise illegale Angebot im Netz genötigt, einen gesetzlichen Rahmen zum Schutz ihrer Werke zu fordern. Die Verleger der Zeitungen sahen sich darüber hinaus in einem nicht aufzuhaltenden Abwärtstrend. Aus  dieser Problematik heraus entstanden die umstrittenen Artikel 11 und 13.

Erst im Februar 2018 wurde im deutschen Koalitionsvertrag zwischen den Regierungsparteien CDU/CSU und SPD festgeschrieben, dass sogenannte „Uploadfilter“ nicht angemessen und abzulehnen sind [1]. Diese wären in der Lage, unerwünschte Inhalte nicht nur nachträglich zu löschen, sondern bereits deren Upload selbstständig zu unterbinden. Plattformen wie Facebook, Twitter und YouTube würden damit viele Inhalte zensieren müssen! Jedoch wurde in der EU-Politik diese Absage auf Bundesebene schlicht ignoriert. Die seit 2016 angestrebte Reform ist weiter mit der Forderung nach Filtern bestückt und ausgerechnet durch den deutschen CDU-Abgeordneten Axel Voss gemeinsam mit dem umstrittenen „Leistungsschutzrecht“ auf europäischer Ebene auf den Weg gebracht worden.



Die Verabschiedung der Urheberrechtsreform auf EU-Ebene


Der Reformtext kam mit einer knappen Mehrheit aus dem EU-Rechtsausschuss und wurde in der ersten Vorlage im Parlament abgelehnt. Nachbesserungen wurden verlangt und viele Änderungen, auch mit guten Alternativen zu den Filtern, kamen auf den Tisch. In der zweiten Abstimmung entschied das Parlament sich grundsätzlich für eine Reform, obwohl die Direktive dabei mit den schärfsten Versionen ausgestattet wurde. Hierbei ist anzumerken, dass viele Parlamentarier die Reform aufgrund der Artikel 14-16 unterstützten, welche Journalisten in ihren Rechten auch gegenüber den Verlagen und Verwertern stärken sollen.

Nach langen Trilogverhandlungen kam es dann am 4. Februar 2019 zwischen Frankreich und Deutschland zu einem Kompromiss in der Frage, für wen der Einsatz von Uploadfiltern verpflichtend sein soll, der Verhandlungsstopp war somit beendet [2]. Dieser Kompromiss kann allerdings kaum als ein solcher bezeichnet werden, da er sich fast ausschließlich an den Forderungen Frankreichs orientiert und umfassende Filterverpflichtungen für Plattformen vorsieht.



Die wesentliche Problematik der EU-Richtlinie


Konkret sieht der „Kompromiss“ vor, dass profitorientierte Plattformen die folgenden Bedingungen erfüllen müssen, um von einer allgemeinen Filterpflicht ausgenommen zu sein:


   1. Die Plattform muss jünger als 3 Jahre sein und einen Jahresumsatz von weniger als 10 Millionen Euro besitzen.

   2. Die Plattform muss weniger als 5 Millionen Nutzer pro Monat haben.


Wird auch nur eine dieser beiden Bedingungen nicht erfüllt, wäre eine Plattform gezwungen, Uploadfilter zu implementieren. Insbesondere das erste Kriterium hätte zur Folge, dass binnen maximal drei Jahren sämtliche bestehenden, in der EU verfügbaren Plattformen unter die Filterpflicht fallen würden, ungeachtet ihrer Größe oder ob sie an die Öffentlichkeit gerichtet sind oder nicht.

Alle Plattformen müssen, ob sie die Kriterien erfüllen oder nicht, beweisen, dass sie „größte Bemühungen“ unternommen haben, um von allen Rechteinhabern Lizenzen einzuholen, deren Inhalte ihre Nutzer womöglich hochladen könnten. Kurz: Plattformbetreiber müssten zu jedem jemals kreierten urheberrechtlich geschützten Inhalt eine Lizenz zu dem genannten Preis erwerben. Die einzige Alternative dazu wäre eine umfangreiche Selbstzensur mit Uploadfiltern, die wiederum kostspielig, technisch fehlerhaft und ein Angriff auf die Informations- und Meinungsfreiheit wäre.


Nachdem der Rat am 15. April 2019 die vom Parlament beschlossene Reform mit den strittigen Artikeln abgesegnet hat, ist es an den Mitgliedsländern, sie innerhalb der nächsten zwei Jahre in nationale Gesetze umzuschreiben.



Die Ausgestaltung der Richtlinie in Deutschland


Vorarbeit gab es durch den sog. „Stakeholder-Dialog“. Verwerter, Plattformen und Bürgerrechtler sollten ein Richlinienpapier erstellen, um es den Ländern bei der Umsetzung leichter zu machen.
-Ausarbeitung in zwei Gesetzen, erstes ohne Art.3 + 17. Eilverfahren angedacht 
-erstes soll im Eilverfahren erlassen und dann sofort gültig sein, zweites zu Juni(?) 2021
-erstes hängt vermutlich in der Auswertung der Stellungnahmen, keine infos seit januar 2020 (außer Stellungnahme der Kultusministerkonferenz)

LSR: 

128×128 Pixel, 

3 Sekunden Video.

Verlegerbeteiligung

Qualitativer Journalismus wird nicht gefördert.

Dazu unsere Stellungnahme ans BMJV hier https://www.bmjv.de/SharedDocs/Gesetzgebungsverfahren/Stellungnahmen/2020/Downloads/013120_StellungnahmeAnpassungdes_Urheberrechts_safetheinternet_DiskE.pdf?__blob=publicationFile&v=2

 


Die Ausgestaltung von Artikel 17 (ehem. Artikel 13) in Deutschland


Der größte Fallstrick in der praktischen Ausgestaltung von Artikel 17 besteht in der Frage, wie eine automatisierte Inhaltsfilterung betrieben werden kann, die auch tatsächlich nur illegale Uploads verhindert und legale Uploads zulässt. Hierfür gibt es mehrere Überlegungen für Mechanismen, wie vollautomatisierte Uploadfilter eingeschränkt werden.


Ein erster deutscher Diskussionsvorschlag schlug das sogenannte „Pre-flagging“ vor. Hier dürfte der hochladende Nutzer Uploads, die Werke Dritter enthalten, selbstständig als legitim kennzeichnen. Uploadfilter könnten dann nur auf nicht gekennzeichnete Uploads zugreifen sowie höherschwellig offensichtlich falsch gekennzeichnete Inhalte herausfiltern.

Daraufhin veröffentlichte die Kommission einen Gegenvorschlag, das sogenannte „Match and Flag“. Hier soll ein Uploadfilter den Upload vorab auf Werke Dritter scannen und eine Vorauswahl treffen. Wird der Upload dabei als „wahrscheinlich rechtswidrig“ eingestuft, wird er gelöscht. Ist die Lage uneindeutig, soll der Uploader die Möglichkeit erhalten, zu erklären, dass die Nutzung legitim ist. Dann wird eine menschliche Überprüfung eingeleitet, bis zu deren Entscheidung der Upload online bleibt.

Der jüngste Entwurf ist ein Referentenentwurf des BMJV, und dem vorherigen „Match and Flag“-Entwurf der Kommission sehr ähnlich. Allerdings sind beim genaueren Hinsehen in diesem Entwurf die Uploadfilter am mächtigsten.


§8 des Artikels sieht vor, dass ein Uploadfilter den Upload in Echtzeit während des Hochladens prüft und den Nutzer beim Erkennen von Werken Dritter benachrichtigt. Erst dann kann der Nutzer dazu Stellung nehmen. Ein generelles „Pre-flagging“ durch Nutzer soll nicht möglich sein. Dies folgt auch dem Wunsch der großen Plattformen, die bei „Pre-flagging“ befürchten, dass es viele ungerechtfertigte Kennzeichnungen gibt, die dann den erheblichen menschlichen Aufwand verursachen, nachträglich Uploads zu prüfen.

Sollte der Gesetzgeber den Plattformen den Einsatz automatisierter Echtzeit-Filter vorschreiben, ist das für kleinere Plattformen unverhältnismäßig, da die entsprechenden technischen Lösungen zu kostspielig wären und am Ende wiederum eine Abhängigkeit von den großen Plattformen zur Folge hätten.

Darüber hinaus muss bedacht werden, dass die Urheberrechtsreform auch für alle Uploads gelten wird, die sich bereits auf der Plattform befinden.

Der Kommissionsentwurf sah vor, dass nur „wahrscheinlich rechtsverletzende“ Uploads automatisch entfernt werden dürfen. Bei unklaren Uploads kann der Nutzer Stellung nehmen oder es findet eine menschliche Überprüfung statt, und der Upload bleibt währenddessen online.

Im jüngsten Referentenentwurf dagegen ist geplant, dass alle erkannten Uploads sofort automatisch entfernt werden. Die Unterscheidung, ob „wahrscheinlich rechtsverletzend“ oder „uneindeutig“ wird hierbei nicht mehr getroffen und die menschliche Überprüfung eingespart. Das bedeutet, dass bereits Hochgeladenes zu keinem Zeitpunkt als legal gekennzeichnet werden kann.


Und nun?

Paul Keller, Präsident und Gründungsmitglied der COMMUNIA Association, die sich für die freie Verwendung von und Zugang zu Wissen und Kulturgütern einsetzt, formulierte jüngst konkrete Ideen und Gedanken, wie Artikel 17 fairer und humaner ausgestaltet werden kann.

Er plädiert für die Möglichkeit, dass Nutzer jeden Upload auch nach dem Hochladen als legitim kennzeichnen können. Diese sollen dann nicht mehr durch Filter automatisch gelöscht werden können.

Die Überlegungen zu einem „wahrscheinlich rechtsverletzenden“ Standard teilt er und sagt gleichzeitig, dass die Schwelle hierzu möglichst hoch sein müsse, weil auch ein solcher Filter immer noch potenziell Legales blockieren könne. Zudem müssten die Kriterien dieser Schwelle transparent sein und von Nutzern vor Gericht angefochten werden können.

Alles, was diese Schwelle nicht erreiche, müsse vor einer Blockierung geschützt werden und dürfe auch während der Überprüfung nicht entfernt werden.

Die Datenbank für Werke, die gemeinfrei oder Open Source sind, solle öffentlich vorliegen. So könne sie jeder konsultieren und die Plattformen könnten die gleiche Referenz heranziehen.

Letztlich solle die Verwendung von Filtern national nicht für alle Plattformen vorgeschrieben werden, da es für kleinere Plattformen unverhältnismäßig sei.


Link zum aktuellen Referentenentwurf des BMJV: https://www.bmjv.de/SharedDocs/Gesetzgebungsverfahren/Dokumente/RefE_Urheberrecht.pdf?__blob=publicationFile&v=7



Quellen