EU-Urheberrechtsreform Urheberschutz für Kreative - kann das ohne Internetfilter gehen?
Berlin · Die Meinungsschlacht um die umstrittene EU-Urheberrechtsreform ist vorerst entschieden. Doch noch steht nicht genau fest, welche Regeln in Zukunft in Deutschland gelten sollen. Die CDU will die Richtlinie ohne Uploadfilter umsetzen. Doch wie soll das funktionieren?
Befürworter und Gegner haben erbittert über die EU-Urheberrechtsreform gestritten. Nach dem Votum des EU-Parlaments für die Reform rücken nun Fragen in den Mittelpunkt, die sich mit der konkreten Umsetzung der Reform beschäftigen.
Ist die Urheberrechtsreform bereits geltendes Recht?
Nein. Im Gegensatz zu einer EU-Verordnung muss eine Richtlinie von den einzelnen EU-Staaten in nationales Recht umgesetzt werden. Für diese Aufgabe haben sie zwei Jahre Zeit. Bevor die Richtlinie in Kraft tritt, müssen die EU-Staaten dem nun vom Parlament gebilligten Kompromiss aber noch einmal zustimmen. Dieses Votum wird voraussichtlich am 15. April stattfinden.
Werden mit der Richtlinie nun tatsächlich Uploadfilter zur Pflicht?
Uploadfilter werden in der Richtlinie nicht explizit erwähnt. Doch die meisten Experten gehen davon aus, dass Uploadfilter trotzdem eingesetzt werden müssen, weil die Masse der hochgeladenen Inhalte nicht manuell auf ihre Nutzungsrechte überprüft werden kann. Die CDU hat allerdings schon vor der Abstimmung im EU-Parlament angekündigt, die Richtlinie ohne Uploadfilter umsetzen zu wollen.
Wie soll das funktionieren?
Nach den Vorstellungen der CDU sollen geschützte Inhalte - „jedes original Musikstück, Film oder Audiobook“ - mit einem digitalen Fingerabdruck versehen werden. Damit könne jedes Werk zweifelsfrei identifiziert und dem Urheber zugeordnet werden.
Und damit sollen Uploadfilter überflüssig werden?
Auch nach dem Konzept der CDU muss es ein technisches System geben, dass einen Abgleich vornimmt, die Union nennt es aber nicht „Uploadfilter“. Der „Fingerabdruck“ der Inhalte soll dem Konzept zufolge bei den Plattform-Betreibern hinterlegt werden und sei Voraussetzung dafür, dass Urheber für ihre Werke von den Plattformen bezahlt werden können. „Oberhalb einer Bagatellgrenze würde der Urheber von den Plattformen bei einem Upload eines nicht bereits lizenzierten Inhalts informiert werden und hätte dann drei Möglichkeiten: 1. Er verlangt die Löschung von der Plattform. 2. Er bietet eine Lizenz an und wird entsprechend vergütet. 3. Er verzichtet auf weitere Maßnahmen, wodurch der entsprechende Inhalt dauerhaft lizenzfrei auf der Plattform erscheinen kann.“
Das Papier der CDU gibt aber bislang keine Auskunft darüber, was passieren soll, wenn Urheber sich weigern, eine Lizenz zu vergeben und sich nicht an dem „Fingerabdruck“-System beteiligen.
Sind solche Filter nicht schon bereits im Einsatz?
Ja. So hat Microsoft das System „PhotoDNA“ entwickelt, mit dem inzwischen etliche Provider sicherstellen, dass bekannte Fotos von missbrauchten Kindern nicht ins Netz geladen werden können. Der Google-Videodienst YouTube verwendet das System „Content ID“, bei dem Rechteinhaber ihre geschützten Inhalte für einen Abgleich bereitstellen. „Content ID“ vergleicht von YouTube-Usern hochgeladene Videos mit diesen Referenzdateien. Die Rechteinhaber können selbst entscheiden, ob sie den Upload zulassen, um dann die Werbeeinnahmen zu erhalten oder das Video sperren. Facebook betreibt ein ähnlich funktionierendes System.
Wo kommen Uploadfilter, so wie wir sie heute kennen, an ihre Grenzen?
Systeme wie „Content ID“ und die entsprechenden Filter bei Facebook erkennen unveränderte Musikvideos in der Regel sehr gut. Allerdings kommt es auch immer wieder zu falschen Zuordnungen. So wurden in der Vergangenheit immer wieder Videos gesperrt, in denen jemand Klaviermusik von Johann Sebastian Bach spielt, weil die Rechte daran fälschlicherweise Sony Music Global zugesprochen wurden. Dabei sind die Stücke gemeinfrei.
Bislang eingesetzte Filter kommen auch dann an ihre Grenzen, wenn plötzlich neue Anforderungen umgesetzt werden müssen. So hatten die Systeme von YouTube und Facebook erhebliche Mühe, die Videoaufnahmen des Attentäters von Christchurch zu blockieren, weil es etlichen Nutzern gelang, die automatische Erkennung mit Veränderungen am Video auszutricksen. Facebook konnte in den ersten 24 Stunden nach dem Attentat zwar 1,2 Millionen Videos beim Hochladen stoppen, hunderttausende Versionen wurden aber erst später erkannt und dann gelöscht.
Sind von den Uploadfiltern vor allem die Internet-Riesen wie Google und Facebook betroffen?
Die Befürworter der Richtlinie haben immer wieder damit argumentiert, es sei an der Zeit, große Internet-Konzerne stärker an der Finanzierung der Inhalte zu beteiligen, von denen sie auch stark profitieren. Daher zielt die Reform stark darauf, die Rahmenbedingungen zu schaffen, um Google, Facebook und andere Konzerne zur Kasse zu bitten.
Kritiker wie der Rechtsexperte Martin Kretschmer befürchten allerdings, dass kleinere Plattformen viel härter getroffen werden als die Netzgiganten. Für die Marktriesen sei es viel einfacher, entsprechende Lizenzen zu erwerben als für die vielen kleinen Dienste. In der Richtlinie werden zwar Anbieter von der Verpflichtung befreit, deren Dienste seit weniger als drei Jahren zur Verfügung stehen, weniger als zehn Millionen Euro Jahresumsatz machen und weniger als fünf Millionen Nutzern haben. Es müssen allerdings alle drei Bedingungen erfüllt sein, um bei der Haftungspflicht unter die Ausnahme zu fallen.