Hauptmenü öffnen

Upload-Filter

Computergestützte Maßnahme zur Vorabprüfung hochzuladender Inhalte

Als Upload-Filter wird eine serverseitige Software bezeichnet, welche Dateien beim Hochladen prüft, gegebenenfalls abweist, verändert oder sonstige Maßnahmen initiiert. Maschinelle Datenverarbeitung soll dabei eine inhaltliche Prüfung durch Menschen ersetzen. Bedeutung haben solche Filter für öffentlich zugängliche Dienste, wenn diese Inhalte anderer Benutzer Dritten zugänglich machen oder vollständig veröffentlichen, beispielsweise soziale Medien oder Videoportale. Upload-Filter können verhindern, dass Rechtsgüter wie das Urheberrecht oder das Persönlichkeitsrecht verletzt werden. Andere Filter lassen nur bestimmte Dateiarten zu oder beschränken die Größe einer Datei. Außerdem dienen sie der Rationalisierung von Arbeitsprozessen und können manuell prüfende Arbeitnehmer vor psychischer Belastung schützen.

Für Upload-Filter setzt man Techniken der automatisierten Bild-, Sprach- und Texterkennung ein. Kopien sind damit gut erkennbar, doch bei komplexeren Anforderungen ist die Zuverlässigkeit der Erkennung mitunter umstritten.[1] Kritiker warnen vor der Gefahr des Overblocking, wenn Ausnahmen und Sonderfälle nicht zuverlässig als solche erkannt werden können.

Einsatz und TechnikBearbeiten

In diesem Artikel oder Abschnitt fehlen noch folgende wichtige Informationen:
unterschiedliche Vorgehensweisen bei Texten, Bildern und anderen Dateiformaten
Hilf der Wikipedia, indem du sie recherchierst und einfügst.

Beim Upload von Dateien können zum Beispiel Dateieigenschaften wie Dateiformat und Dateigröße geprüft werden. Ein Computerprogramm blockt hierbei Dateien, die Filterregeln verletzen. Bei inhaltlichen Restriktionen ist die Umsetzung in Programmcode komplexer. Eine Umsetzung könnte so aussehen: Bestimmte Merkmale des Inhalts der Datei werden herausgearbeitet und anhand dieser Merkmale wird entschieden, ob die Datei noch innerhalb der Restriktionen ist und geladen werden darf. Je nach Komplexität der zu erkennenden Inhalte und Situationen ist die Erkennung mit unterschiedlichen Fehlerraten verbunden, mehr dazu im Abschnitt Fehleranfälligkeit.

Manche Anbieter setzen Upload-Filter ein, die Urheberrechtsverletzungen erkennen sollen. Stand der Technik (2019) für diesen Anwendungsfall ist ein einfacher Mustervergleich, wogegen Methoden der künstlichen Intelligenz bisher nicht eingesetzt werden. Für solche Mustervergleiche verwendet man typischerweise einen digitalen Fingerabdruck (z. B. den akustischen Fingerabdruck bei Musik) und sucht den Fingerabdruck neu hochgeladener Inhalte in einer Datenbank gespeicherter Fingerabdrücke.[2] Das Content-ID-System von YouTube setzt derartige Upload-Filter ein – allerdings mit Nachkontrollen durch Tausende Angestellte.

Bei PhotoDNA handelt es sich um eine von Microsoft mit der Universität Dartmouth entwickelte Technik, welche den Behörden bekanntes kinderpornographisches Material wiedererkennen und abweisen soll. Für den Abgleich von Aufnahmen werden digitale Fingerabdrücke basierend auf Merkmalen wie Farbverläufe und Kanten erstellt und verglichen.[3] Eingesetzt wird diese Technik von mehreren Anbietern.

Der Konzern Facebook setzt Upload-Filter zum Erkennen von Rachepornos ein. Hierbei nutzt man digitale Fingerabdrücke, wofür Betroffene das Foto an Facebook übermitteln. Daraus wird der Fingerabdruck berechnet. Zusätzlich sollen Algorithmen aus dem Bereich des maschinellen Lernens auch unbekannte Aufnahmen erkennen.[4]

Außerdem werden Upload-Filter zum Filtern extremistischer Inhalte erwogen.[5]

Rechtliche und politische LageBearbeiten

Anfang 2012 entschied der Europäische Gerichtshof, dass soziale Netzwerke nicht verpflichtet sind, mit automatisierter Upload-Filterung Beiträge der Nutzer auf Urheberrechtsverletzungen zu kontrollieren aufgrund des Verbotes einer allgemeinen Überwachungspflicht. Zum anderen beeinträchtige dies die unternehmerische Freiheit, da dies teure Informatiksysteme erfordere. Geklagt hatte eine Verwertungsgesellschaft gegen das soziale Netzwerk Netlog.[6]

Über Jahre wird auf europäischer Ebene versucht das geistige Eigentum besser zu schützen und zu monetarisieren. Es gibt in der EU viele unterschiedliche Gesetzeslagen, beispielsweise in Bezug auf die Panoramafreiheit. Dies führte bei digitalen Plattformen zu einer gewissen Rechtlosigkeit und damit zu neuen Freiheiten. Dies soll die Richtlinie des Europäischen Parlaments und des Rates über das Urheberrecht im digitalen Binnenmarkt eingrenzen.

Im Koalitionsvertrag der 19. Wahlperiode des Bundestages, beschlossen am 7. Februar 2018, wurde der Begriff des Upload-Filters erstmals in Deutschland auf höchster politischer Ebene verwendet. Damit war die Position des Kabinetts Merkel IV für die Urheberrechtsreform der Europäischen Union scheinbar festgelegt.

„Eine Verpflichtung von Plattformen zum Einsatz von Upload-Filtern, um von Nutzern hochgeladene Inhalte nach urheberrechtsverletzenden Inhalten zu „filtern“, lehnen wir als unverhältnismäßig ab. Negative Auswirkungen auf kleinere und mittlere Verlage müssen vermieden werden.“

Koalitionsvertrag zwischen CDU, CSU und SPD.[7]

Auf dem Weg der EU-Richtlinie durch das EU-Parlament kam es zu großen Diskussionen innerhalb und außerhalb des Parlaments. In Deutschland und anderswo demonstrierten Hunderttausende Menschen gegen die EU-Richtlinie zur Upload-Filterung.

Aufgrund der Komplexität der Technologie und der Vielzahl möglicher Rechteinhaber warnte Ulrich Kelber als Bundesbeauftragter für den Datenschutz und die Informationsfreiheit vor der Entstehung technischer Oligopole, da die hohen Entwicklungskosten erzwingen, dass viele Datenbewegungen über die Filter weniger Anbieter geleitet werden würden.[8] Den Internetpionieren Tim Berners-Lee und Vint Cerf zufolge könnten verpflichtende Upload-Filter dieser Art dem freien Internet großen Schaden zufügen.[9]

Die EU-Richtlinie wurde am 26. März 2019 im Europäischen Parlament in der Form verabschiedet, dass der Einsatz von Upload-Filtern zum neuen Standard auf digitalen Plattformen werden könnte. Die Ausgestaltung der EU-Richtlinie in nationale Gesetzestexte steht noch aus.

Internetzensur und Einschränkung der FreiheitBearbeiten

Nach Ansicht von Kritikern helfen solche Filter mitunter, Internetzensur zu betreiben und Inhalte, die gegen eine bestimmte Meinung verstoßen, bereits vorher zu sperren. Dies kann das Recht auf Meinungs- und Pressefreiheit gefährden. Hierbei fällt auch der Begriff der maschinellen Zensur.[10]

FehleranfälligkeitBearbeiten

Ein Vergleich zweier Inhalte daraufhin, ob der eine Inhalt eine Kopie des anderen ist, funktioniert sehr gut.[1] So wird PhotoDNA eine vergleichsweise hohe Zuverlässigkeit zugeschrieben.[11]

An Grenzen stoßen Algorithmen bei veränderten oder manipulierten Dateien.[1] Schwierig wird es, wenn Kontext einbezogen werden muss. Dies ist nicht in jedem Einsatzgebiet der Fall. Der Haupteinsatzgebiet von PhotoDNA ist beispielsweise die Erkennung kinderpornographischen Materials. Dieses ist in jedem Kontext illegal.[11] Bei der Erkennung von Urheberrechtsverletzungen hingegen muss Material je nach Kontext verschieden bewertet werden, um erlaubte Parodien und Zitate von verbotenen Urheberrechtsverletzungen abzugrenzen. Methoden der künstlichen Intelligenz sind dazu noch unausgereift.[1] Die zuverlässige automatische Einordnung solcher Fälle wird daher von Florian Gallwitz, Professor für Medieninformatik, als derzeit nicht möglich angesehen, sodass es bei diesem Einsatzgebiet unausweichlich zu unerwünschten Begleiterscheinungen wie Overblocking komme.[2]

Viele Webvideo-Anbieter kritisieren den Ausfall von Werbeeinnahmen durch Fehleinstufungen ihrer Inhalte durch Uploadfilter. Videos, die kritische Themen sachlich oder unterhaltsam behandeln, können ohne Richtlinienverletzung aufgrund des Inhaltes und bestimmter schematischer Merkmale des Filters gesperrt werden. Auch sei es sehr fraglich, einzelne Wörter in einem Video aus dem Kontext herauszuziehen, indem man zum Beispiel eine gespielte Beleidigung als Hass wertet. Damit werde die Kunstfreiheit zum Beispiel bei Satire eingeschränkt.[12][13]

Manche Upload-Filter sollen jedoch nicht nur bekanntes Material wiedererkennen, sondern auch neue Inhalte basierend auf maschinellem Lernen klassifizieren können, wie beispielsweise die bei Facebook im Einsatz befindlichen Upload-Filter. Hierbei kommt es jedoch immer wieder zu Falscheinstufungen. Um zu erwartenden Fehlerkennungen bei diesem Ansatz entgegenzuwirken, unterzieht Facebook Aufnahmen zusätzlich der manuellen Prüfung.[4]

Bei der Erkennung terroristischer Inhalte auf der Videoplattform YouTube wurden laut Angaben des Anbieters im 1. Quartal 2019 von der eigenen Filtersoftware eine Million Videos als verdächtig eingestuft. Hiervon wurden 90.000 Videos in einer manuellen Prüfung als korrekt klassifiziert bestätigt, was einer Genauigkeit von unter 10 % entspricht.[14]

WeblinksBearbeiten

Siehe auchBearbeiten

EinzelnachweiseBearbeiten

  1. a b c d so Frank Pallas, TU Berlin, im Deutschlandfunk: Jan Rähm: Uploadfilter. Warum Kritiker Angst vor Zensur haben. 9. März 2019, abgerufen am 22. März 2019 (Viele technische Details nebst knapper Geschichte).
  2. a b Florian Gallwitz, Professor für Medieninformatik, Technische Hochschule Nürnberg Georg Simon Ohm: EU-Urheberrechtsreform: Experten zu Upload-Filtern. Zur Frage, wie zuverlässig Upload-Filter in schwierigen Fällen, wie bei der Beurteilung satirischer Beiträge, wären. 8. März 2019, abgerufen am 13. März 2019 (rezipiert von Deutsche Welle: Memes could be filtered out by EU copyright law, 13. März 2019).
  3. PhotoDNA: Step-by-step. Microsoft, 21. September 2013, archiviert vom Original; abgerufen am 14. März 2019 (englisch).
  4. a b heise online: Upload-Filter: Facebook und Instagram löschen Rachepornos automatisch. Abgerufen am 17. März 2019.
  5. Kommentar von Simon Hurtz: Dieser Kompromiss gefährdet das freie Netz. In: sueddeutsche.de. 13. Februar 2019, ISSN 0174-4917 (sueddeutsche.de [abgerufen am 13. März 2019]).
  6. EuGH stoppt Upload-Filter für soziale Netzwerke. In: sueddeutsche.de. 16. Februar 2012, ISSN 0174-4917 (sueddeutsche.de [abgerufen am 4. Januar 2019]).
  7. Ein neuer Aufbruch für Europa. Eine neue Dynamik für Deutschland. Ein neuer Zusammenhalt für unser Land. Koalitionsvertrag zwischen CDU, CSU und SPD. 19. Legislaturperiode (Kabinett Merkel IV), Seite 49 auf Zeile 2212–2214, 12. März 2018, abgerufen am 7. März 2019.
  8. Bundesbeauftragter für den Datenschutz und die Informationsfreiheit, Reform des Urheberrechts birgt auch datenschutzrechtliche Risiken, Bonn/Berlin 26. Februar 2019 (Pressemitteilung online)
  9. Open Letter of the EFF: Article 13 of the EU Copyright Directive Threatens the Internet, 12. Juni 2018
  10. Holger Bleich: EU-Kommission fordert den Einsatz von Upload-Filtern. In: heise.de. Abgerufen am 17. März 2018.
  11. a b Interview von Simon Hurtz: Diese Upload-Filter wären regelrechte Zensurmaschinen. In: sueddeutsche.de. 20. Juni 2018, ISSN 0174-4917 (sueddeutsche.de [abgerufen am 14. März 2019]).
  12. YouTube - MrTrashpack kritisiert stark eingebrochene Einnahmen. In: playnation.de. Abgerufen am 17. März 2018.
  13. Benjamin Köhler: YouTube verärgert Nutzer mit Werberichtlinie. In: derwesten.de. Abgerufen am 17. März 2018.
  14. David Shepardson: Google spends hundreds of millions of dollars on content review: letter. Reuters, 2. Mai 2019, abgerufen am 6. Mai 2019 (englisch).