Deutschland 27.07.2018

NetzDG führt offenbar zu Overblocking

© picture alliance/chromorange

Reporter ohne Grenzen (ROG) geht angesichts neu veröffentlichter Zahlen von einem Overblocking legaler Inhalte bei Facebook und Google aus. Das Anfang 2018 in Kraft getretene Netzwerkdurchsetzungsgesetz (NetzDG) verpflichtet soziale Netzwerke unter Strafandrohung, illegale Inhalte rasch zu entfernen. Offensichtlich hat dieser Druck dazu geführt, dass die Unternehmen viele Inhalte gelöscht haben, die eigentlich legal sind. Sie wollen damit sichergehen, nicht nach dem NetzDG bestraft zu werden. Bei den Löschungen berufen sich Facebook und Google auf ihre Community Standards. Darin legen sie selbst fest, was Nutzer auf ihren Plattformen teilen dürfen und räumen sich das Recht ein, auch Inhalte zu entfernen, die von den Kommunikationsfreiheiten gedeckt sind.

„Die Bundesregierung hat mit dem NetzDG private Unternehmen zu Richtern über die Presse- und Informationsfreiheit im Netz gemacht, ohne eine öffentliche Kontrolle des Löschverfahrens sicherzustellen. Eine solche unabhängige Prüfinstanz braucht es aber, um ein Overblocking, also das Löschen von rechtlich zulässigen Inhalten, zu erkennen“, sagte ROG-Geschäftsführer Christian Mihr. „Facebook und Google löschen nach eigenen Regeln, weil sie sich allein als private Unternehmen begreifen und eine Art digitales Hausrecht durchsetzen wollen. Ihre Plattformen sind jedoch ein Teil der modernen Öffentlichkeit geworden, so dass Menschen dort alles sagen können müssen, was nicht gegen Gesetze verstößt.“

<iframe frameborder="0" height="315" width="560" src="https://www.youtube-nocookie.com/embed/UH1IRbMs3kg?rel=0" allow="autoplay; encrypted-media"></iframe>

Tausende Löschungen wegen „Hassrede“

Google hat nach eigenen Angaben für seine Videoplattform YouTube im ersten Halbjahr 2018 Meldungen gegen rund 215.000 Inhalte nach dem NetzDG erhalten. Rund 27 Prozent der gemeldeten Inhalte entfernte Google demnach. Das Unternehmen bietet Nutzern sehr einfach die Möglichkeit, sich auf das NetzDG zu berufen: Soll ein Video gemeldet werden, kann ein Häkchen im Formular gesetzt werden. Google prüft dann zunächst, ob das Video gegen die eigenen Community-Standards verstößt. Nur wenn dies nicht der Fall ist, erfolgt eine Prüfung anhand des NetzDG.

Bei Facebook gingen im selben Zeitraum nur 886 Beschwerden nach dem NetzDG ein, in denen 1.704 Inhalte beanstandet wurden. In einer Beschwerde können mehrere Inhalte gemeldet werden. Allerdings ist der Meldevorgang auch deutlich komplizierter, zum Beispiel müssen Nutzer die konkreten Straftaten in einem gesonderten Formular benennen. Facebook löschte 21 Prozent der nach dem NetzDG gemeldeten Inhalte. Wie viele Inhalte Facebook aufgrund eigener Standards in Deutschland löschte, ist unbekannt – es dürften jedoch um ein Vielfaches mehr sein. Im eigenen Transparenzbericht gibt das Netzwerk an, weltweit im ersten Quartal 2018 rund 2,5 Millionen Inhalte allein aufgrund sogenannter „Hate Speech“ entfernt zu haben. In Deutschland waren es 2017 nach Unternehmensangaben monatlich rund 15.000 Inhalte wegen „Hate Speech“.

Am gleichen Tag veröffentlichte Zahlen für Twitter deuten ebenfalls daraufhin, dass es beim Kurznachrichten-Dienst zu einem Overblocking aufgrund der Community Standards kommt. Im ersten Halbjahr 2018 gingen 264.818 Beschwerden ein. Bei 28.645 Beschwerden (10,82 Prozent) ergriff der Dienst eine Maßnahme, zum Beispiel indem er Inhalte löschte. Twitter prüft Inhalte jedoch – wie Facebook und Google – erst nach ihren Community Standards, wodurch ein Großteil von Inhalten gelöscht wurde. Diese Community Standards erlauben es jedoch auch, legale Inhalte zu entfernen, weil sich Twitter hier auf eine Art „digitales Hausrecht“ beruft.

Facebook, Google & Co. sind informationelle Grundversorger geworden

Die Zahlen werfen die Frage auf, wie frei die Plattformen in der Ausgestaltung ihrer Community Standards heute noch sein dürfen. Die Unternehmen sind Informationsquellen für Milliarden Menschen. Reporter ohne Grenzen betrachtet sie als Teil der informationellen Grundversorgung der Gesellschaft, sie sind also essentiell dafür, dass sich die Menschen in einer demokratischen Öffentlichkeit frei und unabhängig informieren können. Dennoch löschen sie auf Basis ihrer Community Standards Inhalte, die nach deutschem Recht eigentlich zulässig wären. Es ist eine Art digitales Hausrecht, in das Nutzer einwilligen müssen, wenn sie die Dienste nutzen wollen.

Der staatlich verordnete Löschdruck durch das NetzDG hat damit offensichtlich dazu geführt, dass diese Community Standards herangezogen werden, um die Plattformen von fragwürdigen Inhalten zu „säubern“ – im Zweifel auch mit solchen, die eigentlich vom Recht gedeckt wären. Das NetzDG listet 21 Normen aus dem Strafgesetzbuch auf. Verstoßen Inhalte nach Auffassung der Unternehmen dagegen, müssen sie die Inhalte im Regelfall binnen 24 Stunden entfernen. Kommen sie dieser Verpflichtung systematisch nicht nach, drohen hohe Geldstrafen. Löschen die Unternehmen aber problematische Inhalte bereits großzügig auf Basis ihrer Community Standards, entgehen sie der Gefahr solcher Strafen. Eine unabhängige Überprüfung der Löschpraktiken gibt es nicht.

Unabhängige Aufsicht schaffen

Reporter ohne Grenzen sieht die Bundesregierung durch die nun veröffentlichen Zahlen in der Pflicht, das NetzDG umgehend zu korrigieren. ROG plädiert dafür, eine unabhängige Aufsicht zu schaffen, die über die Löschverfahren der Unternehmen wacht. Darin wären neben Betreibern, Justizvertretern und Strafverfolgern zum Beispiel auch „Anwälte der Nutzer“ und zivilgesellschaftliche Akteure vertreten. Der Aufsicht käme insbesondere die Rolle zu, die Verfahren der privaten Betreiber im Ganzen, also über Einzelfallentscheidungen hinaus, zu überwachen und Leitlinien für den Umgang mit Inhalten zu entwickeln, die als illegal gemeldet werden. Außerdem sollte sie der Öffentlichkeit berichterstatten und könnte als Schiedsstelle fungieren, wenn Nutzer einer Löschentscheidung widersprechen. Streitfälle müssten dann nicht direkt vor Gericht verhandelt werden, würden aber auch aus den intransparenten Löschverfahren der Unternehmen herausgelöst werden.

Im Koalitionsvertrag haben Union und SPD bereits angekündigt, Nutzungsbedingungen wie die Community Standards darauf prüfen zu wollen, ob sie die Verbraucherrechte der Nutzer ausreichend wahren. Diese Ankündigung muss die Große Koalition nun umsetzen. Die Notwendigkeit ergibt sich aus der Größe der Unternehen und ihrer Relevanz für die Informationsinteressen der Gesellschaft. Mit dieser gesonderten Stellung als informationelle Grundversorge gehen besondere Sorgfaltspflichten und Kontrollbefugnisse der Öffentlichkeit einher.

Hohe Relevanz für die Pressefreiheit

Digitale Plattformen wie Facebook, Google und Twitter sind heute essentieller Bestandteil der modernen Öffentlichkeit. Für den Journalismus bieten sie enorme Potentiale, um Menschen zu informieren. Gerade in Ländern mit eingeschränkter Informations- und Pressefreiheit wird dies deutlich: In von Zensur geprägten Mediensystemen bieten Facebook & Co. Freiheitsräume, in denen unabhängige Informationen verbreitet und neue Publika erreicht werden können. Ein Beispiel aus der Arbeit von Reporter ohne Grenzen ist das ägyptische Oppositionsmedium Mada Masr, das den Großteil seiner Reichweite aus dem Social Web bezieht – und ohne dieses kaum überlebensfähig wäre.

ROG betrachtet jedoch mit Sorge, dass in Staaten auf der ganzen Welt die Freiheitspotentiale unverhältnismäßig eingeschränkt werden, etwa durch gesetzliche Verpflichtung zur massiven Löschung von Inhalten. Das NetzDG fungiert hierzu als unrühmliches Beispiel, das bereits von anderen Staaten übernommen worden ist. Umso wichtiger ist, die systematischen Fehler des Gesetzes nun zu korrigieren.

Auf der Rangliste der Pressefreiheit steht Deutschland auf Platz 15 von 180 Staaten.



nach oben