Erster Aufschlag für den „Digital Services Act“ – Ziele und Positionen
Der „Digital Services Act“ (DSA) ist jetzt schon eines der größten und meistbeachteten Gesetzesvorhaben in dieser Legislatur: Die EU will neue Regeln für Internetdienste und Plattformen festlegen, und unter anderem strengere Auflagen für die ganz großen Digitalkonzerne wie Google, Facebook und Co. anstoßen. Im Kern geht es dabei um eine Novellierung der 20 Jahre alten E-Commerce-Richtlinie (E-CR).
Mit der geplanten Reform sollen die Regeln für digitale Plattformen, die in der EU aktiv sind, für die Zukunft ausgelegt werden. Der Prozess dürfte ähnlich aufreibend werden wie in der Vergangenheit die Arbeit an der Datenschutzgrundverordnung und ebenso wie diese mehrere Jahre dauern. Europa steht vor der nächsten großen Konfrontation zwischen vielen extrem gegensätzlichen Interessen – zwischen Urhebern, Medienkonzernen, Online-Plattformen, Anti-Diskriminierungs- und Bürgerrechts-NGOs und Verbraucherschützer und vielen mehr.
Es wird vermutlich bis mindestens Ende Februar 2021 dauern, bis die EU-Kommission ihren Vorschlag für einen Digital Services Act präsentiert, aber im EU-Parlament beginnt jetzt die Arbeit – mit drei Initiativberichten geben die Abgeordneten der Kommission vor, was sie erwarten.
Den inhaltlich relevantesten Bericht erarbeitet der Binnenmarkt- und Verbraucherschutz-Ausschuss (IMCO), für den ich als Schattenberichterstatterin der Fraktion Greens/EFA zuständig bin. Das heißt, ich verhandle den ersten Aufschlag des sozialdemokratischen Kollegen Alex Agius Saliba mit. Er ist der federführende Berichterstatter für das Parlament und sein Entwurf (pdf) liegt nun vor. Wir werden ihn heute, am 4. Mai, erstmals im IMCO-Ausschuss diskutieren.
Sein Berichtsentwurf ist sehr ausgewogenen und solide. Ich freue mich, dass wichtige Punkte, die wir Schattenberichterstatter ihm mit auf den Weg gegeben haben, berücksichtigt wurden. Ich begrüße diese Vorschläge:
- die Grundprinzipien der E-CR beizubehalten
- keine allgemeine Überwachungspflicht beizubehalten, um die Schaffung innovativer Dienste zu fördern und die Grundrechte der Nutzer*innen, insbesondere die Meinungs- und Informationsfreiheit, zu schützen
- den Anwendungsbereich auf Drittländer auszudehnen, wenn sich Dienste an EU-Verbraucher*innen richten
- die Transparenzanforderungen wesentlich zu verstärken
- zusätzliche ex-ante-Regeln für Plattformen mit erheblicher Marktmacht zu erlassen
Ein Initiativbericht muss aber auch als Chance verstanden werden, der EU-Kommission innovative Vorschläge zu unterbreiten, an denen sie im nächsten Jahr bei der Gesetzgebung nicht vorbeikommt. Diese Chance hat der Entwurf verpasst. Er ist in wichtigen Punkten nicht inspiriert genug. Allen Beteiligten muss klar sein, dass die Plattformregulierung ein riesiges Projekt wird und die lang erhoffte Gelegenheit ist, das Internet an entscheidenden Stellen zu reparieren.
Im Entwurf fehlen mir diese drei zentralen Punkte:
Transparenz
In Deutschland waren die NetzDG-Anforderungen ein guter Anfang, aber die Erfahrung hat nun gezeigt, dass es Raum für Verbesserungen gibt. Erstens wäre die Einführung standardisierter Berichtsformate unglaublich hilfreich, damit Forscher*innen die Praktiken der Unternehmen analysieren und vergleichen können. Ein weiterer Punkt ist, dass Transparenzberichte detailliertere Daten bieten müssen – es ist wichtig, die Comliance-Rate und Take-downs nach Art des Inhalts im Allgemeinen zu erhalten, aber auch, wie hoch die Compliance-Rate für jede Art von Inhalt ist. Zum Beispiel: Ist das Löschen von Hassreden schneller als das Löschen von Diffamierungsfällen auf dem einen oder anderen soziale Netzwerk?
Wir brauchen außerdem Transparenzvorschriften für die Empfehlungssysteme der Online-Plattformen wie zum Beispiel YouTube‘s „Up next“ oder von Facebook vorgeschlagene Seiten. Studien haben gezeigt, dass für gewöhnliche Suchbegriffe auf YouTube den Menschen immer mehr extreme Artikel empfohlen werden, da Aufmerksamkeit auf den sozialen Netzwerken lukrativ ist. Ein Beispiel: Fragt man nach „Impfstoff-Fakten“, so sind es nur wenige Schritte, um zu Anti-Vaxxer-Verschwörungstheorien zu gelangen; sucht man nach „globaler Erwärmung“, so erhält man Klimaverweigerungshaltung und so weiter.
Nach welchen Regeln und Kriterien entscheiden Algorithmen und Mitarbeiter*innen der Digitalkonzerne, welche Inhalte wir zu sehen bekommen und welche sie verschwinden lassen?
Wir brauchen dringend jährliche Transparenzberichtspflichten für systemische Plattformen zur Offenlegung inhaltsspezifischer Ranking- und Recommender-Entscheidungen, wir müssen verbindliche Regeln für öffentliche Schnittstellen (APIs) vorstellen und drittens müssen Behörden unabhängige Audits der Algorithmen durchführen können.
„Meinungsfreiheit by Design“
Der Digital Services Act sollte das Prinzip „Meinungsfreiheit by Design“ festschreiben – so wie die DSGVO „Privacy by Design“ einführte. Das bedeutet unter anderem, dass die AGBs und Gemeinschaftsstandards der Unternehmen gewissen Mindeststandards in Europa entsprechen sollten – sie sollten transparent, fair, einfach zu verstehen und vorhersehbar sein.
Online-Dienste sollen also von vornherein so gestaltet sein, dass sie von Hate-Speech betroffene Menschen nicht aus ihren Netzwerken vertreibt, dass sie nicht fälschlich legale Inhalte löschen und so allen einen sicheren Raum bieten. Die Dynamik im Netz darf nicht der Hetze gegen Frauen, LGBTQI-Gruppen, Menschen mit Migrationshintergrund oder Juden und Musliminnen Vorschub leisten.
Sanktionen
Bei Verstößen der Internetdienste gegen diese Regeln müssten darüber hinaus abschreckende Strafen und Auflagen greifen. Die bisher im Datenschutzrecht angewendeten Geldstrafen haben sich angesichts der enormen Finanzkraft einiger Konzerne nicht bewährt.
Außerdem müssen diese Punkte im Bericht konkretisiert werden:
- Grundrechte: Dieser Teil wirkt bisher zahnlos, da muss Europa deutlich mehr Biss zeigen. Sonst tragen die Praktiken großer Digitalkonzerne weiter dazu bei, gefährdete Gruppen und Minderheiten zum Schweigen zu bringen – da die Konzerne häufig finanzielle Vorteile daraus ziehen, wenn sie für illegale und schockierende Inhalte mehr Aufmerksamkeit generieren. Wir können es nicht der „Selbst“-Regulierung der Unternehmen überlassen oder sie auf Knien bitten, Standards für das zu setzen, was ihrer Meinung nach „verantwortungsvolles“ Handeln bedeutet.
- Neben dem vorgeschlagenen Streitbeilegungsmechanismus, dem ich in dieser Form zustimme, sollte es auch Social Media Councils geben: Das können Gremien sein, die ethische Leitlinien erarbeiten und ein offenes, transparentes, rechenschaftspflichtiges und partizipatorisches Forum bieten, um generelle Fragen der Inhaltemoderation und -löschung von Online-Plattformen zu behandeln. Diese Räte sollten aus Menschen mit unterschiedlichen Hintergründen bestehen, um sicherzustellen, dass alle Interessen vertreten sind.
- Schließlich stimme ich der Idee, ein neues europäisches Gremium für diese Fragen zu schaffen, sehr zu, da die nationalen Behörden oft überfordert und überlastet sind. Ich schlage eine Ergänzung der Kompetenzen vor: Dieses Gremium könnte die Schaffung eines europäischen Forschungsrepositoriums unterstützen, das Daten aus mehreren Plattformen zusammenfasst – dieses Repositorium könnte Berufungsverfahren erleichtern und es könnte Regulierungsbehörden, Forschern oder anderen Beobachtern ermöglichen, Plattformentscheidungen zu überprüfen und zu analysieren.