14. Dezember 2021

Digital Services Act: Unsere grünen Erfolge

Am 14. Dezember 2021 wurde der Bericht über den „Digital Services Act“, das Gesetz über digitale Dienste (DSA), im Ausschuss für Binnenmarkt und Verbraucherschutz (IMCO) des EU-Parlaments angenommen. Der Verordnungsvorschlag ist in dieser Form ist ein Novum, da hiermit ein Goldstandard für die Regulierung von Online-Diensten weltweit gesetzt wird. Der folgende Überblick zeigt, an welchen Stellen sich die Grünen/EFA mit ihren Forderungen durchgesetzt haben und welche Bestimmungen wir ablehnen, die durch die Mitte-Rechts-Mehrheit in den Bericht des Parlaments aufgenommen wurden.

Hier ist das pdf dieser Analyse zum Download, die Ergebnisse der Abstimmung im Ausschuss sind hier als pdf zu finden. Für einen besseren Überblick haben wir intern eine konsolidierte Version des DSAs nach der Abstimmung im IMCO-Ausschuss (pdf) erstellt.

Grüne/EFA Erfolge

Grüne/EFA Teilerfolge

Grüne/EFA-Ablehnung

Allgemeine Bestimmungen (Artikel 1-2)

Inhalt: Diese Artikel beschreiben den Anwendungsbereich der Verordnung und die Definitionen. Der IMCO-Bericht behält den von der Kommission vorgeschlagenen Anwendungsbereich weitgehend bei.
Unser Ziel: Wir haben für die Unterscheidung zwischen vermeintlich illegalen Inhalten (die nicht sofort offensichtlich als illegal erkennbar sind) und offensichtlich illegalen Inhalten (wie z.B. kindesmissbräuchliches Material) plädiert, um eine differenziertere Behandlung verschiedener Arten von illegalen Inhalten zu ermöglichen.

Was wir erreicht haben:
+ Die entscheidende Definition von „illegalen Inhalten“ wurde verbessert.
+ Wir konnten erfolgreich verhindern, dass mehrere negative Änderungsanträge, wie z. B. ein zu weit gefasster Ausschluss von „Cloud Computing“, in den Text aufgenommen wurden.
Unsere Bemühungen um die Aufnahme einer Definition des Begriffs „offenkundig illegale Inhalte“ zur Verbesserung der Klarheit der Verordnung insgesamt waren nicht erfolgreich.

Haftungsregeln (Artikel 3-5)

Inhalt: Das Kernstück des DSA sind Haftungsregeln für große Online-Plattformen. Da das Gesetz an die 20 Jahre alte E-Commerce-Richtlinie anknüpft, enthält der DSA eine Reihe von Regeln, die festlegen, wann Plattformen wie YouTube, Facebook und Twitter, aber auch kleine Diskussionsforen und andere Dienste für die von ihren Nutzern hochgeladenen Inhalte haftbar gemacht werden können.
In den von der Kommission vorgeschlagenen Artikeln 3 bis 5 wird festgelegt, wann Dienste von der Haftung befreit werden können: Wenn sie über illegale Inhalte auf ihren Seiten in Kenntnis gesetzt werden und diese Inhalte zügig entfernen. Die Berichterstatterin des Europäischen Parlaments schlug die Einführung anderer Haftungsregeln für Online-Marktplätze vor (neuer Artikel 5a), die jedoch sehr vage waren und die Büchse der Pandora für weitere Änderungen hätten öffnen können.

Was wir erreicht haben:
+ Die ECD-Regeln für die Haftungsausnahmen werden beibehalten

Freiwillige Untersuchungen (Guter Samariter) (Artikel 6)

Inhalt: Die Kritik an der Macht der Online-Unternehmen über das, was die Menschen online lesen, sehen und kommunizieren können, nimmt zu – mit Hilfe eines Geschäftsmodells, das auf der massiven Sammlung persönlicher Daten beruht. Die Dienste einiger Tech-Giganten sind aus dem täglichen Leben der Menschen nicht mehr wegzudenken und werden gleichzeitig zu den Hauptverbreitern von Hass, Desinformation und anderen Arten von schädlichen und illegalen Inhalten. Die Regierungen haben zu lange darauf vertraut, dass die privaten Unternehmen selbst „mehr“ tun, um das Internet zu verbessern. Aber sie machen nicht nur Fehler hinter Fehler hinter Fehler – sie tragen selbst zu dem Problem bei, da extremistische und spaltende Inhalte höhere Gewinne für die Unternehmen bedeuten.

Der von der Kommission vorgeschlagene Artikel 6 des DSA besagt, dass Online-Dienste nicht für freiwillige Maßnahmen aus eigener Initiative haftbar gemacht werden sollten. Damit wird festgeschrieben, dass Plattformen freiwillige, privatisierte und nicht rechenschaftspflichtige Praktiken zur Moderation von Inhalten anwenden, ohne Rücksicht auf mögliche Gefahren kontraproduktiver Auswirkungen, Rechenschaftspflicht oder unabhängiger Prüfmechanismen. Die Grünen/EFA haben daher die Streichung beantragt.

Was wir erreicht haben:
Die Renew-Fraktion hat zusammen mit der EVP den Artikel beibehalten, der freiwillige Maßnahmen zulässt.
+ Wir haben jedoch erfolgreich auf die Aufnahme von Schutzmaßnahmen gedrängt – freiwillige Maßnahmen von Plattformen müssen nun mit Schutzmaßnahmen einhergehen, wie z.B. „individuelle Aufsicht, Dokumentation oder andere zusätzliche Maßnahmen, um sicherzustellen und nachzuweisen, dass diese Untersuchungen und Maßnahmen genau, nicht diskriminierend, verhältnismäßig und transparent sind und nicht zu einer übermäßigen Löschung von Inhalten führen“.
+ Online-Dienste und Plattformen müssen sicherstellen, dass ihre Technologie die Entfernung rechtmäßiger Inhalte so weit wie möglich einschränkt, wenn sie automatisierte Werkzeuge einsetzen.

Keine allgemeine Verpflichtung zur Überwachung (Artikel 7)

Inhalt: Online-Plattformen sollten nicht dazu verpflichtet werden, jeden einzelnen Social-Media-Beitrag, jedes Bild oder Video auf mögliche Verstöße in allen Mitgliedstaaten der EU zu überprüfen und zu überwachen. Artikel 7 in der von der Kommission vorgeschlagenen Fassung besagt, dass jegliche Verpflichtung zur allgemeinen Überwachung aller Nutzerinhalte verboten ist.

Was wir erreicht haben:
+ Die Dienste werden nicht verpflichtet, automatisierte Werkzeuge zur Moderation von Inhalten oder zur Überwachung des Verhaltens von Menschen zu verwenden.
+ Der DSA stellt explizit sicher, dass Anbieter weiterhin Ende-zu-Ende-verschlüsselte Dienste anbieten können.
+ EU-Länder können Anbieter nicht dazu verpflichten, eine „Klarnamen-Pflicht“ einzuführen und die anonyme Nutzung von Diensten zu verbieten.
+ EU-Länder können Anbieter nicht dazu verpflichten, Daten pauschal und anlasslos auf Vorrat zu speichern. Dies ist ein wichtiger Sieg, da er die Entscheidungen des EuGH in den vergangenen acht Jahren bestätigt: dass eine anlasslose Vorratsdatenspeicherung rechtswidrig ist und gegen die Rechte in der EU-Charta verstößt.

Anordnungen zur Löschung und Auskunftsanordnungen (Artikel 8 + 9)

Inhalt: Die von der Kommission vorgeschlagenen Artikel 8 und 9 verpflichten die Anbieter von Online-Diensten, bei Anordnungen nationaler Justiz- oder Verwaltungsbehörden, gegen illegale Inhalte vorzugehen (Artikel 8) und Informationen über ihre Nutzer*innen zu liefern (Artikel 9). In Bezug auf die territoriale Anwendung heißt es im Kommissionsvorschlag, dass die Anordnung „allgemeinen Grundsätzen des internationalen Rechts entsprechen und nicht über das hinausgehen muss, was zur Erreichung ihres Ziels unbedingt erforderlich ist“.

Was wir erreicht haben:
+ Um die Rechte der Opfer zu schützen, können die Betroffenen nun bei der Behörde ihres Heimatlandes eine einstweilige Verfügung beantragen.
+ Die Kriterien und Elemente, die in behördlichen Anordnungen enthalten sein müssen, wurden präzisiert. Wir haben auch erfolgreich berücksichtigt, dass die betroffene Person über die Anordnung informiert wird und Informationen darüber erhält, wie und bis wann sie Widerspruch einlegen kann.
+ Die Leistungserbringer können sich auch weigern, eine Anordnung auszuführen, wenn sie offensichtlich Fehler enthält.
Die Beschränkung auf das Gebiet eines Mitgliedstaates wird insofern erweitert, als dass jede Verwaltungsbehörde in einem anderen Land die Entfernung von Inhalten in Ihrem Land verlangen kann, wenn „die auf dem Spiel stehenden Rechte einen größeren territorialen Geltungsbereich erfordern“ (8) – was bedeutet, dass Inhalte, die in einem Land legal sind, von einem anderen europäischen Land zur Löschung aufgefordert werden könnten.
Wir hatten keinen Erfolg mit der von uns geforderten klaren Unterscheidung, dass nur Justizbehörden Inhalte sperren lassen können, oder auf Nutzerinhalte und personenbezogene Daten zugreifen können, während Verwaltungsbehörden nur dann Anordnungen erlassen können, wenn es um illegale Waren oder Dienstleistungen geht
Jede Verwaltungsbehörde in einem anderen Mitgliedstaat kann nun die von euch genutzten Online-Dienste auffordern, auf eure personenbezogenen Daten zuzugreifen, z. B. auf Namen, Kontaktdaten und Adresse, sofern vorhanden (9).

Wirksame Rechtsbehelfe (Artikel 9a (neu))

Inhalt: Dieser Artikel war ursprünglich nicht im Kommissionsvorschlag enthalten, wurde aber hinzugefügt, um den Individuen zusätzliche Sicherheiten zu bieten, wenn Regierungen die Entfernung von Inhalten oder den Zugriff auf ihre persönlichen Daten anordnen.

Was wir erreicht haben:
+ Dieser Artikel basiert vollständig auf einem Änderungsantrag der Grünen/EFA (AM 889).
+ Individuen können ihr Recht auf einen wirksamen Rechtsbehelf vor einer Justizbehörde geltend machen.
+ Individuen können die Rechtmäßigkeit einer Maßnahme anfechten, einschließlich ihrer Notwendigkeit und Verhältnismäßigkeit.
+ Die Koordinatoren für digitale Dienste müssen Hilfsmittel und Anleitungen für die Menschen entwickeln, um die Information und den Zugang zu Beschwerde- und Rechtsbehelfsmechanismen so einfach wie möglich zu gestalten.

Kontaktstellen und Rechtsvertreter (Artikel 10-11)

Inhalt: Diese Artikel wurden vom EU-Parlament weitgehend beibehalten. Um die bekannten Probleme der Nutzer*innen bei der Kommunikation mit Online-Diensten zu lösen, wurde ein neuer Artikel für Kontaktstellen für Nutzer hinzugefügt.

Was wir erreicht haben:
+ Ein zusätzlicher Artikel wurde hinzugefügt, um es den Nutzer*innen zu ermöglichen, direkt und effizient mit Online-Diensten und -Plattformen in Kontakt zu treten, und damit sie verlangen können, dass die Interaktion einen menschlichen Gesprächspartner einbezieht und nicht ausschließlich auf automatisierten Werkzeugen (wie Chat-Bots) basiert (Grüne/EFA AM 900).

Allgemeine Geschäftsbedingungen (Artikel 12)

Inhalt: Große Technologieunternehmen setzen ihre Geschäftsbedingungen nicht für alle gleichermaßen durch – vielmehr gibt es, wie die geleakten Facebook-Dokumente zeigen, Beweise dafür, dass bestimmte Plattformen VIPs und prominente Nutzer*innen besonders behandeln (ein sehr prominentes Beispiel ist der sehr späte Ausschluss von Donald Trump aus verschiedenen sozialen Netzwerken). Zudem gab es in letzter Zeit viele Berichte über die schlechten Arbeitsbedingungen und den Mangel an psychologischer Unterstützung für die Mitarbeiter*innen der Plattformen, die das von den Nutzern hochgeladene Material überprüfen.

Was wir erreicht haben:
+ Die Allgemeinen Geschäftsbedingungen müssen für alle Nutzer*innen in gleicher Weise durchgesetzt werden – auf kohärente, nicht-diskriminierende und nicht-willkürliche Weise.
Leider gibt es keine Verpflichtung, dass das Personal für die Moderation von Inhalten geschult werden muss und psychologische und rechtliche Unterstützung erhalten muss.

Transparenzberichte (Artikel 13, 23, 33)

Inhalt: Einige Online-Plattformen berichten bereits jährlich über ihre Aktivitäten in Bezug auf die Moderation von Inhalten. Diese Berichte sind jedoch nicht harmonisiert, so dass es für Wissenschaftler*innen schwierig ist, die Praktiken zu analysieren und zu vergleichen.

Was wir erreicht haben:
+ Strengere Verpflichtungen zur Transparenzberichterstattung über die Moderation von Inhalten, einschließlich der Verpflichtung, dass die Berichte standardisiert und maschinenlesbar sein müssen, was eine effizientere Datenanalyse ermöglichen wird.
+ Wir haben Formulierungen verhindert, die Transparenzberichte bedeutungslos machen würden (durch Versuche von RE und EVP, „Geschäftsgeheimnisse“ hinzuzufügen und alle Verstöße gegen Geschäftsbedingungen von den Transparenzpflichten auszuschließen).

Gestaltung von Benutzeroberflächen (dark patterns) (Artikel 13a)

Inhalt: Die Verwendung von „dunkle Muster “ ist leider eine weit verbreitete Praxis im Internet, auf Websites und in Apps. Diese Praktiken haben sich herausgebildet, da die Sammlung, Nutzung und Analyse der persönlichen Daten aller Nutzer*innen das Haupteinkommen vieler digitalen Dienste ist. Daher werden Standardeinstellungen, Techniken und Funktionen der Benutzeroberfläche oft dazu verwendet, Nutzer*innen zu manipulieren und sie dazu zu bringen, Dinge zu tun, die sie nicht beabsichtigt haben, wie z. B. zusätzliche Dinge zu kaufen, die sich in den Warenkorb geschlichen haben, einen Dienst nicht zu kündigen oder ihre persönlichen Daten preiszugeben. Online-Dienste und Apps tun dies meist, indem sie in die Privatsphäre eingreifende Standardeinstellungen verwenden, irreführende Formulierungen verwenden oder datenschutzfreundliche Auswahlmöglichkeiten tief in der Benutzeroberfläche eines Dienstes verstecken.

Was wir erreicht haben:
+ Ein bedeutender Erfolg der Grünen ist die Aufnahme dieses neuen, eigenständigen Artikels (basierend auf dem IMCO AM 1014 der Grünen) über die Gestaltung von Online-Schnittstellen, um so genannte „dunkle Muster“ zu verhindern, die Nutzer manipulieren und beeinflussen. Dies bedeutet insbesondere, dass es Online-Diensten nicht erlaubt ist:

– eine der Zustimmungsoptionen visuell stärker hervorzuheben
– einen Nutzer immer wieder um seine Zustimmung zu bitten
– einen Nutzer zu drängen, eine Einstellung oder Konfiguration zu ändern
– die Beendigung eines Dienstes zu erschweren
– nach der Zustimmung zu fragen, obwohl der Nutzer durch automatische Mittel (wie ein „Do Not Track“-Signal im Browser) widersprochen hat.

+ Wir haben erfolgreich darauf bestanden, dass die Kommission befugt sein sollte, die Liste der verbotenen Praktiken zu aktualisieren, um sicherzustellen, dass dieser Artikel zukunftssicher ist.

Ein Satz, der in letzter Minute von der EVP in den entsprechenden Erwägungsgrund eingefügt wurde (und somit keine direkten rechtlichen Auswirkungen hat), könnte die Auslegung dieses Artikels über dunkle Muster durch die Gerichte in Zukunft abschwächen. Er fügt hinzu, dass dieser Artikel „nicht so verstanden werden sollte, dass er Anbieter daran hindert, direkt mit Nutzern zu interagieren und ihnen neue oder zusätzliche Dienste anzubieten. Insbesondere sollte es möglich sein, sich innerhalb einer angemessenen Frist erneut an einen Nutzer zu wenden, selbst wenn dieser seine Zustimmung verweigert hat.

Notice & Action Meldeverfahren (Artikel 14)

Inhalt: Es gibt kein harmonisiertes System, das es Nutzer*innen ermöglicht, illegale Inhalte zu melden, wenn sie solche Inhalte in den Netzen der Anbieter finden. Folglich sind die Mechanismen in der EU sehr zersplittert – und oft enthalten sie keine Informationen für den Nutzer*innen oder den Uploader, wenn ein Inhalt gemeldet wurde.

Was wir erreicht haben:
+ Die Regeln für die Benachrichtigung und das Tätigwerden wurden im Vergleich zum Kommissionsvorschlag erheblich verschärft, indem die Elemente, die eine Benachrichtigung enthalten muss, um gültig zu sein, präzisiert wurden.
+ Eine Benachrichtigung setzt nicht mehr automatisch voraus, dass der Anbieter von den Inhalten tatsächlich Kenntnis hat. Dies ist von entscheidender Bedeutung, um eine übermäßige Löschung rechtmäßiger Inhalte zu vermeiden (Artikel 14 Absatz 3).
+ In Zweifelsfällen und solange die Prüfung noch nicht abgeschlossen ist, sollten die Inhalte online bleiben (Greens IMCO AM 1086).
+ Die Dienste müssen Meldungen „rechtzeitig, sorgfältig, nicht-diskriminierend und nicht willkürlich“ bearbeiten.
Leider ist die anonyme Meldung verboten, was eine abschreckende Wirkung auf die Opfer von Hassreden und generell für die Meldung schwerwiegenderer Straftaten haben kann. (In dem Erwägungsgrund heißt es jedoch, dass anonyme Anzeigen „immer möglich sein sollten“.)
Unser Vorschlag, Einzelpersonen die Möglichkeit zu geben, ihre Inhalte zu verteidigen, bevor sie entfernt werden, und zwar durch ein „Gegenmelde“-Verfahren, wurde nicht aufgenommen.

Begründung für Uploader (Artikel 15)

Inhalt: Sehr oft informieren die Plattformen die Nutzer*innen oder Uploader*innen nicht oder nur unzureichend, wenn ihre Inhalte entfernt, gesperrt oder anderweitig in ihrer Sichtbarkeit eingeschränkt wurden.

Was wir erreicht haben:
+ Nutzer*innen müssen nun informiert werden, wenn Maßnahmen zur Herabstufung von Inhalten (wie z. B. die „Shadow-Banning“-Praktiken von Facebook oder Instagram) oder „andere Maßnahmen“ gegen Inhalte ergriffen werden – um sicherzustellen, dass der DSA zukunftssicher bleibt und alle möglichen Maßnahmen der Anbieter bei der Moderation von Inhalten erfasst.
+ Die Erklärung des Dienstes gegenüber dem Nutzer muss auch dann abgegeben werden, wenn eine Maßnahme auf freiwilliger Basis oder auf Anordnung einer staatlichen Behörde erfolgt.
+ Es wird eine maschinenlesbare Datenbank eingerichtet, die die von den Diensten ergriffenen Maßnahmen und die Erklärungen für die Nutzer enthält.

Meldung des Verdachts auf Straftaten (Artikel 15a, vorher 21)

Inhalt: In den vergangenen Jahren haben wir kritisiert, dass das Vorgehen gegen illegale Online-Inhalte dazu tendierte, sich auf die Entfernung von Inhalten zu beschränken, während die zugrunde liegende kriminelle Aktivität nicht verfolgt wurde. Dies hat zu einem Umfeld geführt, in dem sich Täter wohlfühlen, solche Inhalte immer wieder hochzuladen, während die Opfer ohne Hilfe oder Hoffnung auf Abhilfe dastehen.

Was wir erreicht haben:
+ Ein Anbieter ist nun verpflichtet, die Strafverfolgungsbehörden oder eine Justizbehörde zu benachrichtigen, wenn er den Verdacht hat, dass „eine schwere Straftat, die eine unmittelbare Gefahr für das Leben oder die Sicherheit von Personen darstellt, stattgefunden hat, stattfindet oder geplant ist.
+ Für Daten, die im Zusammenhang mit der Meldung des Verdachts auf eine Straftat verarbeitet werden, wurde eine zusätzliche Datenschutzgarantie hinzugefügt, die besagt, dass die Daten von den Strafverfolgungsbehörden nicht für andere Zwecke als die Verfolgung der betreffenden Straftat verwendet werden dürfen.

Ausnahme für Klein- und Kleinstunternehmen (Artikel 16)

Inhalt: Die Kommission schlug in Artikel 16 eine Ausnahme für Kleinst- und Kleinunternehmen vor, und zwar für jeden Artikel in diesem Abschnitt 3 (also einen Ausschluss von der Verpflichtung, ein System zur Bearbeitung von Beschwerden einzuführen, sich an außergerichtlichen Streitbeilegungsverfahren zu beteiligen, vertrauenswürdige Kennzeichner einzurichten, Maßnahmen gegen Missbrauch zu ergreifen, ihre Händler zu verfolgen und zusätzliche Transparenzberichte zu erstellen).

Was wir wollten: Wir haben einen Änderungsantrag eingebracht, um nur Kleinstunternehmen und gemeinnützige Dienste mit weniger als 100.000 Nutzer*innen auszuschließen. Wir schlugen jedoch vor, sie vom gesamten Kapitel III auszuschließen, um unverhältnismäßige Belastungen für Foren zu vermeiden, die beispielsweise von nur einer Person betrieben werden, die durch die Verpflichtung zur Einrichtung eines N&A-Mechanismus und einer jährlichen Berichterstattung entstehen würden.

Was wir erreicht haben:
Renew Europe, unterstützt von der EVP, führte ein enorm bürokratisches „Waiver“-System ein, das es mittelgroßen oder gemeinnützigen Organisationen erlaubt, zunächst bei den nationalen Regulierungsbehörden und anschließend bei der Kommission zu beantragen, von den Verpflichtungen dieses Abschnitts der Verordnung ausgenommen zu werden – trotz des Widerstands der Grünen. Dies wird dazu führen, dass im Großen und Ganzen ähnliche mittelständische Unternehmen unterschiedliche Verpflichtungen haben, dass es den Verbrauchern an Vorhersehbarkeit mangelt und dass die Entscheidungen über die Regulierung davon abhängen, wer die besten Lobbyisten hat. Das ist im Grunde das Ende des digitalen Binnenmarktes. Die Verbraucher werden zu den großen Plattformen gedrängt, für die es bereits Regeln gibt, und Unternehmen, die den Verwaltungsaufwand, der durch die Ausnahmeregelung entsteht, nicht bewältigen können, werden einen Wettbewerbsnachteil gegenüber denjenigen erleiden, die das können.
Es gibt keine Ausnahmeregelung für kleine gemeinnützige Anbieter, auch nicht für nicht-kommerzielle Archive und wissenschaftliche Repositorien, auf die wir immer wieder gedrängt haben.

Beschwerdesystem für Nutzer*innen (Artikel 17)

Inhalt: Wenn Online-Dienste Inhalte vom Netz nehmen, sperren oder herabstufen, weil sie illegal sind oder gegen ihre Geschäftsbedingungen verstoßen, gibt es in der Regel keine offensichtliche oder einfache Möglichkeit für die Uploader, sich zu beschweren und ihre Inhalte zu verteidigen. Die DSA verpflichtet die Plattformen, einen Mechanismus zur Bearbeitung von Beschwerden einzurichten, und schafft damit ein Gleichgewicht zwischen den verschiedenen Akteuren im Online-Umfeld.

Was wir erreicht haben:
+ Nutzer können sich nicht nur über die Entfernung von Inhalten beschweren, sondern auch, wenn Inhalte „herabgestuft“ wurden oder wenn „andere Maßnahmen die Sichtbarkeit, Verfügbarkeit oder Zugänglichkeit“ ihrer Inhalte einschränken (um „Schattenverbote“ einzubeziehen und sicherzustellen, dass die DSA zukunftssicher ist)
+ Spezifische Fristen für die einzelnen Phasen des Beschwerdesystems (Beschwerden müssen innerhalb von 10 Tagen bearbeitet werden).
+ Das Recht, sich mit einem menschlichen Gesprächspartner in Verbindung zu setzen, um sich zu beschweren.
+ Das Recht auf einen gerichtlichen Rechtsbehelf.

Außergerichtliche Streitbeilegung (Artikel 18)

Inhalt: In Fällen, in denen die Nutzer*innen das Gefühl haben, dass eine Plattform eine Beschwerde nicht korrekt behandelt, haben sie nun das Recht, sich an eine externe, unabhängige außergerichtliche Streitbeilegungsstelle zu wenden. Online-Plattformen sind verpflichtet, sich mit diesen Stellen in Verbindung zu setzen, um Streitigkeiten mit Nutzer*innen ihrer Dienste beizulegen.

Was wir erreicht haben:
+ Wir haben die Regeln für Streitschlichtungsstellen im Hinblick auf ihre Zugänglichkeit und finanzielle Unabhängigkeit verbessert.
+ Wir konnten durchsetzen, dass die Mitarbeiter solcher Stellen zwei Jahre vor Antritt ihrer Stelle nicht für Online-Plattformen gearbeitet haben dürfen und sich verpflichten, drei Jahre nach Beendigung ihrer Tätigkeit bei der Stelle nicht mehr für eine Online-Plattform zu arbeiten.
+ Unsere Vorschläge für eine verbesserte Aufsicht über und Transparenzberichterstattung von Streitbeilegungsstellen wurden hinzugefügt.

Vertrauenswürdige Hinweisgeber (Artikel 19)

Inhalt: „Trusted Flaggers“ sind Organisationen, die über besonderes Fachwissen in einem Bereich illegaler Inhalte oder Aktivitäten verfügen, wie z.B. Hassreden oder Kindesmissbrauch, und die daher illegale Inhalte direkt über spezielle Kanäle an die Online-Plattformen melden können. Ihre Meldungen müssen mit Vorrang behandelt werden.

Was wir erreicht haben:
+ Zu den wichtigsten Verbesserungen gehören die zusätzliche Verpflichtung zur transparenten Berichterstattung für vertrauenswürdige Kennzeichner, eine bessere Aufsicht und strengere Vorschriften zur Unabhängigkeit.
+ Ein wichtiger Erfolg der Grünen war die Einführung des so genannten „Deflagging“, d. h., dass Organisationen auch fälschlicherweise entfernte oder herabgestufte Inhalte melden können und dass solche Meldungen vorrangig behandelt werden, was insbesondere für Medienorganisationen und NGOs von Nutzen sein dürfte.
Wir bedauern jedoch, dass die S&D und die EVP sich dagegen ausgesprochen haben, die Unabhängigkeit der Trusted Flagger von den Strafverfolgungsbehörden sicherzustellen. Wir vertraten den Standpunkt, dass die Strafverfolgungsbehörden keine derartigen direkten privilegierten Kanäle erhalten sollten, da die DSA nicht dazu führen sollte, dass der aktuelle Rechtsrahmen für die Erteilung von Anordnungen umgangen wird.

Barrierefreiheit (Artikel 19a)

+ Ein neuer Artikel für die Barrierefreiheit von Online-Plattformen wurde eingeführt und vom Europäischen Behindertenforum weitgehend begrüßt.

Maßnahmen und Schutz vor Missbrauch (Artikel 20)

Inhalt: Wenn Nutzer*innen häufig illegale Inhalte hochladen oder wenn Plattformen mehr als zwei Anordnungen erhalten, dürfen die Plattformen die Konten dieser Nutzer*innen nach einer vorherigen Warnung sperren.

Was wir erreicht haben:
+ Da das „De-Platforming“ von Nutzer*innen eine drastische Maßnahme ist und das letzte Mittel sein sollte, werden die Plattformen nun nicht mehr verpflichtet, sie sind lediglich berechtigt, über solche Kontosperrungen zu entscheiden.
Unser Vorschlag klarzustellen, dass den Nutzer*innen eine angemessene Zeit eingeräumt werden sollte, um sich zu verteidigen, bevor Maßnahmen ergriffen werden, wurde nicht aufgegriffen.

Nachverfolgbarkeit von Händlern (Artikel 22)

Inhalt: Verbraucherverbände decken immer wieder unsichere und illegale Aktivitäten im Internet auf, vor allem wenn es um den Verkauf gefährlicher Produkte auf Online-Marktplätzen geht. Artikel 22 des DSA führt eine Verpflichtung für Marktplätze ein, die Händler zu identifizieren, während die Anonymität der privaten Nutzer gewahrt bleibt.

Was wir erreicht haben:
+ Online-Plattformen sind nicht verpflichtet, alle relevanten Händlerdaten zu überprüfen, müssen aber einschlägige Datenbanken abfragen und sich generell „nach besten Kräften“ bemühen, die Rückverfolgbarkeit der Händler sicherzustellen.
Es ist uns nicht gelungen, eine Erwähnung von Kurzzeitvermietungen (AirBnB etc) in dem Artikel und in den Erwägungsgründen zu erreichen.

Transparenz der Online-Werbung (Artikel 24)

Inhalt: Online-Plattformen sammeln und verknüpfen riesige Mengen an persönlichen Daten, insbesondere über ihr Verhalten und ihre Interessen, um detaillierte Profile zu erstellen und die Nutzer*innen gezielt mit Werbung anzusprechen. Diese Überwachungswerbung spioniert alles aus, was die Nutzer*innen tun, ohne dass sie es bemerken. Das Bewusstsein für die dramatischen negativen Auswirkungen auf die Grundrechte, unsere Demokratie und KMU wächst. Der Artikel 24 schafft daher mehr Transparenz für Online-Werbung. Die Grünen/EFA setzten sich weiter für ein klares Verbot von Überwachungswerbung ein, das über Transparenz hinausgeht.

Was wir erreicht haben:
Leider wurde während der Verhandlungen deutlich, dass es nicht nur keine Mehrheit für ein Verbot von Überwachungswerbung gab, sondern dass die Mitte-Rechts-Mehrheit hartnäckig darauf drängte, die aktuellen Datenschutz- und Privatsphäre-Standards der Datenschutz-Grundverordnung und der Datenschutzrichtlinie für elektronische Kommunikation zu senken. Das war das beste Ergebnis, das unter den gegebenen Umständen möglich war.

Aber:
+ Zu den sehr positiven Ergänzungen gehört mehr Transparenz bei der Finanzierung von Werbung.
+ Wir haben die Transparenzvorschriften erfolgreich erweitert, um Plattformen zu verpflichten, die Nutzer*innen über alle Parameter zu informieren, die für die gezielte Ansprache mit Werbung verwendet werden (und nicht nur über einige wenige bedeutungslose „Haupt“-Parameter) und darüber, wie diese Parameter geändert werden können.
+ Wir haben klarere Regeln für die Einwilligung in Werbung durchgesetzt, z.B. dass die Verweigerung der Einwilligung nicht schwieriger oder zeitaufwändiger sein darf als die Erteilung der Einwilligung.
+ Die gezielte Ansprache von Minderjährigen ist verboten, und es dürfen keine zusätzlichen Daten erhoben werden, um Minderjährige allein zum Zweck der Einhaltung dieser Verpflichtung zu identifizieren.

Transparenz von Empfehlungssystemen (Artikel 24a/29)

Inhalt: Ein Großteil des Schadens, den Online-Inhalte wie Hassreden, Verleumdungen und Desinformationen anrichten, ist auf ihre virale Verbreitung und Verstärkung auf und durch große Social-Media-Plattformen zurückzuführen, deren Geschäftsmodelle auf der Maximierung der Aufmerksamkeit beruhen, während es ihnen an Transparenz und Verantwortlichkeit mangelt. Heute nutzen die meisten großen sozialen Netzwerke automatisierte Systeme, um Inhalte oder Produkte zu empfehlen (z. B. „Next Up“ bei YouTube oder „Gruppen, denen Sie beitreten sollten“ bei Facebook) und um Beiträge zu bewerten, zu kuratieren und zu moderieren. Artikel 24a befasst sich mit der Verwendung solcher Empfehlungssysteme und schafft mehr Transparenz in Bezug darauf, wie sie zur Ansprache von Nutzer*innen eingesetzt werden.

Was wir erreicht haben:
+ Die Kommission schlug Transparenz nur für jene Empfehlungssysteme vor, die von den sehr großen Plattformen genutzt werden – wir schlugen erfolgreich eine Änderung des Geltungsbereichs vor, um diese Verpflichtungen auf die Empfehlungssysteme aller Plattformen anzuwenden, nicht nur auf die der größten.
+ Die Plattformen müssen transparent erklären, wie sie Inhalte empfehlen.
+ Wir forderten erfolgreich zusätzliche Details, um mehr Transparenz in Bezug auf die Kriterien zu schaffen, die Empfehlungssysteme verwenden, um Nutzer anzusprechen oder auszuschließen.
+ Artikel 24a ermöglicht es den Nutzern auch, die Empfehlungssysteme so zu ändern, dass die Informationen in einer anderen Reihenfolge angezeigt werden.
+ Artikel 29 verpflichtet sehr große Online-Plattformen, mindestens eine Option anzubieten, die nicht auf der Erstellung von Profilen beruht.
Die Transparenzanforderungen werden durch Qualifizierungen wie „wichtigste“ Parameter, die „am bedeutendsten“ sind, und ohne „Beeinträchtigung von Geschäftsgeheimnissen und Rechten des geistigen Eigentums“ abgeschwächt, die den Artikel im Wesentlichen sinnentleert machen. Wir haben uns vehement gegen den Zusatz „Geschäftsgeheimnisse“ gewehrt und bedauern, dass die Mitte-Rechts-Mehrheit diese Erwähnung aufgenommen hat, insbesondere in Anbetracht der Aussage von Frances Haugen im EU Parlament.

Unsere Vorschläge für die Interoperabilität von Empfehlungssystemen wurden von RE und EVP abgelehnt. Damit wäre sichergestellt worden, dass die Nutzer*innen Systeme von Drittanbietern für die Organisation von Inhalten in ihren Timelines wählen können.

Zusätzliche Verpflichtungen für Plattformen, die  nutzergenerierte pornografische Inhalte verbreiten (Artikel 24b (neu))

Das Problem: Polizeibehörden, Frauenrechtlerinnen und Digitalexpert*innen beobachten seit Jahren eine besorgniserregende Entwicklung: Immer mehr Frauen und Angehörige der LGBTQ+ Community werden sexuell belästigt, bedroht und erniedrigt. Der Europarat schätzt, dass 9 bis 10 Millionen Frauen in Europa davon betroffen sind. Neuere Studien der World Wide Web Foundation, des Weltverbandes der Pfadfinder*innen und von Plan International zeigen, dass über 50 % aller Mädchen und jungen Frauen (15 – 25 Jahre) bereits sexuelle Gewalt im Internet erlebt haben. Eine weit verbreitete Form der sexualisierten Gewalt im Internet ist die bildbasierte sexualisierte Gewalt, bei der intime Bilder und Videos ohne die Zustimmung der abgebildeten Person im Internet geteilt werden – in der Regel fast ungehindert über soziale Medien und Pornoseiten.

Was wir erreicht haben:

+ Dieser neue Artikel führt zusätzliche Verpflichtungen für Pornoplattformen ein und basiert vollständig auf einem Änderungsantrag der Grünen/EFA (AM 1521)

+ Pornoplattformen sind nun verpflichtet, technische und organisatorische Maßnahmen zu ergreifen, um

– Nutzer*innen, die Inhalte verbreiten, müssen sich durch eine Double-Opt-In E-Mail- und Handy-Registrierung verifizieren

– eine professionelle menschliche Inhaltsmoderation, die darin geschult ist, bildbasierten sexuellen Missbrauch zu erkennen

– Inhalte unverzüglich zu sperren, wenn sie eine Benachrichtigung über ein zusätzliches Meldeverfahren zu dem in Artikel 14 beschriebenen Mechanismus erhalten, das es Einzelpersonen ermöglicht, der Plattform mitzuteilen, dass der Inhalt sie abbildet und ohne ihre Zustimmung verbreitet wird.

Definition von “sehr großen Plattformen”, VLOPs (Artikel 25)

Inhalt: Der DSA führt verschiedene Ebenen von Verpflichtungen ein, um unverhältnismäßige Belastungen für kleine Dienste zu vermeiden. Er enthält einen Abschnitt für „sehr große Online-Plattformen“ (VLOPs), die zusätzliche Regeln einhalten müssen, da sie besondere Auswirkungen auf die Wirtschaft und die Gesellschaft haben und besondere Risiken bei der Verbreitung illegaler Inhalte und gesellschaftlicher Schäden darstellen. Artikel 25 definiert, dass eine VLOP eine Plattform mit mindestens 45 Millionen aktiven Nutzern pro Monat in Europa ist. Renew Europe und EVP haben eine sehr „Big Tech“-freundliche Methodologie zur Definition der „monatlich aktiven Nutzer“ eingeführt.

Was wir erreicht haben:
Die Änderung engt das Spektrum der Dienste ein, die potenziell als „VLOP“ definiert werden können und birgt die Gefahr, dass Plattformen von Verpflichtungen ausgeschlossen werden, denen sie nach der Logik der Verordnung unterliegen sollten.
Nutzer*innen, die mit mehreren Geräten verbunden sind, sollten nur einmal gezählt werden, was bedeutet, dass viel mehr Daten gesammelt werden müssen, um diese Personen zu identifizieren.
Die Bestimmung könnte auch bedeuten, dass nur eingeloggte Nutzer gezählt werden sollten, was die 45-Millionen-Schwelle für Plattformen, bei denen sich die Nutzer*innen in der Regel nicht einloggen, erheblich verändern würde.
Der Ausschluss von automatisierten Bots könnte auch dazu führen, dass betrügerische Praktiken in der Online-Werbung weiter gefördert werden.
Diese Methodik ist aus Gründen des Datenschutzes höchst problematisch.

Risikobewertung und -minderung (Artikel 26 und 27)

Inhalt: Mit dem DSA hat die EU-Kommission die negativen Auswirkungen und Risiken erkannt, die sehr große Online-Plattformen nicht nur für unsere Rechte und Freiheiten, sondern auch im weiteren Sinne für unsere Gesellschaft und Demokratie darstellen. Ein Großteil des Schadens, den Online-Inhalte wie Hassreden, Verleumdungen und Desinformationen anrichten, hängt mit ihrer viralen Verbreitung und Verstärkung auf großen Social-Media-Plattformen zusammen, deren Geschäftsmodelle auf der Maximierung der Aufmerksamkeit beruhen, während es ihnen an Transparenz und Rechenschaftspflicht mangelt. Die durchgesickerten Dokumente der Whistleblowerin Frances Haugen haben uns den Beweis geliefert, dass Facebook genau weiß, welchen Schaden es anrichtet, aber den Profit über die Menschen stellt.

Die Artikel 26 und 27 verpflichten die Plattformen, die von ihren Diensten ausgehenden Risiken zu bewerten und für mehr Transparenz und Kontrolle zu sorgen. Aus den Risikobewertungen ergeben sich Verpflichtungen zu Risikominderungsmaßnahmen, die transparent sein und eine angemessene Konsultation beinhalten müssen. Diese werden von der Kommission bewertet, die Empfehlungen aussprechen kann. Darüber hinaus werden der Ausschuss für digitale Dienste und die Kommission über die von den VLOPs ergriffenen Risikobewertungsmaßnahmen berichten.

Was wir erreicht haben:
+ Die obligatorischen Risikobewertungen für große Plattformen werden erheblich verschärft, um auch algorithmische Systeme einzubeziehen und die Risiken vor der Einführung eines neuen Dienstes zu bewerten.
+ Sie müssen nun auch bewerten, welche Risiken nicht nur durch böswillige Nutzung entstehen könnten, sondern auch durch die Art und Weise, wie der Dienst konzipiert wurde und wie er genutzt werden soll“.
+ Sie müssen nun „tatsächliche oder vorhersehbare negative“ Auswirkungen auf eine Reihe zusätzlicher Schäden abdecken, u. a. für den zivilen Diskurs, die demokratischen Werte und die Medienfreiheit.
+ Die Risikobewertungen müssen die „Verstärkung von Inhalten“ bewerten.
+ Sie müssen auch den Einfluss unter anderem der zugrunde liegenden Datenerhebung, -verarbeitung und -profilierung berücksichtigen.
+ Die Belege für die Risikobewertungen müssen an die Regulierungsbehörden (den Koordinator für digitale Dienste) übermittelt werden.
Leider wurden die Änderungsanträge der Grünen, auch Umweltrisiken in die Risikobewertung und -minderung einzubeziehen, abgelehnt.

Unabhängige, externe Prüfung (Artikel 28)

Inhalt: Derzeit gibt es keine harmonisierten Regeln, die es uns ermöglichen, große Technologieplattformen zur Rechenschaft zu ziehen und ihnen „unter die Haube zu schauen“. Artikel 28 besagt, dass VLOPs für unabhängige Prüfungen über die Einhaltung ihrer Verpflichtungen gemäß Kapitel 3 der Verordnung (Art. 10 – 37) zahlen müssen, die eine Reihe von Bestimmungen wie das Melde- und Aktionssystem und Abhilfemechanismen, Verpflichtungen zur Transparenzberichterstattung oder risikomindernde Maßnahmen einschließlich der Verwendung von Verhaltenskodizes umfassen.

Was wir erreicht haben:
+ Wir haben die Unabhängigkeit von Audits gestärkt, insbesondere durch das Verbot von „Drehtüren“ zwischen Auditoren und VLOPs.
+ Die Prüfer müssen Zugang zu allen relevanten Plattformdaten erhalten.
+ Im entsprechenden Erwägungsgrund (60) gibt es nun eine klare Liste von Elementen, die geprüft werden müssen.

Online-Repositorien für Werbung (Artikel 30)

Inhalt: Das zugrundeliegende Geschäftsmodell vieler Online-Plattformen ist die gezielte Werbung für bestimmte Personen oder Personengruppen – ohne viel Transparenz und Rechenschaft darüber, wie Microtargeting funktioniert. Berichte der letzten Jahre haben gezeigt, dass Werbung diskriminierend sein kann, insbesondere in den Bereichen Wohnen, Beschäftigung und Kredite. Darüber hinaus wurden Werbeinstrumente zunehmend dazu verwendet, gezielte Desinformationen an gefährdete Gruppen auszuspielen. Infolge der zunehmenden Besorgnis haben Facebook und Google freiwillig Werbe-Bibliotheken eingerichtet, wurden jedoch für die ungenauen und unvollständigen Daten in ihren Beständen kritisiert. Die Neuerung von Artikel 30 DSA besteht darin, dass Werbung, die bisher nur einer bestimmten Zielgruppe zugestellt wurde, nun öffentlich zugänglich gemacht wird.

Was wir erreicht haben:
+ Die großen Online-Plattformen sind nun verpflichtet, ein Register zu veröffentlichen, in dem die über ihren Dienst verkauften Werbeanzeigen aufgeführt sind, zusammen mit bestimmten Metadaten: die Identität des Anzeigenkäufers, die Identität der Person, die dafür bezahlt hat, der Zeitraum, in dem die Anzeige geschaltet wurde, die demografischen Daten der Zielgruppe und Informationen darüber, wie die Anzeige ausgerichtet war.
+ Wir haben erfolgreich Transparenzanforderungen für verstecktes Marketing und Werbung durch Influencer eingeführt.
+ Wir haben erfolgreich die Verpflichtung aufgenommen, zu berichten, welche Parameter die Plattform verwendet hat, „um bestimmte Gruppen auszuschließen“, was wichtig ist, um zu analysieren, ob Diskriminierung vorliegt.
– Leider wurde unser Vorschlag, den Zeitraum, in dem die Anzeigen in ihrem Repository öffentlich zugänglich gemacht werden müssen, von einem auf sieben Jahre zu verlängern, nicht angenommen.

Zugang zu Plattformdaten (Artikel 31)

Inhalt: Sehr große Online-Plattformen spielen eine zunehmend wichtige Rolle in der Gesellschaft, weil sie mit ihrer enormen Macht Meinungen und den öffentlichen Diskurs beeinflussen. Der Zugang für Forscher*innen, die Zivilgesellschaft und investigative Journalist*innen ist daher von entscheidender Bedeutung, um Plattformen zur Rechenschaft zu ziehen, eine unabhängige Kontrolle zu ermöglichen und zu verstehen, wie diese Plattformen funktionieren. Sehr große Online-Plattformen, insbesondere Facebook, haben sich jedoch wiederholt in unabhängige Forschungsprojekte eingemischt: Facebook hat versucht, eine unabhängige Prüfung seiner politischen Anzeigen durch die NYU zu unterbinden und dann die Facebook-Konten der Forscher*innen gesperrt und ihnen den Zugang zur Ad Library API und den Crowdangle-Forschungstools entzogen. Erst kürzlich hat sich Facebook gegen die Datensammlung von AlgorithmWatch gewehrt, die den Newsfeed-Algorithmus von Instagram überwacht hat, und mit rechtlichen Schritten gedroht, weil die NRO gegen die Nutzungsbedingungen der Plattform verstoßen habe. Die Frage der Gewährleistung des Zugangs zu Forschungsergebnissen ist daher bei der Regulierung von Plattformen dringend geworden.

Was wir erreicht haben:
+ Es gab einige wichtige Erfolge beim Zugang der Koordinatoren für digitale Dienste und der Kommission zu den VLOP-Daten, z. B. dass die Plattform „das Design, die Logik und die Funktionsweise der Algorithmen erklären muss, wenn der Koordinator für digitale Dienste dies verlangt.
+ Da es wichtig ist, zu verstehen, wie Inhalte verstärkt werden und wie sie sich verbreiten, haben wir erfolgreich durchgesetzt, dass überprüfte Forscher und Organisationen Zugang zu „aggregierten Zahlen für die Gesamtaufrufe und die Aufrufrate von Inhalten vor einer Entfernung“ haben müssen.
+ Es ist uns gelungen, den Zugang für überprüfte gemeinnützige Organisationen zu gewährleisten, die einen entscheidenden Beitrag zu weiteren Erkenntnissen über schädliche Praktiken der VLOPs leisten können.
+ Ein großer Erfolg der Grünen ist, dass wir ein Schlupfloch gestrichen haben, das es großen Technologieunternehmen ermöglicht hätte, „Geschäftsgeheimnisse“ als Rechtfertigung für die Sperrung des Datenzugangs zu verwenden.
– Es gibt keine festen Fristen, bis wann der Zugang gewährt werden sollte.
– Es gibt keine Möglichkeit, den Zugang zu Daten über drei Koordinatoren für digitale Dienste am Bestimmungsort zu beantragen.

Normen, Verhaltenskodizes (Artikel 34 und 35)

Inhalt: In den vergangenen Jahren hat die EU-Kommission eine Reihe intransparenter Initiativen gestartet, um die großen Tech-Plattformen aufzufordern, sich an unverbindliche Leitlinien zu halten, um Terrorismus, Hassreden oder Desinformation im Internet zu bekämpfen. Solche freiwilligen Kodizes haben jedoch zu einer Reihe von Bedenken geführt, nicht nur, weil sie die Regulierung der Online-Kommunikation in die Hände privater Unternehmen legen, sondern auch im Hinblick auf ihre Effizienz, das Fehlen von Schlüsselindikatoren (abgesehen von der Anzahl der Löschungen), die mangelnde Transparenz der ergriffenen Maßnahmen und die fehlende Kontrolle. Der Vorschlag für Artikel 35 ist ein großer Schritt in die richtige Richtung: Er sieht vor, dass künftige freiwillige Kodizes regelmäßig überprüft werden, insbesondere im Hinblick auf mögliche negative Auswirkungen, dass sie ihre Ziele klar benennen und dass sie wichtige Leistungsindikatoren zur Messung ihrer Effizienz enthalten. In Artikel 34 über Normen wird vorgeschlagen, dass Industrienormen festgelegt werden, um die Einhaltung der Verordnung zu unterstützen.

Was wir erreicht haben:
+ Wir haben für eine bessere Aufsicht gesorgt, für mehr Klarheit über die politischen Ziele der einzelnen Kodizes, für Klarheit über die Rolle, wenn überhaupt, der Behörden und, im Erwägungsgrund, für Mechanismen zur unabhängigen Bewertung.
+ Der ursprüngliche Vorschlag der Kommission wurde um Standards für Geschäftsbedingungen, die Rückverfolgbarkeit von Händlern, Werbepraktiken, Empfehlungssysteme und den Schutz von Minderjährigen ergänzt.
+ Ein weiteres Element ist eine neue Befugnis für die Kommission, delegierte Rechtsakte zu jedem der aufgelisteten Punkte umzusetzen, wenn kein geeigneter Standard angenommen wurde.
– Leider wurden die Änderungsanträge der Grünen zur Einführung von Nachhaltigkeitsstandards für den Energie-, Wärme- und Wasserverbrauch von Datenverkehr und Rechenzentren abgelehnt.
– Unser Änderungsantrag, solche Selbstregulierungsmaßnahmen durch Bürger*innenversammlungen zu demokratisieren, war nicht erfolgreich.

Durchsetzung (Kapitel IV)

Inhalt: Mit dem DSA hat die EU-Kommission versucht, Fehler der Vergangenheit zu vermeiden, insbesondere bei der Durchsetzung der EU-Datenschutzregeln (GDPR). An der Durchsetzung des DSA sind neben der Kommission verschiedene Akteure in einem Labyrinth von Zuständigkeiten beteiligt. Jeder Mitgliedstaat muss einen Koordinator für digitale Dienste (DSC) ernennen, der für die Überwachung der in seinem Mitgliedstaat niedergelassenen Vermittlungsdienste zuständig ist. Anders als in der Datenschutz-Grundverordnung (DSGVO) sieht die DSGVO strenge Fristen für den Koordinator der Niederlassung vor, um auf ein Untersuchungs- und Durchsetzungsersuchen eines anderen Koordinators oder des Ausschusses der Koordinatoren für digitale Dienste (Board) zu antworten, der auch die Kommission beraten kann. Wenn jedoch sehr große Online-Plattformen (d. h. solche mit 45 Millionen monatlichen Nutzern in Europa) betroffen sind, sollen sich die nationalen Regulierungsbehörden in einem langen, mehrstufigen Verfahren mit der Kommission abstimmen.
Was wir erreicht haben:
+ Der Text des EU-Parlaments zur Durchsetzung der Vorschriften enthält nur minimale Verbesserungen gegenüber dem Kommissionsvorschlag, wie etwa in Artikel 43a über Rechtsbehelfe oder durch Hinzufügen von Fristen in Artikel 41.
– Die Grünen/EFA haben umfassende Änderungen am VLOP-Durchsetzungsmechanismus durch die Einführung einer neuen unabhängigen EU-Agentur vorgeschlagen – dieser Vorschlag wurde nicht angenommen. Wir lehnen den Vorschlag ab, die Kommission mit der Aufsicht über VLOPs zu betrauen, da die Kommission ein Exekutivorgan unter politischer Führung ist und keine unabhängige, fachkundige Regulierungsbehörde, die für die Aufsicht über Plattformen notwendig ist. Obwohl wir die Logik hinter der zentralisierten Durchsetzung der Verpflichtungen von VLOPs durch die DSA verstehen, schafft dieser Mechanismus ein potenzielles Demokratie-Defizit innerhalb des institutionellen Rahmens der EU. Die Entscheidungen der Kommission werden der starken Lobbyarbeit der großen Tech-Plattformen ausgesetzt sein.
– Wir schlugen vor, die Bußgelder für VLOPs auf 10 Prozent ihres weltweiten Gesamtumsatzes zu erhöhen – im Abschlussbericht des EU-Parlaments wurden jedoch die von der Kommission vorgeschlagenen 6 Prozent beibehalten.

Bleiben Sie auf dem Laufenden

Wenn Sie regelmäßig über meine Arbeit im Europäischen Parlament informiert werden wollen,
können Sie sich hier in meinen Newsletter eintragen: