19. Januar 2021

Der DSA: Teil #05 – Social Media Councils: Power to the people!

Dieser Artikel ist der fünfte Teil einer Reihe zu dem Gesetz, mit dem die Europäische Union neue Regeln für das Internet festlegen will, dem “Digital Services Act” (DSA).

 

Der Sturm auf das Kapitol in Washington am 6. Januar hat wie durch ein Brennglas die drängendsten Fragen unseres sozialen Miteinanders im Internet sichtbar gemacht. Eine dieser Fragen lautet: Wer entscheidet eigentlich darüber, welche Menschen ihre Meinung in sozialen Netzwerken verbreiten dürfen? Darf diese Entscheidung Unternehmen überlassen werden – wie in diesem Fall Twitter, Facebook, Instagram, YouTube, Snapchat und Twitch, die nach dem Vorfall die Konten von Donald Trump gesperrt haben? Die Antwort lautet: Natürlich können sie dies tun, sobald Inhalte oder Aktionen von Nutzer*innen gegen ihre AGBs verstoßen. Problematisch wird so eine Entscheidung dann, wenn soziale Netzwerke größer als Nationalstaaten werden und ihre private Infrastruktur als öffentlicher Raum wahrgenommen wird.

 

Das Einschreiten der Plattformen hat einen Präzedenzfall geschaffen: Unternehmen haben einen demokratisch gewählten Regierungschef von der weltweiten öffentlichen Debatte im Netz ausgeschlossen. Das war einerseits überfällig, weil Trump während seiner Amtszeit mindestens ein Dutzendmal gegen die Nutzungsregeln der sozialen Netzwerke verstoßen hatte, aber andererseits auch fragwürdig und in einer Demokratie nicht akzeptabel. Wer aber soll wann und wie entscheiden dürfen, was veröffentlicht und gesagt werden darf und was nicht? Die Antwort ist komplex: So viel Macht sollten Unternehmen grundsätzlich nicht haben – und Regierungen in totalitären Staaten auch nicht. Die Macht in demokratischen Staaten liegt beim Volk und die Gesellschaft muss diese Debatte führen.

 

Im Gesetz über die digitalen Dienste, dem „Digital Services Act“, wollen wir daher die Bürger*innenrechte stärken. Um öffentliche Debatten über genau diese großen Fragen unserer Kommunikation im Internet künftig zu führen, schlage ich so genannte Plattformräte („Social Media Councils“) vor, die mit Menschen aus der Zivilgesellschaft sowie mit Expert*innen für Meinungsfreiheit und Demokratie, für Technologie und Vertreter*innen von Gruppen, die von Hass und Hetze besonders betroffen sind, besetzt werden. Sie können Debatten anstoßen, gute und schlechte Praktiken der Plattformen thematisieren und Handlungsempfehlungen für die Politik aussprechen. Wichtig ist jedoch, dass sie keine Entscheidungen über die (Il)legalität von einzelnen Posts treffen sollten, denn das können in einem Rechtsstaat nur Gerichte. Aber sie können eine öffentliche Debatte anstoßen: Wieviel Desinformation verträgt eine Gesellschaft? Wieviel Hass und Hetze müssen wir ertragen, um Meinungsfreiheit zu schützen? Oder ist die Meinungsfreiheit in Gefahr, wenn sich viele Menschen – besonders starke junge Menschen, Frauen und PoC – im Internet nicht mehr trauen, ihre Meinung offen zu sagen? Diese schwierigen Abwägungsprozesse können weder Unternehmen noch Regierungen treffen, hier ist die Zivilgesellschaft gefragt.

 

Social Media Councils sind das Gegenteil dessen, was die Plattformen bisher selbst anbieten: interne Ethikräte. Wie unabhängig kann ein interner Ethikrat bei Facebook sein, wenn seine Mitglieder vom Vorstand ausgewählt werden? Das wäre die zementierte Privatisierung von Recht und Ethik. Facebook war eines der ersten Unternehmen, das einen solchen Rat, den „Oversight Board“, einrichtete. Er wurde jedoch scharf kritisiert und als rein „kosmetisch“ bezeichnet, da er an der Wurzel des Problems vorbeigeht: Facebooks Algorithmen unterstützen die umfangreiche Verbreitung von spalterischen und problematischen Inhalten.

 

Wenn Plattformen eigenmächtig Kanäle sperren, greifen sie damit auch in die Meinungsfreiheit ein – die unser hohes Gut ist. Auch dazu sollten wir eine öffentliche Debatte führen: Wie viel Meinungsfreiheit können wir – jeder Mensch und unsere Demokratie – in den sozialen Netzwerken aushalten? Das Beispiel Desinformation: Sie schadet unserer Demokratie massiv, ist aber nur in den wenigsten Fällen illegal und kann deshalb nicht durch Gerichte unterbunden werden. Wie gefährlich sie ist, haben uns die militanten Trump-Anhänger vor Augen geführt, die fest davon überzeugt waren, Trump habe die Wahl gewonnen.

 

Mein Internet der Zukunft:

 

  • Verschiedene Gremien, Expertenrunden auf der einen Seite und Plattformräte (so ähnlich wie Bürger*innenräte in Irland) mit per Zufallsprinzip gelosten Mitgliedern auf der anderen Seite. Eine öffentliche Debatte könnte die Plattformen bereits dazu bewegen, ihre Moderationspraktiken anzupassen. Auf dieser evidenzbasierten und breit getragenen Grundlage wäre dann – soweit erforderlich – eine gesetzliche Nachsteuerung möglich.
  • Es existieren unabhängige, gesellschaftlich repräsentative und vielfältige, insbesondere geschlechterparitätische Plattformräte, die ein offenes, transparentes, rechenschaftspflichtiges und partizipatives Forum für die Auseinandersetzung mit den Grundsätzen der Inhaltsmoderation bieten.
  • Diese Plattformräte geben Leitlinien, Stellungnahmen, politische Empfehlungen und Fachwissen zu Praktiken der Inhaltsmoderation (content moderation) sowohl für politische Entscheidungsträger*innen als auch für soziale Netzwerke heraus.


Mehr  erfahren:

 

Bleiben Sie auf dem Laufenden

Wenn Sie regelmäßig über meine Arbeit im Europäischen Parlament informiert werden wollen,
können Sie sich hier in meinen Newsletter eintragen: