Der DSA: Teil #2 So transparent müssen Algorithmen sein

Dieser Artikel ist der zweite Teil einer Reihe zu dem Gesetz, mit dem die Europäische Union neue Regeln für das Internet festlegen will, dem „Digital Services Act”. 

Hass und Hetze, Verleumdung und Desinformation richten im Netz einen so großen Schaden an, weil sie sich viral (also besonders schnell) verbreiten – durch die Geschäftsmodelle der großen sozialen Netzwerke. Ihr Ziel ist die Maximierung von Aufmerksamkeit und gleichzeitig fehlt jegliche Transparenz, wie sie funktionieren.

Heute verwenden die meisten der großen Online-Netzwerke automatisierte Software , um Inhalte oder Produkte zu empfehlen (wie „Nächste Videos“ von YouTube oder „Empfohlene Gruppen“ von Facebook) und um Beiträge zu bewerten, zu verwalten und zu moderieren. Diese Algorithmen sind allgegenwärtig und problematisch, denn:

a) Sie verstärken Polarisierung in der Gesellschaft. Den Plattformen geht es nur um Aufmerksamkeit. Je extremer die Inhalte, desto länger schenken ihnen Nutzer*innen ihre Aufmerksamkeit.Damit steigen die Werbeeinnahmen, mit denen Facebook, Instagram, YouTube und Co. ihr Geld verdienen. Ein interner Facebook-Bericht von 2016 belegt beispielsweise, dass 64 Prozent der Personen, die sich einer extremistischen Gruppe auf Facebook anschlossen, von Facebook selbst dazu aufgefordert wurden.

b) Plattformen sammeln große Datenmengen und erstellen detaillierte Profile von Menschen, um ihnen dann Inhalte zu präsentieren, für die sie von den Plattformen als besonders empfänglich bewertet werden . So erhalten beispielsweise Menschen, die sich für Impfungen interessieren, neben Impfgegner-Beiträgen auch Inhalte gegen 5G oder Corona-Maßnahmen, auch wenn sie nicht aktiv danach suchen. Diese Inhalte werden dann immer extremer. Das gefährdet das Vertrauen in Informationen, erschwert die Kommunikation und schwächt unsere Demokratie. Jeder hat das Recht auf eine eigene Meinung, aber wenn jeder von uns in einer eigenen Faktenwelt lebt, haben wir ein Problem.

Mein Internet der Zukunft:

  1. Algorithmen, ihnen zugrunde liegende Werte und Kriterien und die Entscheidungsprozesse, die Online-Plattformen zum Kuratieren und Empfehlen von Inhalten nutzen, sind transparent. Nur dadurch wird eine Analyse der Auswirkungen auf den öffentlichen Diskurs und unsere Demokratie möglich.
  2. Schutz für alle, gewährleistet durch ein Stufenmodell für Transparenz:

a) Nicht-sensible, anonymisierte Daten werden in öffentlichen Datensätzen über Programmierschnittstellen (APIs) ausgetauscht.

b) Sensible Daten werden im Rahmen von Partnerschaften mit relevanten Institutionen (Forschung, Universitäten) unter Einhaltung von Geheimhaltungsvereinbarungen zur Wahrung der Vertraulichkeit ausgetauscht.

c) Europäische Aufsichtsbehörden können algorithmische Systeme bei Bedarf prüfen.

d) Transparenzberichte für Nutzer*innen sind aussagekräftig, standardisiert und öffentlich zugänglich. Sie sollten eine allgemein verständliche Erklärung enthalten, wie die Algorithmen auf der Plattform verwendet werden und welche Auswirkungen sie auf Nutzer*innen haben.

e) Selbstbestimmte Nutzer*innen könnenEmpfehlungssysteme besser auf ihre Interessen und Bedürfnisse abstimmen (oder Drittanbieter hierfür nutzen) und bekommen nicht nur das vorgesetzt, was die Plattformen für sie aussuchen, um ihre Aufmerksamkeit zu fesseln.

3. Transparenz kann zwar allein keine Probleme lösen, aber wenn sie  wirklich effizient ist und die oben genannten Kriterien erfüllt kann sie  eine starke Basis, um Rechenschaftspflicht  für Plattformen, Aufsicht durch Behörden und Rechtsbehelfe für betroffene Gruppen und Nutzer*innen überhaupt erst zu ermöglichen.

Fotohinweis: „Transparent Screen“ von yohann.aberkane unter CC BY-NC-ND 2.0 Lizenz

News & Events​