Diskriminierung durch KI: Empfehlungen aus der Anhörung

Acht Expert*innen mit ganz unterschiedlichen Hintergründen und Blickwinkeln haben bei der Konferenz „Automated Discrimination? How to prevent bias in AI and Algorithmic Decision-Making“ die Mechanismen erläutert, mit denen ganze Gruppen der Bevölkerung durch künstliche Intelligenz (KI) benachteiligt werden. Sie sprachen hilfreiche Empfehlungen für die anstehende Debatte aus.

Derzeit erarbeitet die Europäische Kommission eine KI-Strategie. Wir Grüne drängen darauf sicherzustellen, dass künstliche Intelligenz allen Menschen dienen muss. Das ist bisher nicht der Fall. Sie drängt vor allem Frauen und alle marginalisierten Gruppen unverhältnismäßig an den Rand. Da sie kaum an der Entwicklung von KI beteiligt sind, werden ihre Interessen weniger berücksichtigt. Bestehende Ungleichheiten und Vorurteile in der Gesellschaft verfestigen sich in der digitalen Welt und können durch Maschinen sogar verstärkt werden. Deshalb muss die Gesellschaft über ihre Werte und Rechte diskutieren, es muss diverse, interdisziplinäre Entwicker*innenteams geben und generell ein stärkeres Bewusstsein für das Thema.

Denn viele Menschen bemerken nicht, dass sie diskriminiert werden, weil nicht transparent ist, welche persönlichen Daten im Umlauf sind. Europas neue KI-Strategie muss deshalb klare gesetzliche Leitplanken haben. Die EU-Kommission will ihre Pläne am 19. Februar bekannt machen.

„Künstliche Intelligenz wird immer mehr zu einer Infrastruktur der Exklusion“, kritisierte Seda Gürses, Professorin für Technologiepolitik und -management an der TU Delft, in der Anhörung. Jede unserer Bewegungen werde von Apps registriert, und die Unternehmen nutzten die Informationen, um ihre Software zu optimieren. Jede Optimierung wiederum verfolge ein Ziel, das aber nicht von allen Menschen geteilt werde. „Außerdem machen Systeme Fehler. Besonders, wenn sie sich von einem Kontext zum nächsten bewegen, weil der Markt ausgeweitet werden soll.“

IT-Regulierungs-Expertin Frederike Kaltheuner forderte, KI-Systeme müssten durch Gesetze zur Verantwortung gezogen werden. Risiken einer Anwendung müssten im Vorfeld bewertet werden, und es brauche eine grundlegende öffentliche Debatte, bevor technische Anwendungen konzipiert werden. „Wir wollen ja auch nicht, dass Pharma-Firmen und Öl-Konzerne sich selbst regulieren.“

Auch Christiaan van Veen, Direktor des „Projekts Digital Welfare State and Human Rights“ und Berater des UN-Sonderberichterstatters zu extremer Armut und Menscenrechten, mahnte eine soziale, gesellschaftliche Debatte an, „bevor Technologien in Windgeschwindigkeit umgesetzt werden“. Es gebe nicht einen Mangel an Ethik, aber an Gesetzen, die auf den Weg gebracht werden müssten – sonst verletzten Innovationen die Menschenrechte. „Ich finde es erstaunlich, wie wenig über die Gefahren gesprochen wird“, sagte van Veen.

Artikel 14 der Europäischen Menschenrechtskonvention verbietet Diskriminierung. Oftmals sind aber die Datensätze, auf denen KI-Anwendungen beruhen, von vornherein diskriminierend. Sie ordnen eine Person einer Gruppe zu und versuchen, Vorhersagen zu treffen. Dadurch wir die Person nicht aufgrund ihres eigenen Verhaltens beurteilt, sondern in Bezug auf die Gruppe. „Wollen wir das?“, lautete eine rhetorische Frage an die Anwesenden.

Über die fehlerhafte Gesichtserkennung bei dunkelhäutigen Frauen, berichtete Nakeema Stefflbauer, Gründerin von FrauenLoop, einer Organisation in Berlin, die Flüchtlinge und Migrantinnen zu Karrieren in technischen Berufen animiert: „Es gibt zahlreiche Fälle, in denen die Gesichtserkennung nicht funktioniert hat, und einige Gruppen sind unverhältnismäßig stark betroffen.“ An dieses Beispiel anknüpfend warnte Katherine Jarmul, Ingenieurin für maschinelles Lernen und Datenschutzaktivistin, davor, ethische Probleme mit unethischen Mitteln zu lösen. Um die mangelhafte Auswertung von Gesichtsscans von Schwarzen Menschen und People of Color zu beheben, habe eine Firma im Auftrag von Google Fotos gesammelt und unter anderem Obdachlose gescannt, die keinerlei Zustimmung gegeben hätten. Oder ältere Leute, die 10 Dollar für ihren Gesichtsscan bekommen hätten ohne zu erfahren, was mit den Daten passiert. Wie können wir in Zukunft Diskriminierungen vermeiden, ohne dass Personen die Privatsphäre aufgeben müssen? Privates müsse privat bleiben, war die einhellige Meinung.


Hier findet ihr die Präsentationen der Vortragenden:

  • +32 22 84 59 05
  • Alexandra.Geese@ep.europa.eu

Anmelden für den Newsletter