Aufsichtsbehörden sollen Zugang zum Code erhalten

KI-Resolution am Donnerstag (23.01.) im IMCO-Ausschuss

„Aufsichtsbehörden sollen Zugang zum Code erhalten“

 

 

An diesem Donnerstag, 23. Januar 2020, wird die von Alexandra Geese (Greens/EFA) initiierte Resolution (Entwurf im Anhang) zu künstlicher Intelligenz im IMCO-Ausschuss (10 Uhr) abgestimmt. Sie ist die erste Erklärung des Parlaments zu automatisierten Entscheidungsprozessen in dieser Legislatur und wird mit breiter Mehrheit von sechs Fraktionen getragen. Die Resolution soll die Debatte um die zentrale Frage anstoßen: Dürfen wir als demokratische Gesellschaft die Systeme kontrollieren? Erhalten Aufsichtsbehörden Zugang zu den Algorithmen?

Alexandra Geese: „Aufsichtsbehörden müssen einen Zugang zum Code erhalten. Die Rechte der europäischen Bürger*innen sind wichtiger als ein verzerrter Wettbewerb mit geheim gehaltenen Algorithmen. Wir brauchen endlich echte Transparenz, um Diskriminierungen durch Algorithmen zu vermeiden und wollen starke Bürger*innenrechte verankern.“

Auf Druck der EVP wurden die Aussagen zu staatlichen Kontrollbefugnissen in der Resolution deutlich geschwächt. Wir werden einen Änderungsantrag zur Stärkung der Bürger*innenrechte stellen, wenn die Resolution ins Plenum geht.

 

Alexandra Geese: „Außerdem wollen wir die Beweislast beim Verdacht auf Diskriminierung durch Algorithmen umkehren. Es kann nicht sein, dass den Bürger*innen Informationen vorenthalten werden, mit denen sie eine Diskriminierung nachweisen können. Wir fordern eine Prüfung, ob die derzeitige Beweislast den Herausforderungen von künstlicher Intelligenz gerecht wird.“

 

Nach der Abstimmung im IMCO-Ausschuss soll die Resolution in der Woche vom 10. – 14. Februar 2020 ins Plenum gehen – rechtzeitig vor den Bekanntmachungen der Kommission zur KI-Strategie, die für den 19. Februar geplant ist.


Die wichtigsten Punkte aus dem Inhalt der Resolution:

Stärkere Aufsicht

Die Resolution fordert eine unabhängige Aufsicht durch qualifizierte Fachleute, wenn legitime öffentliche Interessen auf dem Spiel stehen (Art. 7). Ziel ist auch die Erklärungsfähigkeit und angemessene Transparenz der Algorithmen gegenüber den Überwachungsbehörden und Überprüfung durch die Kommission, ob zusätzliche Vorrechte gewährt werden sollten (Art. 11).

Nichtdiskriminierende Datensätze

Wir fordern den Einsatz von nichtdiskriminierenden und qualitativ hochwertigen Datensätzen (Art. 9, 10) sowie von nichtdiskriminierenden und erklärbaren Algorithmen (Art. 10).

Der Mensch ist verantwortlich

Wir schaffen die Möglichkeit, Entscheidungen durch Menschen überprüfen zu lassen. Der Mensch ist am Ende für die Entscheidungen der Maschinen verantwortlich (Art. 1, 3a, 7, 10).

Transparenz für die Verbraucher

Europas Bürger*innen sollen wissen, wie ein Algorithmus funktioniert, wie Entscheidungen überprüft und korrigiert werden (Art. 1) und ob die Preise personalisiert angepasst wurden (Art. 2).

Risikobasierter Ansatz

Die Regulierung der KI sollte über einen risikobasierten Ansatz erfolgen (Art. 4a), angelehnt an das Vorbild der Datenethikkommission.

Anwendung und Durchsetzung des bestehenden Rechts

Die Resolution fordert die konsequente Anwendung und Durchsetzung des bestehenden Rechts bei KI-Anwendungen (z.B. DSGVO) (Art. 6,9)

Keine Diskriminierung durch Algorithmen

Die Resolution fordert die Nicht-Diskriminierung aufgrund von Nationalität, Wohnort oder vorübergehendem Standort in Bezug auf die Geoblockierungsverordnung (Art. 2a).

  • +32 22 84 59 05
  • Alexandra.Geese@ep.europa.eu

Anmelden für den Newsletter