Drei Vorschläge für künstliche Intelligenz in Europa

Warum wurde mir in diesem Monat die Sozialhilfe gestrichen? Warum werden mir bestimmte Videos auf YouTube empfohlen? Warum kam ich mit meinem Lebenslauf nicht in die Endrunde eines Bewerbungsverfahrens? Warum wird mir ein Produkt im Online-Shop empfohlen? Warum bekomme ich einen schlechteren Kredit als mein Mann? Die Antwort auf all diese Fragen kann lauten: weil es ein Algorithmus so entschieden hat.

Da künstliche Intelligenz (KI) und algorithmische Entscheidungen unseren Alltag immer stärker beeinflussen, arbeitet das Europäische Parlament gerade an mehreren Initiativberichten, also Texten, die die Kommission dann als Gesetzgebungsvorschlag vorlegen soll. Ich bin Berichterstatterin – also Verfasserin des Berichts – in meinem Ausschuss für Verbraucherrechte und den Binnenmarkt.

Heute wurde meine Stellungnahme mit Vorschlägen für die ethischen Aspekte der künstlichen Intelligenz veröffentlicht (PDF).

Darin schlage ich vor, dass ethische Leitlinien und verbindliche Regeln Hand in Hand gehen müssen. Wir brauchen klare Gesetze in Europa, damit jede und jeder verstehen kann, wie und wo künstliche Intelligenz zum Einsatz kommt, was die Folgen sind und wie man sich gegen diskriminierende oder schlichtweg falsche Entscheidungen von Maschinen wehren kann. Es geht dabei also um den Schutz von Menschen, von unseren Rechten und Freiheiten. Außerdem sorgen solche Regeln für mehr Vertrauen in die Technologie und schaffen innerhalb Europas einen einheitlichen Binnenmarkt, der sich durch seine Werte von anderen Weltmärkten abhebt.

So kann „KI made in Europe“ nicht nur Grundrechte wahren, sondern auch zu einem echten Wettbewerbsvorteil werden. Zum Beispiel indem wir erstmals in einem Gesetz festschreiben, dass künstliche Intelligenz nicht diskriminieren darf, dass sie nicht unsere Privatsphäre, Datenschutz, Meinungsfreiheit oder gar die Würde des Menschen verletzen darf. Diese drei Vorschläge bringe ich in die Arbeit des Parlaments ein:

  1. Ein risikobasierter Ansatz
    KI-Systeme müssen auf der Grundlage des potenziellen Schadens für den Einzelnen wie auch für die Gesellschaft insgesamt vorab geprüft werden – wobei Systeme, die den Zugang eines Individuums zu Ressourcen oder der Teilhabe an gesellschaftlichen Prozessen betreffen können, nie in der niedrigste Risikokategorie eingestuft werden dürfen. Diese ist KI-Produkten vorbehalten, die Menschen weder betrifft noch gefährdet.
    Die Bestimmung des Risikos von KI sollte auf einer Kombination aus der Schwere des potenziellen Schadens und der Wahrscheinlichkeit seines Eintretens beruhen. Ein erhöhtes Risikopotential einer KI muss mit einem höheren Grad an regulatorischen Eingriffen und Auflagen für Unternehmen einhergehen. Ich halte den risikobasierten Ansatz, den die Kommission in ihrem Weißbuch vom Februar 2020 vorgeschlagen hat, für unzureichend, weil er nur Hochrisikobereiche und dort den konkreten Anwendungsfall einer Anwendung identifiziert, um zwischen problematischer und unproblematischer KI zu unterscheiden. Zu viele kritische Anwendungen werden von dem vorgeschlagenen Ansatz nicht abgedeckt.

  2. Keine Diskriminierung
    Bisher gibt es weltweit noch keine gesetzlichen Regeln, die Diskriminierung durch KI verbieten. Zwar gibt es internationale Menschenrechtsabkommen und die EU-Grundrechtecharta, aber ich schlage konkreter vor, dass neue KI vor ihrer Anwendung auf ihr Diskriminierungspotenzial geprüft werden muss.

  3. Eine europäische Behörde
    Jeder Mitgliedstaat sollte eine nationale Behörden benennen, die für die Aufsicht verantwortlich ist.
    Um eine Fragmentierung des Binnenmarkts zu vermeiden, schlage ich die Schaffung eines neuen Europäischen Ausschusses vor, der als unabhängige Einrichtung für eine einheitliche Anwendung der KI-Vorschriften in der gesamten Europäischen Union sorgen kann.

Wie geht es jetzt weiter? Der Rechtsausschuss ist für diesen Bericht des Europaparlaments zuständig. Meine Stellungnahme, die ich für den Ausschuss für Binnenmarkt und Verbraucherschutz (IMCO) aushandele, fließt in diesen Bericht ein. So entsteht ein Entschließungsantrag des Parlaments. Er wird im Herbst zur Abstimmung gestellt und drückt damit die Meinung des Parlaments aus. Sie ist eine Richtschnur für die EU-Kommission, die einen Gesetzesentwurf zu Regeln für künstliche Intelligenz plant (2021). Mein Initiativbericht ist somit ein Puzzleteil, auf dem man einen Ausschnitt des großen Gesetzes schon erkennen kann.

Die geplante Zeitleiste für das weitere Verfahren:

  • Stellungnahme-Entwurf im IMCO-Ausschuss: 14. Mai oder 18. Mai
  • Deadline für Änderungsanträge der anderen Fraktionen: 19. Mai
  • Änderungsanträge im IMCO-Ausschuss: 29. Juni
  • Abstimmung im IMCO Ausschuss: 6. oder 7. Juli

Als nächstes soll im September der Bericht im Rechtsausschuss abgestimmt werden und dann im Herbst von allen Europaabgeordneten in der Plenarsitzung verabschiedet werden.

Weiterführende Links:

Link zum Entwurf meiner Stellungnahme für IMCO: https://www.europarl.europa.eu/RegistreWeb/search/simple.htm?references=IMCO_PA(2020)648496&fulltext=IMCO_PA(2020)648496&searchLanguages=DE&sortAndOrder=DATE_DOCU_DESC

Parltrack – Übersicht der Prozedur: https://parltrack.org/dossier/2020/2012(INL)

Parlamentsprozedur auf der Parlamentswebseite: https://oeil.secure.europarl.europa.eu/oeil/popups/ficheprocedure.do?reference=2020/2012(INL)&l=en

EU Commission High-Level Expert Group on Artificial Intelligence Ethics Guidelines on Artificial Intelligence and Policy and Investment Recommendations https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence

 Gutachten der Datenethikkommission: https://www.bmi.bund.de/SharedDocs/downloads/DE/publikationen/themen/it-digitalpolitik/gutachten-datenethikkommission.html

Dr. Katharina Zweig: https://www.vzbv.de/sites/default/files/downloads/2019/05/02/19-01-22_zweig_krafft_transparenz_adm-neu.pdf

vzbv: Für künstliche Intelligenz, die den Menschen dient https://www.vzbv.de/epw2019/de/fuer-kuenstliche-intelligenz-die-den-menschen-dient

Empfehlung CM/Rec(2020)1 des Ministerkomittees an die Mitgliedstaaten über die Auswirkungen algorithmischer Systeme auf die Menschenrechte: https://www.coe.int/en/web/freedom-expression/-/algorithms-and-automation-council-of-europe-issues-guidelines-to-prevent-human-rights-breaches

AccessNow: Artificial Intelligence and Human Rights https://www.accessnow.org/cms/assets/uploads/2018/11/AI-and-Human-Rights.pdf

BEUC: https://www.beuc.eu/publications/beuc-x-2019-097_artificial_intelligence_-_letter_to_evp_vestager_commissioner_breton_commissioner_reynders.pdf

AI Now Institute: Discriminating Systems, Gender, Race and Power in AI https://ainowinstitute.org/discriminatingsystems.pdf

UN Special Rapporteur on extreme poverty and human rights: Digital welfare states and human rights https://undocs.org/A/74/493

Dr. Karen Yeung: A study of the implications of advanced digital technologies (including AI systems) for the concept of responsibility within a human rights framework https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3286027

Michael Veale: A Critical Take on the Policy Recommendations of the EU High-Level Expert Group on Artificial Intelligence https://discovery.ucl.ac.uk/id/eprint/10084302/7/Veale_HLEG_preprint_revised.pdf

  • +32 22 84 59 05
  • Alexandra.Geese@ep.europa.eu

Anmelden für den Newsletter