Europa legt einen Plan für risikobasierte KI-Regeln vor, um das Vertrauen und die Akzeptanz zu stärken

Quellknoten: 822535

Die Gesetzgeber der Europäischen Union haben ihre risikobasierter Vorschlag zur Regulierung von Anwendungen künstlicher Intelligenz mit hohem Risiko im Binnenmarkt des Blocks.

Der Plan beinhaltet Verbote für eine kleine Anzahl von Anwendungsfällen, die als zu gefährlich für die Sicherheit der Menschen oder die Grundrechte der EU-Bürger angesehen werden, wie etwa ein soziales Bonitätsbewertungssystem nach chinesischem Vorbild oder bestimmte Arten der KI-gestützten Massenüberwachung.

Für die meisten Nutzungen von KI wird es im Rahmen des Vorschlags keine Regulierung (geschweige denn ein Verbot) geben, aber eine Untergruppe der sogenannten „Hochrisiko“-Anwendungen wird spezifischen regulatorischen Anforderungen unterliegen, sowohl ex ante (vorher) als auch ex post (nachher). ) auf den Markt gebracht.

Es gibt auch Transparenzanforderungen für bestimmte Anwendungsfälle von KI - wie Chatbots und Deepfakes -, bei denen der EU-Gesetzgeber der Ansicht ist, dass potenzielle Risiken gemindert werden können, indem Benutzer darüber informiert werden, dass sie mit etwas Künstlichem interagieren.

Das geplante Gesetz soll für jedes Unternehmen gelten, das ein KI-Produkt oder eine KI-Dienstleistung in die EU verkauft, nicht nur für Unternehmen und Einzelpersonen mit Sitz in der EU. Wie beim Datenschutzregime der EU wird es daher einen extraterritorialen Geltungsbereich haben.

Das übergeordnete Ziel des EU-Gesetzgebers besteht darin, das Vertrauen der Öffentlichkeit in die Umsetzung der KI zu fördern, um die Verbreitung der Technologie zu fördern. Hochrangige Vertreter der Kommission sprechen über den Wunsch, ein „Exzellenz-Ökosystem“ zu entwickeln, das an den europäischen Werten ausgerichtet ist.

„Heute wollen wir Europa zu einer Weltspitze bei der Entwicklung einer sicheren, vertrauenswürdigen und menschenzentrierten künstlichen Intelligenz und deren Nutzung machen“, sagte Margrethe Vestager, EVP der Kommission, und kündigte die Annahme des Vorschlags auf einer Pressekonferenz an.

„Einerseits befasst sich unsere Verordnung mit den menschlichen und gesellschaftlichen Risiken, die mit bestimmten KI-Anwendungen verbunden sind. Dies soll Vertrauen schaffen. Andererseits beschreibt unser koordinierter Plan die notwendigen Schritte, die die Mitgliedstaaten unternehmen sollten, um Investitionen und Innovation anzukurbeln. Exzellenz garantieren. All dies, um sicherzustellen, dass wir die Verbreitung von KI in ganz Europa stärken. “

Gemäß dem Vorschlag sind verbindliche Anforderungen an eine Kategorie von KI-Anwendungen mit hohem Risiko gebunden - dh an solche, die ein klares Sicherheitsrisiko darstellen oder drohen, darauf zu stoßen EU-Grundrechte (wie das Recht auf Nichtdiskriminierung).

Beispiele für KI-Anwendungsfälle mit hohem Risiko, die der höchsten Regulierungsstufe unterliegen, sind in Anhang 3 der Verordnung aufgeführt – die Kommission hat erklärt, dass sie befugt ist, sie durch Delegierte Rechtsakte als Anwendungsfälle zu erweitern KI entwickelt sich weiter und Risiken nehmen zu.

Derzeit angeführte Beispiele mit hohem Risiko fallen in die folgenden Kategorien: Biometrische Identifizierung und Kategorisierung natürlicher Personen; Management und Betrieb kritischer Infrastrukturen; Allgemeine und berufliche Bildung; Beschäftigung, Arbeitsverwaltung und Zugang zur Selbstständigkeit; Zugang zu und Inanspruchnahme wesentlicher privater Dienstleistungen sowie öffentlicher Dienstleistungen und Leistungen; Strafverfolgung; Migrations-, Asyl- und Grenzkontrollmanagement; Rechtspflege und demokratische Prozesse.

Militärische Verwendungen von KI sind ausdrücklich vom Anwendungsbereich ausgeschlossen, da sich die Verordnung auf den Binnenmarkt des Blocks konzentriert.

Die Hersteller von Anwendungen mit hohem Risiko müssen vor der Markteinführung ihres Produkts eine Reihe von Ex-ante-Verpflichtungen einhalten, darunter die Qualität der Datensätze, die zum Trainieren ihrer AIs verwendet werden, und ein gewisses Maß an menschlicher Kontrolle nicht nur über Design, sondern auch über die Verwendung des Systems - sowie laufende Ex-post-Anforderungen in Form einer Überwachung nach dem Inverkehrbringen.

Zu den weiteren Anforderungen gehört die Notwendigkeit, Aufzeichnungen des KI-Systems zu erstellen, um Konformitätsprüfungen zu ermöglichen und den Benutzern relevante Informationen bereitzustellen. Die Robustheit, Genauigkeit und Sicherheit des KI-Systems wird ebenfalls reguliert.

Kommissionsbeamte schlugen vor, dass die überwiegende Mehrheit der KI-Anwendungen außerhalb dieser stark regulierten Kategorie liegen wird. Hersteller dieser KI-Systeme mit geringem Risiko werden lediglich aufgefordert, (nicht rechtsverbindliche) Verhaltenskodizes für die Verwendung festzulegen.

Die Strafen für Verstöße gegen die Regeln für bestimmte Verbote von KI-Anwendungsfällen wurden auf bis zu 6% des weltweiten Jahresumsatzes oder 30 Mio. EUR (je nachdem, welcher Wert höher ist) festgesetzt. Verstöße gegen die Regeln für Anwendungen mit hohem Risiko können bis zu 4% (oder 20 Mio. EUR) betragen.

An der Durchsetzung werden mehrere Agenturen in jedem EU-Mitgliedstaat beteiligt sein. Der Vorschlag sieht vor, dass die Aufsicht von bestehenden (relevanten) Agenturen wie Produktsicherheitsbehörden und Datenschutzagenturen durchgeführt wird.

Dies wirft angesichts des zusätzlichen Arbeitsaufwands und der technischen Komplexität, mit der sie bei der Überwachung der KI-Regeln konfrontiert werden, unmittelbare Fragen hinsichtlich der angemessenen Ressourcenausstattung nationaler Stellen auf. und auch, wie Engpässe bei der Durchsetzung in bestimmten Mitgliedstaaten vermieden werden. (Bemerkenswert ist, dass die EU-Datenschutz-Grundverordnung auch auf Ebene der Mitgliedstaaten überwacht wird und unter dem Mangel an einer einheitlich energischen Durchsetzung leidet.)

Es wird auch eine EU-weite Datenbank eingerichtet, um ein Register der im Block implementierten Hochrisikosysteme zu erstellen (das von der Kommission verwaltet wird).

Ein neues Gremium namens European Artificial Intelligence Board (EAIB) wird ebenfalls eingerichtet, um eine konsequente Anwendung der Verordnung zu unterstützen - im Spiegel des European Data Protection Board, das Leitlinien für die Anwendung der DSGVO bietet.

Im Einklang mit den Regeln für bestimmte Einsatzmöglichkeiten von KI umfasst der Plan Maßnahmen zur Koordinierung der Unterstützung der EU-Mitgliedstaaten für die KI-Entwicklung – beispielsweise durch die Einrichtung regulatorischer Sandboxen, um Start-ups und KMU bei der Entwicklung und Erprobung KI-gestützter Innovationen zu unterstützen – und durch die Aussicht darauf gezielte EU-Förderung zur Unterstützung von KI-Entwicklern.

Binnenmarktkommissar Thierry Breton sagte, Investitionen seien ein entscheidender Teil des Plans.

„Im Rahmen unseres Digital Europe- und Horizon Europe-Programms werden wir eine Milliarde Euro pro Jahr freisetzen. Darüber hinaus wollen wir im kommenden Jahrzehnt – dem „digitalen Jahrzehnt“, wie wir es nennen – private Investitionen und eine kollektive EU-weite Investition von 20 Milliarden Euro pro Jahr generieren“, sagte er. „Wir wollen außerdem 140 Milliarden Euro haben, um digitale Investitionen im Rahmen des Next Generation EU [COVID-19-Wiederherstellungsfonds] zu finanzieren – und teilweise in die KI zu fließen.“

Die Gestaltung der Regeln für die KI war für EU-Präsidentin Ursula von der Leyen, die Ende 2019 ihr Amt antrat, von zentraler Bedeutung. Ein Weißbuch wurde veröffentlicht letztes Jahr, nach a KI 2018 für EU-Strategie - und Vestager sagte, der heutige Vorschlag sei der Höhepunkt einer dreijährigen Arbeit.

Breton fügte hinzu, dass die Bereitstellung von Leitlinien für Unternehmen bei der Anwendung von KI ihnen Rechtssicherheit und Europa einen Vorsprung verschaffen werde. „Vertrauen … ist unserer Meinung nach von entscheidender Bedeutung, um die von uns gewünschte Entwicklung der künstlichen Intelligenz zu ermöglichen“, sagte er. [KI-Anwendungen] müssen vertrauenswürdig, sicher und nichtdiskriminierend sein – das ist absolut entscheidend – aber natürlich müssen wir auch verstehen können, wie genau diese Anwendungen funktionieren.“

„Wir brauchen eine Anleitung. Besonders in einer neuen Technologie ... Wir sind, wir werden der erste Kontinent sein, auf dem wir Richtlinien geben werden - wir werden sagen: "Hey, das ist grün, das ist dunkelgrün, das ist vielleicht ein bisschen orange und das ist verboten." . Wenn Sie also Anwendungen für künstliche Intelligenz verwenden möchten, gehen Sie nach Europa! Sie werden wissen, was zu tun ist, Sie werden wissen, wie es geht, Sie werden Partner haben, die ziemlich gut verstehen, und Sie werden übrigens auch auf den Kontinent kommen, auf dem Sie die größte Menge an Industriedaten auf dem Planeten erstellen lassen für die nächsten zehn Jahre.

„Also komm her - weil es bei künstlicher Intelligenz um Daten geht - geben wir dir die Richtlinien. Wir werden auch die Werkzeuge dafür und die Infrastruktur haben. “

Eine Version des heutigen Vorschlags letzte Woche durchgesickert - führt zu fordert die Abgeordneten auf, den Plan zu verbessern, sowie durch Verbot der biometrischen Fernüberwachung an öffentlichen Orten.

Für den Fall, dass der endgültige Vorschlag die biometrische Fernüberwachung als besonders risikoreiche Anwendung von KI behandelt - und die Verwendung der Technologie in der Öffentlichkeit durch Strafverfolgungsbehörden grundsätzlich verboten ist.

Die Verwendung ist jedoch nicht vollständig verboten, mit einer Reihe von Ausnahmen, bei denen die Strafverfolgung sie weiterhin nutzen könnte, sofern eine gültige Rechtsgrundlage und eine angemessene Aufsicht vorliegen.

Schutz angegriffen als zu schwach

Zu den Reaktionen auf den Vorschlag der Kommission gehörten Kritik an zu weit gefassten Ausnahmen für die Strafverfolgung sowie Bedenken, dass Maßnahmen zur Bekämpfung des Risikos diskriminierender KI-Systeme nicht weit genug gehen.

Die NGO für Strafjustiz, Fair Trials, sagte, dass radikale Verbesserungen erforderlich sind, wenn die Verordnung sinnvolle Schutzmaßnahmen in Bezug auf die Strafjustiz enthalten soll. Kommentar in einer Erklärung, Griff Ferris, Rechts- und Politikbeauftragter der NGO, sagte: „Die Vorschläge der EU erfordern radikale Änderungen, um die Verdrahtung von Diskriminierung bei strafrechtlichen Ergebnissen zu verhindern, die Unschuldsvermutung zu schützen und sicherzustellen sinnvolle Rechenschaftspflicht für KI in der Strafjustiz. 

„Die Gesetzgebung enthält keine Schutzmaßnahmen gegen Diskriminierung, während die weitreichende Ausnahmeregelung für die Wahrung der öffentlichen Sicherheit die geringen Schutzmaßnahmen in Bezug auf die Strafjustiz vollständig untergräbt. Der Rahmen muss enthalten strenge Schutzmaßnahmen und Beschränkungen, um Diskriminierung zu verhindern und das Recht auf ein faires Verfahren zu schützen. Dies sollte die Einschränkung des Einsatzes von Systemen einschließen, die versuchen, Personen zu profilieren und das Risiko von Kriminalität vorherzusagen. “ 

Auch die Civil Liberties Union for Europe (Liberties) schlug Schlupflöcher vor, die es den EU-Mitgliedstaaten nach Angaben der NGO ermöglichen würden, Verbote problematischer KI-Anwendungen zu umgehen.

„Es gibt viel zu viele problematische Anwendungen der Technologie, die zulässig sind, z. B. die Verwendung von Algorithmen zur Vorhersage von Kriminalität oder die Bewertung des emotionalen Zustands von Menschen bei Grenzkontrollen durch Computer, die beide ernsthafte Menschenrechtsrisiken darstellen und eine Bedrohung darstellen zu den Werten der EU “, warnte Orsolya Reich, Senior Advocacy Officer, in einer Erklärung. "Wir sind auch besorgt, dass die Polizei Gesichtserkennungstechnologien so einsetzen könnte, dass unsere Grundrechte und Grundfreiheiten gefährdet werden."

Auch Patrick Breyer, deutscher Piraten-Europaabgeordneter, warnte, dass der Vorschlag nicht den geforderten Maßstäben der Achtung „europäischer Werte“ genüge. Der Europaabgeordnete war einer von 40, die einen Brief an die Kommission unterzeichneten letzte Woche warnte dann, dass eine durchgesickerte Version des Vorschlags beim Schutz der Grundrechte nicht weit genug gegangen sei.

„Wir müssen die Gelegenheit nutzen, damit die Europäische Union künstliche Intelligenz mit ethischen Anforderungen und demokratischen Werten in Einklang bringt. Leider schützt uns der Vorschlag der Kommission nicht vor den Gefahren der Geschlechtergerechtigkeit und der Gleichbehandlung aller Gruppen, beispielsweise durch Gesichtserkennungssysteme oder andere Arten der Massenüberwachung “, sagte Breyer in einer Erklärung, die heute auf den formellen Vorschlag reagierte.

„Biometrische und Massenüberwachung, Profilerstellung und Technologie zur Vorhersage von Verhaltensweisen in unseren öffentlichen Räumen untergraben unsere Freiheit und bedrohen unsere offenen Gesellschaften. Der Vorschlag der Europäischen Kommission würde den Einsatz der automatischen Gesichtserkennung im öffentlichen Raum mit hohem Risiko in der gesamten Europäischen Union entgegen dem Willen der Mehrheit unserer Bevölkerung ermöglichen. Die vorgeschlagenen Verfahrensanforderungen sind lediglich eine Nebelwand. Wir können die Diskriminierung bestimmter Personengruppen und die falsche Beschuldigung unzähliger Personen durch diese Technologien nicht zulassen. “

Die Dachorganisation für Verbraucherrechte, BEUC, äußerte sich ebenfalls schnell kritisch und kritisierte den Vorschlag der Kommission als schwach im Hinblick auf den Verbraucherschutz, da er sich auf die Regulierung „eines sehr begrenzten Spektrums von KI-Anwendungen und -Problemen“ konzentriere.

"Die Europäische Kommission hätte sich stärker darauf konzentrieren sollen, den Verbrauchern zu helfen, der KI in ihrem täglichen Leben zu vertrauen", sagte Monique Goyens, Generaldirektorin von Beuc, in einer Erklärung: "Die Menschen sollten in der Lage sein, jedem Produkt oder jeder Dienstleistung zu vertrauen, die mit künstlicher Intelligenz betrieben wird, sei es "hohes Risiko", "mittleres Risiko" oder "geringes Risiko". Die EU muss mehr tun, um sicherzustellen, dass die Verbraucher durchsetzbare Rechte sowie Zugang zu Rechtsbehelfen und Rechtsbehelfen haben, falls etwas schief geht. “

Der Tech-Branchenkonzern Dot Europe (ehemals Edima) – zu dessen Mitgliedern Airbnb, Apple, Facebook, Google, Microsoft und andere Plattformgiganten gehören – begrüßte die Veröffentlichung des Vorschlags, hatte zum Zeitpunkt des Verfassens dieses Artikels jedoch noch keine detaillierten Bemerkungen abgegeben und sagte, er befinde sich in der Formulierung seine Position.

Andere Technologie-Lobbygruppen warteten nicht damit, den Angriff auf die Aussicht auf eine bürokratische Verschärfung der KI zu starten – sie behaupteten, die Verordnung würde „die aufstrebende KI-Industrie der EU in die Knie zwingen, bevor sie laufen lernen kann“, wie eine in Washington und Brüssel ansässige Technologiepolitik ausdrückt thinktank (das Zentrum für Dateninnovation) hat es ausgedrückt.

Der CCIA-Handelsverband warnte auch schnell vor „unnötigem bürokratischen Aufwand für Entwickler und Benutzer“ und fügte hinzu Regulierung allein macht die EU nicht führend AI.

Der heutige Vorschlag leitet den Beginn zahlreicher Debatten im Rahmen des Ko-Legislativprozesses der EU ein, wobei das Europäische Parlament und die Mitgliedstaaten über den EU-Rat über den Entwurf zu Wort kommen müssen - was bedeutet, dass sich viel ändern könnte, bevor die EU-Institutionen eine Einigung über das Gesetz erzielen endgültige Form einer EU-weiten AI-Verordnung.

Die Kommissare lehnten es ab, einen Zeitrahmen für die heutige Verabschiedung von Rechtsvorschriften anzugeben. Sie hofften lediglich, dass die anderen EU-Institutionen sofort eingreifen würden und dass der Prozess so schnell wie möglich durchgeführt werden könne. Es könnte jedoch einige Jahre dauern, bis die Verordnung ratifiziert und in Kraft tritt.

Dieser Bericht wurde mit Reaktionen auf den Vorschlag der Kommission aktualisiert

Quelle: https://techcrunch.com/2021/04/21/europe-lays-out-plan-for-risk-based-ai-rules-to-boost-trust-and-uptake/

Zeitstempel:

Mehr von Techcrunch