EU-Gesetz über künstliche Intelligenz verabschiedet

Am 13. März 2024 hat das Europäische Parlament das weltweit erste Gesetz über künstliche Intelligenz (KI) verabschiedet. Es soll für Sicherheit und die Achtung der Grundrechte sorgen und Innovationen fördern.

Zielsetzung

Das Gesetz (AI-Act) zielt darauf ab, Grundrechte, Demokratie und Rechtsstaatlichkeit sowie ökologische Nachhaltigkeit vor Hochrisiko-KI-Systemen zu schützen. Gleichzeitig sollen sie Innovationen ankurbeln und dafür sorgen, dass die EU in diesem Bereich eine Führungsrolle einnimmt. Die Verordnung legt bestimmte Verpflichtungen für KI-Systeme fest, abhängig von den jeweiligen möglichen Risiken und Auswirkungen.

KI-Entwicklern und -Deployern sollen klare Anforderungen und Pflichten in Bezug auf die spezifische Nutzung von KI vorgegeben werden. Gleichzeitig zielt die Verordnung darauf ab, die administrativen und finanziellen Belastungen insbesondere für kleine und mittlere Unternehmen so gering wie möglich zu halten.

Hintergrund

Das Gesetz über künstliche Intelligenz ist eine direkte Antwort auf die Vorschläge der Bürger der Konferenz zur Zukunft Europas (COFOE), insbesondere auf

  • den Vorschlag zur Stärkung der Wettbewerbsfähigkeit der EU in strategischen Sektoren,
  • den Vorschlag zu einer sicheren und vertrauenswürdigen Gesellschaft, einschließlich der Bekämpfung von Desinformation und der Gewährleistung, dass letztlich der Mensch die Kontrolle hat,
  • den Vorschlag zur Förderung der digitalen Innovation unter Gewährleistung der menschlichen Kontrolle und vertrauenswürdige und verantwortungsvolle Nutzung von KI,
  • der Festlegung von Schutzmaßnahmen und Gewährleistung von Transparenz sowie
  • dem Vorschlag zur Nutzung von KI und digitalen Werkzeugen zur Verbesserung des Zugangs der Bürger zu Informationen, einschließlich Menschen mit Behinderungen.

Verbotene Anwendungen

Die neuen Vorschriften verbieten bestimmte KI-Anwendungen, die die Rechte der Bürger bedrohen. Dazu zählen unter anderem die biometrische Kategorisierung auf der Grundlage sensibler Merkmale und das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungskameras für Gesichtserkennungsdatenbanken. Ebenfalls verboten sind künftig Emotionserkennungssysteme am Arbeitsplatz und in Schulen sowie das Bewerten von sozialem Verhalten mit KI. Auch vorausschauende Polizeiarbeit, die einzig auf der Profilerstellung oder der Bewertung von Merkmalen einer Person beruht, und der Einsatz von künstlicher Intelligenz, um das Verhalten von Menschen zu beeinflussen oder ihre Schwächen auszunutzen, ist nach den neuen Regeln nicht erlaubt.

Ausnahmen für Strafverfolgungsbehörden

Grundsätzlich ist die Nutzung von biometrischen Fernidentifizierungssystemen durch Strafverfolgungsbehörden verboten. Es gibt jedoch bestimmte ausführlich beschriebene und eng abgegrenzte Ausnahmefälle. Fernidentifizierung in Echtzeit ist nur dann erlaubt, wenn strenge Sicherheitsbestimmungen eingehalten werden – unter anderem gibt es zeitliche und räumliche Beschränkungen, und es muss vorab eine spezielle behördliche oder gerichtliche Genehmigung eingeholt werden. Entsprechende Systeme dürfen beispielsweise genutzt werden, um gezielt nach einer vermissten Person zu suchen oder einen Terroranschlag zu verhindern. Der Einsatz von KI-Systemen zur nachträglichen Fernidentifizierung gilt als hochriskant. Hierfür ist eine gerichtliche Genehmigung nötig, die mit einer Straftat in Verbindung stehen muss.

Verpflichtungen für Hochrisikosysteme

Auch für andere Hochrisiko-KI-Systeme sind bestimmte Verpflichtungen vorgesehen, denn sie können eine erhebliche Gefahr für Gesundheit, Sicherheit, Grundrechte, die Umwelt, Demokratie und den Rechtsstaat darstellen. Als hochriskant werden unter anderem KI-Systeme eingestuft, die in den Bereichen kritische Infrastruktur, allgemeine und berufliche Bildung oder Beschäftigung eingesetzt werden. Auch KI-Systeme, die für grundlegende private und öffentliche Dienstleistungen – etwa im Gesundheits- oder Bankwesen –, in bestimmten Bereichen der Strafverfolgung sowie im Zusammenhang mit Migration und Grenzmanagement, Justiz und demokratischen Prozessen (zum Beispiel zur Beeinflussung von Wahlen) genutzt werden, gelten als hochriskant. Solche Systeme müssen Risiken bewerten und verringern, Nutzungsprotokolle führen, transparent und genau sein und von Menschen beaufsichtigt werden. Die Bevölkerung hat künftig das Recht, Beschwerden über KI-Systeme einzureichen und Entscheidungen erklärt zu bekommen, die auf der Grundlage hochriskanter KI-Systeme getroffen wurden und ihre Rechte beeinträchtigen.

Als Hochrisikosysteme gelten:

  • kritische Infrastrukturen (z. B. Verkehr), die das Leben und die Gesundheit der Bürger gefährden könnten;
  • allgemeine oder berufliche Bildung, die den Zugang zu Bildung und beruflichem Verlauf des Lebens einer Person bestimmen kann (z. B. Bewertung von Prüfungen);
  • Sicherheitskomponenten von Produkten (z. B. KI-Anwendung in robotergestützter Chirurgie);
  • Beschäftigung, Management von Arbeitnehmern und Zugang zu Selbstständigkeit (z. B. CV-Sortierungssoftware für Einstellungsverfahren);
  • wesentliche private und öffentliche Dienstleistungen (z. B. Kreditwürdigkeit, bei der den Bürgern die Möglichkeit verweigert wird, ein Darlehen zu erhalten);
  • Strafverfolgung, die in die Grundrechte der Menschen eingreifen kann (z. B. Bewertung der Zuverlässigkeit von Beweisen);
  • Migrations-, Asyl- und Grenzkontrollmanagement (z. B. automatisierte Prüfung von Visumanträgen);
  • Verwaltung von Justiz und demokratischen Prozessen (z. B. KI-Lösungen zur Suche nach Gerichtsurteilen).

Transparenzanforderungen

KI-Systeme mit allgemeinem Verwendungszweck und die Modelle, auf denen sie beruhen, müssen bestimmte Transparenzanforderungen erfüllen, darunter die Einhaltung des EU-Urheberrechts und die Veröffentlichung detaillierter Zusammenfassungen der für das Training verwendeten Inhalte. Für die leistungsfähigeren Modelle, die systemische Risiken bergen könnten, gelten künftig zusätzliche Anforderungen – etwa müssen Modellbewertungen durchgeführt, systemische Risiken bewertet und gemindert und Vorfälle gemeldet werden.

Darüber hinaus müssen künstlich erzeugte oder bearbeitete Bilder bzw. Audio- und Videoinhalte (sogenannte Deepfakes) in Zukunft eindeutig als solche gekennzeichnet werden.

Maßnahmen zur Förderung von Innovationen und KMU

In den Mitgliedstaaten müssen Reallabore eingerichtet und Tests unter realen Bedingungen durchgeführt werden. Diese müssen für kleine und mittlere Unternehmen sowie für Start-ups zugänglich sein, damit sie innovative KI-Systeme entwickeln und trainieren können, bevor sie auf den Markt kommen.

Nächste Schritte

Die Verordnung wird nun von Rechts- und Sprachsachverständigen abschließend überprüft. Sie dürfte noch vor Ende der Wahlperiode im Rahmen des sogenannten Berichtigungsverfahrens angenommen werden. Auch muss der Rat die neuen Vorschriften noch förmlich annehmen.

Die Verordnung tritt 20 Tage nach ihrer Veröffentlichung im Amtsblatt der EU in Kraft und ist – bis auf einige Ausnahmen – 24 Monate nach ihrem Inkrafttreten uneingeschränkt anwendbar. Die Ausnahmen sind Verbote sogenannter verbotener Praktiken, die bereits sechs Monate nach Inkrafttreten gelten, Verhaltenskodizes (sie gelten neun Monate nach Inkrafttreten), Regeln für künstliche Intelligenz mit allgemeinem Verwendungszweck, einschließlich Governance, (zwölf Monate nach Inkrafttreten) und Verpflichtungen für Hochrisikosysteme (36 Monate nach Inkrafttreten).

Fazit

Das Gesetz soll:

  • Garantien für künstliche Intelligenz mit allgemeinem Verwendungszweck bieten,
  • durch KI-Anwendungen geschaffene Risiken gezielt angehen,
  • klare Anforderungen an KI-Systeme für Anwendungen mit hohem Risiko festlegen.
  • KI-Praktiken, die unannehmbare Risiken darstellen, verbieten,
  • eine Konformitätsbewertung verlangen, bevor ein bestimmtes KI-System in Betrieb genommen oder in Verkehr gebracht wird,
  • die Nutzung von biometrischen Fernidentifizierungssystemen durch Strafverfolgungsbehörden beschränken,
  • den Einsatz von KI, um soziales Verhalten zu bewerten, Menschen zu beeinflussen oder ihre Schwächen auszunutzen, verbieten und
  • das Recht der Verbraucher auf Einreichen von Beschwerden und auf aussagekräftige Erklärungen gewährleisten.

Fundstelle: Pressemitteilung des Europäischen Parlaments vom 13.03.2024 – abrufbar im Internet unter https://www.europarl.europa.eu/news/de/press-room/20240308IPR19015/gesetz-uber-kunstliche-intelligenz-parlament-verabschiedet-wegweisende-regeln