Das Europäische Parlament hat kürzlich den AI Act, das weltweit erste Gesetz zur Regulierung von Künstlicher Intelligenz (KI), verabschiedet. Dieser Schritt markiert einen Meilenstein in der Bemühung, die Entwicklung und Anwendung von KI im Einklang mit europäischen Werten und Grundrechten zu gestalten.

Überblick über den AI Act: Regulierung und Ziele

Der AI Act zielt darauf ab, Sicherheit, Achtung der Grundrechte und ökologische Nachhaltigkeit zu gewährleisten. Gleichzeitig sollen Innovationen im Bereich der KI gefördert werden. Das Gesetz unterteilt KI-Systeme in verschiedene Risikogruppen und legt entsprechend strengere Anforderungen fest, je nachdem, wie hoch das potenzielle Risiko einer Anwendung ist.

Die Einteilung in Risikogruppen ist eine zentrale Komponente des AI Acts. Zum Beispiel werden KI-Anwendungen für die Generierung von Medieninhalten in eine niedrigere Risikokategorie eingestuft als solche, die im Gesundheitswesen eingesetzt werden. Diese Unterscheidung ermöglicht es, die Regulierung gezielt auf die potenziellen Gefahren und Auswirkungen der verschiedenen Anwendungen abzustimmen.

Verbotene Anwendungen, Ausnahmen und Fristen

Bestimmte KI-Anwendungen, die gegen europäische Werte und Grundrechte verstoßen, sind gemäß dem AI Act verboten. Ein Beispiel hierfür ist die Gesichtserkennung im öffentlichen Raum, die in der Regel nicht erlaubt ist. Allerdings gibt es auch Ausnahmen, insbesondere für Strafverfolgungsbehörden in bestimmten Fällen, wie etwa bei der Verfolgung schwerwiegender Straftaten wie Terrorismus.

Unternehmen müssen verschiedene Fristen im Blick behalten, wenn sie den AI Act umsetzen möchten. Einige Verbote treten bereits nach sechs Monaten in Kraft, Verhaltenskodizes nach neun Monaten, allgemeine Regeln für KI nach zwölf Monaten und Vorschriften für Hochrisikosysteme erst nach 36 Monaten. Diese zeitlichen Rahmenbedingungen sollen sicherstellen, dass Unternehmen angemessen Zeit haben, um die erforderlichen Anpassungen vorzunehmen und Compliance mit den neuen Vorschriften zu gewährleisten.

Verpflichtungen für Hochrisikosysteme und Transparenzanforderungen

Für Hochrisiko-KI-Systeme gelten spezifische Verpflichtungen, um Gesundheit, Sicherheit, Grundrechte und Umwelt zu schützen. Diese können beispielsweise die Durchführung von Risikobewertungen, die Einhaltung von Transparenzanforderungen und die Möglichkeit für Bürgerinnen und Bürger, Beschwerden einzureichen, umfassen. Ein Beispiel hierfür sind KI-Systeme im Gesundheitswesen, die einer strengen Regulierung unterliegen, um die Genauigkeit und Sicherheit der medizinischen Diagnosen zu gewährleisten.

Maßnahmen zur Förderung von Innovationen und KMU

Der AI Act beinhaltet auch Maßnahmen zur Förderung von Innovationen, insbesondere für kleine und mittlere Unternehmen sowie Start-ups. Reallabore sollen eingerichtet werden, um innovative KI-Systeme zu entwickeln und zu testen, bevor sie auf den Markt kommen. Ein Beispiel hierfür sind Förderprogramme, die KMU finanzielle Unterstützung bieten, um neue KI-Technologien zu erforschen und zu entwickeln.

Fazit zum AI Act

Der AI Act ist ein bedeutender Schritt, um die Entwicklung und Anwendung von Künstlicher Intelligenz in der Europäischen Union zu steuern. Durch die klare Einteilung von Risikokategorien, die Festlegung von Verboten und Verpflichtungen sowie die Förderung von Innovationen setzt die EU ein Zeichen für eine verantwortungsvolle Nutzung von KI im Einklang mit europäischen Werten und Grundrechten.

Die Regulierung von Künstlicher Intelligenz in Europa hat Auswirkungen auf die Datenschutzpraxis, da Unternehmen schon heute verstärkt KI-Lösungen im Alltag einsetzen. Dabei wird es entscheidend sein, sicherzustellen, dass diese Anwendungen die datenschutzrechtlichen Vorgaben einhalten, um die Privatsphäre der Nutzer zu schützen und rechtliche Standards zu erfüllen. Der KI Datenschutz wird somit zu einer zentralen Herausforderung für Unternehmen, die KI in ihren Geschäftsprozessen integrieren möchten.