In der vergangenen Woche hielt Dr. Lars Siebert, LL.M. (Emory) den Einführungsvortrag zum „17. Berchtesgadener Dialog - Artificial Intelligence“ mit dem Titel „Heilsbringerin oder Gefahrenquelle? Ein Blick auf künftige KI-Anwendungen und internationale Regulierungsbemühungen“.
Praxisleitfaden zur KI-Verordnung: Teil 2 von 2
Mittwoch, 14. Februar 2024
Am 13. Februar 2024 haben die maßgeblichen Ausschüsse des Europäischen Parlaments dem Entwurf der KI-Verordnung (KI-VO) zugestimmt. Die Verabschiedung im Plenum (voraussichtlich am 10. oder 11. April 2024) sowie die Zustimmung der Minister gelten als reine Formsache. Der Weg für die KI-Verordnung ist also geebnet. Erwartet wird, dass sie im Mai oder Juni in Kraft tritt. Erste Vorschriften entfalten bereits Ende des Jahres Wirkung.
Höchste Zeit für Unternehmen, sich mit den für sie wichtigsten Regelungen vertraut zu machen. Mit diesem zweiteiligen Praxis-Leitfaden möchten wir Ihnen den Einstieg in die KI-VO erleichtern.
Mit der Anwendbarkeit der KI-Verordnung und den dafür zentralen Definitionen „KI-System“ und „KI-Modell“ haben wir uns bereits in Teil 1 unseres Praxisleitfadens beschäftigt.
In diesem Teil 2 geben wir Ihnen einen Überblick über die Risikoklassifizierung und über die grundlegenden und umfassenden Transparenz- und Kennzeichnungsanforderungen der KI-Verordnung.
1. Risikoklassifizierung
An die Frage der Anwendung der KI-Verordnung (vgl. hierzu: Teil 1 unseres Praxisleitfadens) schließt sich für Unternehmen unmittelbar die Frage an, welche konkreten Anforderungen an die von ihnen genutzten Systeme gestellt werden. Während KI mit einem nicht hinnehmbaren Risiko schlicht verboten ist („Verbotene-KI-Praktiken“), gelten für Hochrisiko-KI strenge Anforderungen, unter anderem hinsichtlich Entwicklung, Einsatz, Transparenz, Nachverfolgbarkeit und Robustheit. Daten- und Qualitätsmanagementsysteme sowie „Menschliche Aufsicht“ sind nur ein Teil der Verpflichtungen, die aus der Einstufung als Hochrisiko-KI folgen.
Unternehmen müssen daher genau untersuchen, in welche Risikoklasse ihre Systeme fallen.
a) Verbotene-KI
Art. 5 KI-VO enthält einen abschließenden Katalog verbotener KI-Praktiken. Hierunter fallen (exemplarische Auflistung):
- die Verwendung von Techniken der unterschwelligen Beeinflussung oder absichtlich manipulative oder täuschende Techniken innerhalb eines KI-Systems,
- das Ausnutzen einer Schwäche oder Schutzbedürftigkeit einer Person (bspw. aufgrund der sozialen oder wirtschaftlichen Situation, des Alters, der körperlichen oder geistigen Fähigkeiten) durch das KI-System,
- eine biometrische Kategorisierung,
- das Social Scoring durch KI-Systeme,
- die biometrische Fernidentifizierung (Echtzeit und nachgelagert),
- das ungezielte Scraping von Gesichtsbildern mittels KI aus dem Internet zum Aufbau oder zur Erweiterung einer Gesichtsdatenbank,
- die Verwendung von Emotionserkennungssystemen im Arbeits- oder Bildungsbereich.
Die Verwendung einer solchen KI-Praktik ist verboten, wenn nicht eine der in Art. 5 KI-VO aufgeführten engen Ausnahmen vorliegt. Unternehmen, die momentan KI-Systeme entwickeln oder nutzen, die dem Verbotskatalog unterfallen könnten, sollten daher die Einschlägigkeit des Verbotstatbestands und die Möglichkeit der Berufung auf eine Ausnahme prüfen. Bei der Anwendung dieser Ausnahmen und der Dokumentation dieser Bewertung ist Vorsicht geboten. Gerne unterstützen wir Sie hierbei.
b) Hochrisiko-KI-Systeme
Der Großteil der Verpflichtungen aus der KI-Verordnung knüpft an Hochrisiko-KI-Systeme (HKS) an. So werden Anbieter von HKS insbesondere verpflichtet, Qualitäts- und Risikomanagementsysteme einzuführen. Weitere Kernanforderungen an HKS sind - neben der Vermeidung von sog. „Bias“ und Vorgaben zur Data Governance - Transparenz- und Dokumentationspflichten, die Einrichtung „Menschlicher Aufsicht“ und ein ausreichendes Maß an Robustheit, Genauigkeit und Cybersicherheit. Neben dem Anbieter treffen auch die Betreiber, Händler und Importeure von HKS eigenständige Pflichten. Diese Verteilung der Pflichten entlang der Wertschöpfungskette war eine der großen Errungenschaften des Gesetzgebungsverfahrens.
Ob in Ihrem Unternehmen ein HKS vorliegt, ist anhand einer individuellen Prüfung zu ermitteln. Den Prüfscope hierfür gibt Art. 6 KI-VO vor. Danach handelt es sich um ein HKS, wenn das KI-System (hierzu: Teil 1 unseres Praxisleitfadens) oder das Produkt, in dem es verwendet werden soll, einer Vorschrift des Anhangs II KI-VO unterfällt oder das KI-System einem Use-Case nach Anhang III KI-VO zugeordnet werden kann:
- Anhang II der KI-VO erfasst Produktgruppen, die durch spezielle Vorschriften außerhalb der KI-VO gesondert reguliert sind (z. B. Spielzeuge, Maschinen, Aufzüge, Funkanlagen und Medizinprodukte) sowie Bereiche, für die gesonderte Vorschriften gelten (Luftfahrt, Fahrzeuge, Eisenbahnsysteme, Schiffe).
- Anhang III der KI-VO enthält eine Auflistung von Use-Cases. Diese werden vom Gesetzgeber unter den Überschriften „Biometrische Daten“, „Kritische Infrastruktur“, „Bildung und Berufsausbildung“, „Beschäftigung, Personalverwaltung und Selbstständigkeit“, „Zugang zu wesentlichen öffentlichen und privaten Dienstleistungen“, „Strafverfolgung“, „Migration, Asyl und Grenzkontrolle“, „Justizverwaltung und demokratische Prozesse“ zusammengefasst.
Praktische Beispiele für mögliche HKS sind:
- HR: KI-System für die Analyse und Filterung von Bewerbungen
- Marketing: KI-System zur Emotionserkennung
- Bankwesen: KI-System zur Beurteilung der Kreditwürdigkeit
Sollte Ihr KI-System in Verbindung mit einer der aufgeführten Produktgruppen oder einem der aufgeführten Bereiche stehen, müssen die zusätzlichen Anforderungen und Ausnahmen genauer geprüft werden.
c) KI-Systeme mit geringem Risiko
Sollte ein KI-System weder dem Begriff der Verbotenen-KI noch dem des HKS unterfallen, handelt es sich um KI-System mit geringem Risiko. Zunächst gilt für dieses die freiwillige Einhaltung von Verhaltenskodizes. Darüber hinaus gelten für einzelne Systeme spezielle Transparenzanforderungen.
So müssen KI-Systeme, die für die Interaktion mit natürlichen Personen bestimmt sind, so konzipiert und entwickelt werden, dass die natürliche Person darüber informiert wird, dass sie es mit einem KI-System zu tun hat. Dieses Erfordernis dürfte insbesondere bei Chatbots und KI-gestützten Support-Anwendungen relevant werden.
d) Sonderkonstellation: Generative KI
Besondere Transparenzanforderungen gelten sowohl für den Anbieter als auch den Betreiber von generativen KI-Systemen wie Midjourney, Dall-E, Stable Infusion und Programmen, welche generative KI-Systeme beinhalten (bspw. „Generative Füllung“ in Adobe Photoshop). Hier muss sichergestellt werden, dass sämtliche generierten Inhalte in einem maschinenlesbaren Format gekennzeichnet und als „künstlich erzeugt“ oder „manipuliert“ erkennbar sind. Dies gilt insbesondere für die schon häufig in den Medien thematisierten Deepfakes.
e) Sonderkonstellation: KI-Modelle mit allgemeinem Verwendungszweck
Wie schon in Teil 1 dieses Praxisleitfadens kurz angerissen, gibt es neben dem KI-System auch das KI-Modell mit allgemeinem Verwendungszweck (bspw. GPT von OpenAI). In früheren Entwürfen wurden diese Modelle als „Foundation Models“ bezeichnet. Mehr dazu hier.
Für KI-Modelle mit allgemeinem Verwendungszweck wurden neue Anforderungen und eigenständige Risikoklassifizierungen eingeführt. Eine tiefergehende Betrachtung dieser Neuerungen bleibt einem gesonderten Beitrag vorbehalten.
2. Umsetzung der Verpflichtungen für das identifizierte KI-System
Nachdem Sie festgestellt haben, welche Arten von KI-Systemen in Ihrem Unternehmen vorliegen, müssen die konkreten Anforderungen identifiziert und umgesetzt werden.
Für die Implementierung der Verpflichtungen besteht ein straffer Zeitplan, aus dem sich auch eine Empfehlung hinsichtlich der Umsetzung in Ihrem Unternehmen ergeben kann:
- Die Regelungen zu Verbotener-KI gelten sechs Monate nach Inkrafttreten der KI-Verordnung; voraussichtlich ab Q4 2024.
- Die Vorschriften zu KI-Modellen mit allgemeinem Verwendungszweck entfalten zwölf Monate nach Inkrafttreten der KI-Verordnung Wirkung; voraussichtlich ab Q2 2025.
- Die Transparenzanforderungen und sonstigen Regelungen gelten vierundzwanzig Monate nach Inkrafttreten; voraussichtlich ab Q2 2026.
- Anforderungen an Hochrisiko-KI müssen vierundzwanzig Monate (für Systeme gem. Annex III) bzw. sechsunddreißig Monate (für Systeme gem. Annex II) nach Inkrafttreten der Verordnung eingehalten werden; voraussichtlich ab Q2 2026 bzw. Q2 2027.
3. Ausblick
Die Abstimmungen zur KI-Verordnung in den Ausschüssen des Europäischen Parlaments sowie im Plenum im Frühjahr 2024 gelten nur noch als reine Formsache. Eine Veröffentlichung des Gesetzes im Amtsblatt der EU und das Inkrafttreten der Verordnung werden für Q2 2024, voraussichtlich Mai oder Juni, erwartet.
Unternehmen sollten die Zeit bis dahin nutzen und die Identifizierung der KI-Systeme und KI-Modelle in ihrem Unternehmen konsequent vorantreiben, um die erforderlichen Schritte zur Umsetzung der Verpflichtungen anzugehen. Gerne unterstützen wir Sie hierbei.