A. Einführung
Künstliche Intelligenz (KI) hat in den letzten Jahren eine rasante Entwicklung durchlebt und ist mittlerweile aus unserem Alltag nicht mehr wegzudenken: Von Chatbots wie ChatGPT über Suchmaschinen und Haushaltsgeräte bis hin zu Fahrzeugen – die Fähigkeit von Maschinen, nunmehr Aufgaben (zumindest teilweise) autonom ausführen zu können, die traditionell immer menschlicher Intelligenz vorbehalten waren, ist omnipräsent und verändert grundlegend die Art und Weise, wie wir arbeiten und leben. Dieser technologische Quantensprung – durchaus vergleichbar mit der industriellen Revolution im 19. Jahrhundert – eröffnet dabei auch Unternehmen neue Möglichkeiten zur Steigerung von Effizienz und Innovation.
Mit einer – mit diesem Beitrag beginnenden – dreiteiligen Serie von Artikeln eröffnet der EY Law Newsletter den Einstieg in die kommende EU-Regulierung dieser neuen Materie.
B. Die EU-KI-Verordnung und ihr Regulierungsziel
Der Einsatz von KI hat neben seinen beeindruckenden positiven Möglichkeiten in all unseren Lebensbereichen auch negative Seiten. Je nach Verwendungszweck können durch KI-Systeme erhebliche Risiken für öffentliche oder private Interessen sowie die Gesundheit und Sicherheit natürlicher Personen entstehen; so etwa beim KI-gestützten „Social Scoring“, das beispielsweise in der Volksrepublik China bereits systematisch und umfassend u. a. bei der Vergabe von Kredit- und Ausbildungsplätzen eingesetzt wird. Um derartigen Risiken vorzubeugen, haben das Europäische Parlament und der Rat am 08.12.2023 den entscheidenden politischen Konsens über den Entwurf der EU-KI-Verordnung (KI-VO; sofern nicht anders gekennzeichnet, handelt es sich bei allen in diesem Beitrag genannten Artikeln und Annexen um solche aus der KI-VO) erzielt. In der zweiten Januarhälfte 2024 wurde dann die endgültige Textfassung bekannt. Die finale Fassung soll am 12.07.2024 im EU-Amtsblatt veröffentlicht werden und 20 Tage später, am 01.08.2024, in Kraft treten.
Ambitioniertes Ziel der Verordnung ist es, ein hohes Schutzniveau für die Gesundheit und die Sicherheit natürlicher Personen sowie deren Grundrechte mit dem Einsatz von KI in Einklang zu bringen und gleichzeitig Investitionen und Innovationen im KI-Bereich in der EU zu fördern (Art. 1 Abs. 1 KI-VO). Dabei steht die KI-VO nicht für sich allein, sondern ist in das „New Legislation Framework“ (NLF) eingebettet. Das 2008 durch die EU verabschiedete NLF zielt darauf ab, den EU-Binnenmarkt für Waren zu verbessern und die Bedingungen für das Inverkehrbringen einer breiten Palette von Produkten auf dem EU-Markt zu stärken. Es handelt sich um ein Paket von Maßnahmen, die darauf abzielen, die Marktüberwachung zu optimieren und die Qualität der Konformitätsbewertungen zu steigern. Außerdem wird die Verwendung der CE-Kennzeichnung präzisiert und ein Instrumentarium von Maßnahmen geschaffen, das in der Produktgesetzgebung verwendet werden kann.
C. Anwendungsbereich und risikobasierter Ansatz
Im Zentrum des sachlichen Anwendungsbereichs stehen das sogenannte KI-System (Art. 3 Nr. 1 KI-VO) und die „KI-Modelle mit allgemeinem Verwendungszweck“ (Art. 3 Nr. 63 KI-VO). Ein KI-System ist dabei
„ein maschinengestütztes System, das für einen in wechselndem Maße autonomen Betrieb ausgelegt ist, das nach seiner Einführung anpassungsfähig sein kann und das aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ergebnisse wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen hervorgebracht werden, die physische oder virtuelle Umgebungen beeinflussen können.“
KI-Modelle mit allgemeinem Verwendungszweck (kurz: GPAI (aus dem Engl. „General Purpose AI“)) hingegen sind – kurz gesagt – noch kein KI-System, sondern Modelle, die „eine erhebliche allgemeine Verwendbarkeit“ aufweisen und daher für ein breites Spektrum an Aufgaben in nachgelagerten Systemen eingesetzt werden können.
Durch ihre „Cross-Sector Legislation Harmonisation” reguliert die KI-VO multisektoral und wirkt sich so auf den gesamten Lebenszyklus und die gesamte Lieferkette eines KI-Systems aus.
Dabei verfolgt die KI-VO einen risikobasierten Ansatz und klassifiziert (ausgehend von dem potenziellen Schaden, den ein KI-System aus Sicht des Gesetzgebers verursachen kann) vier Risikokategorien. Aus ihnen leiten sich die konkreten rechtlichen Anforderungen an das jeweilige KI-System ab: