Was ist der EU AI Act?
Das Gesetz der Europäischen Union über künstliche Intelligenz (EU AI Act) ist ein vorgeschlagener Rechtsrahmen für die Entwicklung, Vermarktung und Nutzung von künstlicher Intelligenz (KI).
Mit diesem Rahmen sollen künstliche Intelligenz rechtlich definiert und Dokumentations-, Audit- und Prozessanforderungen für KI-Anbieter festgelegt werden.
Das Rahmenwerk ist risikobasiert und soll wie die Allgemeine Datenschutzverordnung (engl. General Data Protection Regulation, GDPR) ein Gleichgewicht zwischen Innovation, wirtschaftlichen Interessen und den Rechten und der Sicherheit der Bürger herstellen.
Nach der Verabschiedung wird er für alle 27 EU-Mitgliedstaaten verbindlich und für alle gelten, die KI-Systeme in der Europäischen Union entwickeln und verbreiten, einschließlich ausländischer Unternehmen wie Microsoft, Google und OpenAI.
Wenn der Rechtsrahmen in Kraft tritt, müssen Unternehmen die von ihren KI-Systemen ausgehenden Risiken vor deren Einsatz förmlich bewerten.
Die europäische Regierung erhält die Befugnis, Unternehmen, die gegen die Vorschriften des Rechtsrahmens verstoßen, mit Geldbußen zu belegen.
Die Gesetzgebung wird auch den europäischen Bürgerinnen und Bürgern die Befugnis geben, Beschwerden gegen KI-Anbieter einzureichen, die ihrer Meinung nach gegen das Gesetz verstoßen.
Definition von KI
Die rechtliche Definition von KI war eine wichtige Frage bei der Festlegung des Geltungsbereichs der vorgeschlagenen Verordnung.
Die Definition wurde mehrfach überarbeitet, bevor der Rahmen im Juni 2023 vom Europäischen Parlament verabschiedet wurde.
Die jüngste Überarbeitung des Gesetzes definiert KI als „ein maschinengestütztes System, das so konzipiert ist, dass es mit einem unterschiedlichen Grad an Autonomie arbeitet, und das für explizite oder implizite Ziele Ergebnisse wie Vorhersagen, Empfehlungen oder Entscheidungen erzeugen kann, die physische oder virtuelle Umgebungen beeinflussen“.
Risikostufen
Nach dem KI-Gesetz wird jede künstliche Intelligenz einer von vier Risikostufen zugeordnet:
- Unannehmbares Risiko
KI-Systeme, die ein unannehmbares Risiko für die Grundrechte und -freiheiten darstellen, werden verboten.
Dazu gehören KI-Systeme, die zur Erstellung von Social-Scoring-Systemen verwendet werden, die zur Diskriminierung bestimmter Personengruppen eingesetzt werden könnten; KI-Systeme, die zur Erstellung von Deepfakes zur Verbreitung von Fehlinformationen oder Propaganda eingesetzt werden könnten; und nicht autorisierte KI-Systeme, die zur Kontrolle kritischer Infrastrukturen wie Stromnetze oder Verkehrssysteme genutzt werden könnten.
- Hohes Risiko
KI-Systeme, die ein hohes Risiko für die Grundrechte und -freiheiten darstellen, unterliegen einer Reihe von regulatorischen Compliance-Anforderungen.
Dazu gehören KI-Systeme, die zur Bewertung der Kreditwürdigkeit oder für Einstellungsentscheidungen eingesetzt werden; KI-Systeme, die zur Gesichtserkennung oder für andere biometrische Identifizierungsdienste verwendet werden; und KI-Systeme, die für medizinische Diagnosen oder Behandlungsempfehlungen genutzt werden.
KI-Systeme mit hohem Risiko bedürfen einer Genehmigung durch eine staatliche Aufsichtsbehörde.
Sie müssen auf hochwertigen Daten trainiert werden, über Protokollierungs- und Rückverfolgbarkeitsfunktionen verfügen und einen gründlichen Risikomanagement- und -minderungsprozess durchlaufen.
Den Anträgen muss eine ausführliche Dokumentation beigefügt werden.
- Begrenztes Risiko
KI-Systeme, die ein begrenztes Risiko für die Grundrechte und -freiheiten darstellen, unterliegen keinen besonderen Anforderungen, müssen aber dennoch die allgemeinen Grundsätze einer verantwortungsvollen KI-Ethik einhalten.
Zu dieser Risikokategorie gehören KI-Systeme, die für den Kundenservice oder die Beantwortung von Fragen eingesetzt werden; KI-Systeme, die personalisierte Nachrichten oder Produktempfehlungen generieren; und KI-Systeme, die zur Steuerung von Smart-Home-Geräten oder zum Spielen verwendet werden.
- Minimales oder kein Risiko
Für KI-Systeme, die nur ein geringes oder gar kein Risiko für die Grundrechte und -freiheiten darstellen, gelten keine besonderen Anforderungen.
Dazu gehören KI-Systeme zur Erkennung und Blockierung von Phishing-E-Mails, zur Erstellung von Wettervorhersagen, zur Verarbeitung von Bildern/Videos oder zur Generierung einfacher Prognosen, etwa ob ein Kunde wahrscheinlich auf eine Anzeige klicken wird.
Das EU-KI-Gesetz kategorisiert unbekannte Risikostufen nicht ausdrücklich, aber es besagt, dass ein KI-System, das ein „noch nicht bekanntes Risiko“ darstellt, als hoch riskant einzustufen ist.
Einhaltung des EU-KI-Gesetzes
Das KI-Gesetz der Europäischen Union verpflichtet die EU-Mitgliedstaaten, mindestens eine offizielle sichere Sandbox-Umgebung zum Testen von KI-Systemen vor deren Einführung einzurichten.
Die Durchsetzung der Vorschriften obliegt den 27 EU-Mitgliedstaaten. Bei Nichteinhaltung drohen Strafen von bis zu 40 € Millionen oder 7 % des weltweiten Jahresumsatzes eines Unternehmens, je nachdem, welcher Betrag höher ist.
Viele führende europäische Unternehmen haben sich gegen die vorgeschlagene Gesetzgebung der Europäischen Union gewandt und davor gewarnt, dass die geplanten Regeln für risikoreiche KI zu weit gehen, insbesondere im Hinblick auf die Regulierung von generativer KI und Basismodellen, der Technologie hinter beliebten Plattformen wie ChatGPT.
Sie haben ihre Besorgnis darüber zum Ausdruck gebracht, dass der EU-Vorschlag GPAIS (General Purpose Artificial Intelligence Systems) und große Sprachmodelle (LLMs) ungeachtet ihrer Anwendungsfälle zu weit fasst, und behaupten, dass der damit verbundene hohe Befolgungsaufwand die Innovation hemmen und Investoren abschrecken wird.
Konkurrierende Vorschläge für KI-Gesetzgebung
Das KI-Gesetz der Europäischen Union wurde im Juni 2023 vom Europäischen Parlament verabschiedet.
Nach langen Verhandlungen haben sich die europäischen Gesetzgeber, das Europäische Parlament und der Rat der EU auf das Gesetz über die Künstliche Intelligenz politisch geeinigt.
Die Einigung muss nun noch vom Europäischen Parlament und vom Rat formell genehmigt werden. Nach der Verabschiedung des KI-Gesetzes wird es eine Übergangszeit geben, bevor die Verordnung anwendbar wird.
Mit der fortschreitenden Entwicklung der KI erkennen jedoch auch andere Länder und Organisationen die Notwendigkeit, künstliche Intelligenz gesetzlich zu regeln.
Im Allgemeinen unterscheiden sich die konkurrierenden Vorschläge zur Regulierung von KI in ihrem Regelungsumfang, ihrem Detaillierungsgrad sowie ihren Durchsetzungsmechanismen.
Einige Staaten sind eher über die ethischen Risiken der KI besorgt, wie z. B. die maschinelle Voreingenommenheit und die Verletzung der Privatsphäre, während andere sich mehr Gedanken über die Förderung der potenziellen Vorteile der KI und des Wirtschaftswachstums machen.
Mehr als ein Land kämpft mit der Schaffung einer Gesetzgebung, die ein Gleichgewicht zwischen diesen beiden Anliegen herstellt.
Zu den konkurrierenden Initiativen und vorgeschlagenen Rahmenwerken aus aller Welt gehören:
Land
Gesetzgebung/Strategie
Beschreibung
USA
Rahmen für sichere Innovation für KI-Politik
Ein Rahmen, der vier „Leitplanken“ für die KI-Regulierung umreißt: Rechenschaftspflicht, Transparenz, Erklärbarkeit und Sicherheit.
Entwurf für ein „AI Bill of Rights“
Skizziert branchenweite Best-Practice-Grundsätze für die Entwicklung und Nutzung von KI.
Nationale Initiative für künstliche Intelligenz
Eine überparteiliche Initiative zur Beschleunigung der verantwortungsvollen, ethischen Entwicklung und Einführung von KI in den Vereinigten Staaten.
China
Entwicklungsplan für künstliche Intelligenz der neuen Generation
Ein Plan, der Chinas Vision für die KI-Entwicklung, insbesondere in den Bereichen Gesundheit, Verkehr und Sicherheit, umreißt.
Vorschriften über die Verwaltung von Produkten und Dienstleistungen, die durch künstliche Intelligenz unterstützt werden
Schafft einen Rahmen für Modelle und Regeln, die zur Erstellung von KI-gestützten Inhalten verwendet werden.
KI-Ethik-Leitlinien für die Entwicklung und Anwendung von künstlicher Intelligenz
Richtlinien, die Grundsätze für die ethische Entwicklung und Nutzung von KI in China enthalten.
Vereinigtes Königreich
Nationale KI-Strategie
Eine Strategie, die die Vision der britischen Regierung für die KI-Entwicklung in den Bereichen Gesundheit, Bildung und Umwelt umreißt.
KI-Governance-Rahmen
Rahmenwerk, das den Schwerpunkt auf Innovation legt und Grundsätze für die KI-Governance im Vereinigten Königreich enthält, darunter Transparenz, Rechenschaftspflicht und Ethik.
Kanada
Das Gesetz über künstliche Intelligenz und Daten (AIDA)
Vorschlag für einen Rechtsrahmen für KI in Kanada, der alle KI-Anwendungen unabhängig vom Risiko abdeckt.
Kanadaweite KI-Strategie
Die Vision der kanadischen Regierung für die KI-Entwicklung konzentriert sich auf die Bereiche Gesundheitswesen, Verkehr und Umwelt.
Australien
KI-Ethik-Rahmen
Ein Rahmen, der die ethischen Grundsätze für die Entwicklung und den Einsatz von KI in Australien darlegt.
Südkorea
KI-Ethik-Richtlinien
Richtlinien mit ethischen Grundsätzen für die Entwicklung und Nutzung von KI in Südkorea.
Gesetz zur Förderung der KI-Industrie
Ein Masterplan, der die bisher fragmentierten Rechtsvorschriften für KI in Südkorea zusammenfasst.
Japan
KI-Ethik-Richtlinien
Leitlinien für die Entwicklung und den Einsatz von KI in Japan.
Gesetz zur Förderung der Forschung, Entwicklung und Nutzung von künstlicher Intelligenz
Ein nicht-regulatorischer und nicht-bindender Rahmen für die Entwicklung und Nutzung von KI in Japan.
Singapur
KI-Governance-Rahmen
Rahmen für KI-Governance in Singapur, der Transparenz, Rechenschaftspflicht und Ethik berücksichtigt.
Nationale Strategie für künstliche Intelligenz
Eine Strategie, die die Vision der Regierung Singapurs für die KI-Entwicklung in den Bereichen Gesundheit, Bildung und Umwelt darlegt.