Europäisches Gesetz zur künstlichen Intelligenz: Der EU AI Act - Richtlinien für eine sichere und verantwortungsvolle KI-Nutzung

Die Verwendung künstlicher Intelligenz (KI) verspricht immense Chancen, aber birgt auch erhebliche Risiken. Bisher fehlte es sowohl in Deutschland als auch in Europa und anderen Teilen der Welt an einem umfassenden Rechtsrahmen für den Einsatz von KI. Doch nun unternimmt die Europäische Union den ersten bedeutenden Schritt, um dieser Herausforderung zu begegnen.

Der Artificial Intelligence Act (AIA), auch bekannt als EU AI Act, soll die Zukunft dieser bahnbrechenden Technologie auf sichere und verantwortungsvolle Weise gestalten.

Ende 2023 haben sich das Europaparlament und die Mitgliedsstaaten der EU nach langen Verhandlungen auf eine gemeinsame Version dieser Regelung geeinigt. Derzeit werden die technischen Details abgestimmt. Formal müssen das Europaparlament und der EU-Rat noch zustimmen, bevor das Gesetz im Mai dieses Jahres in Kraft treten kann. Die Verordnung sieht eine Übergangsfrist von voraussichtlich 24 Monaten vor, innerhalb derer Organisationen die neuen Anforderungen umsetzen müssen.

Die Grundidee des EU AI Act ist einfach: Je größer das Risiko eines KI-Systems, desto strenger sind die damit verbundenen Anforderungen und Pflichten. Künstliche Intelligenz wird in verschiedene Risikoklassen eingeteilt: "inakzeptabel", "hoch", "begrenzt" und "gering/minimal". Systeme mit einem inakzeptablen Risiko, wie etwa biometrische Identifikationen von Menschen in öffentlich zugänglichen Räumen, werden zukünftig verboten sein. Zu den KI-Anwendungen mit hohem Risiko zählen unter anderem Systeme, die für die Verwaltung und den Betrieb kritischer Infrastrukturen eingesetzt werden. Bei Interaktionen mit Chatbots liegt das Risiko auf einem begrenzten Niveau, während die Nutzung von Spamfiltern in die Kategorie geringes/minimales Risiko fällt.

Neben dem Schutz von Grundrechten und der Rechtsstaatlichkeit zielen die Regeln darauf ab, die Datenqualität bei der Entwicklung von Algorithmen zu gewährleisten und sicherzustellen, dass keine Urheberrechte bei der KI-Entwicklung verletzt werden. Entwickler müssen außerdem klar angeben, dass Texte, Bilder und Töne, die von künstlicher Intelligenz erstellt wurden, auf dieser Technologie beruhen.

Die Pflichten des EU AI Act betreffen hauptsächlich Hersteller, Anbieter und Händler von KI-Systemen, aber auch Nutzer von KI-Systemen. Dies könnte praktisch jedes Ingenieurbüro einschließen.

Parallel zum AI Act arbeitet die EU an einer KI-Haftungsrichtlinie und einer Aktualisierung der Produkthaftungsrichtlinie. Diese sollen Haftungslücken beim Einsatz von KI-Systemen schließen und die Beweispflicht bei Rechtsverletzungen infolge eines KI-Einsatzes regeln.

Der EU AI Act ist ein wichtiger Schritt, um die Potenziale von künstlicher Intelligenz zu nutzen und gleichzeitig die damit verbundenen Risiken zu minimieren. Mit dieser wegweisenden Regelung setzt die Europäische Union weltweit Maßstäbe für einen verantwortungsvollen Umgang mit KI. Weitere Informationen und Beispiele zu den verschiedenen Risikoklassen finden Sie im angefügten Link.

Weiterführende Links

 © Sutthiphong | AdobeStock
© Sutthiphong | AdobeStock

Link per E-Mail teilen

Ihre Empfehlung wurde erfolgreich an versendet!

Leider ist ein Fehler beim Senden aufgetreten.