06.09.2023 •

Finale Verhandlungen zum AI Act: Entwurf muss mit Blick auf die Klassifizierung von Hochrisiko-KI-Systemen nachgebessert werden.

Verpflichtende unabhängige Überprüfungen von Hochrisiko-KI-Systemen stärken Vertrauen und bieten Wettbewerbsvorteile. Generative KI-Systeme wie ChatGPT mitregulieren.

Berlin, 2. August 2023 – Das Europäische Parlament hat Mitte Juni seine finale Position zur europäischen KI-Regulierung (AI Act) verabschiedet. Die EU-Mitgliedsstaaten haben sich bereits im Dezember letzten Jahres auf einen gemeinsamen Standpunkt geeinigt. Seit Juni laufen die Trilogverhandlungen zwischen den EU-Institutionen, um einen Kompromiss zu finden. Anlässlich der aktuellen Verhandlungen sagt Johannes Kröhnert, Leiter Büro Brüssel des TÜV-Verbands:

Finale Verhandlungen zum AI Act: Entwurf muss mit Blick auf die Klassifizierung...
Quelle: TÜV Verband

„Der AI Act ist eine große Chance für Europa, zum weltweiten Vorreiter bei der vertrauenswürdigen und sicheren Nutzung künstlicher Intelligenz zu werden. Ziel muss es sein, die Chancen von KI-Systemen zu nutzen und gleichzeitig die damit verbundenen Risiken zu begrenzen.“

Die meisten Verbraucherprodukte sind nicht vom AI Act erfasst

„Der von den EU-Institutionen vorgesehene risikobasierte Ansatz ist richtig, allerdings greifen die darauf basierenden Klassifizierungsvorschriften zu kurz. Denn als hochriskant („high-risk“) sollen nur solche KI-Systeme eingestuft werden, bei denen die physischen Produkte, in die sie integriert werden, bereits einer verpflichtenden Prüfung durch unabhängige Stellen unterliegen. Das betrifft vor allem Industrieprodukte wie zum Beispiel Aufzüge oder Druckbehälter.  Der Großteil der Verbraucherprodukte, darunter Spielzeug oder Smart-Home-Geräte, fällt jedoch nicht unter diese Prüfpflicht. Das bedeutet, dass die meisten KI-basierten Verbraucherprodukte gemäß des AI Acts nicht als Hochrisikoprodukte klassifiziert werden und damit auch nicht die strengen Sicherheitsanforderungen erfüllen müssten. Hier sehen wir eine große Regelungslücke, die der EU-Gesetzgeber in den Verhandlungen noch schließen muss.“

Risikoklassifizierung durch Anbieter kann zu Fehleinschätzungen führen

„Ebenso kritisch sehen wir die Klassifizierung von KI-Systemen, die nicht in bestehende Produkte integriert werden, sondern als reine Software für bestimmte Anwendungsbereiche auf den Markt gebracht werden (Stand-Alone-KI). Dazu zählen zum Beispiel KI-Systeme für Einstellungsverfahren oder Kreditwürdigkeitsprüfungen. Nach dem Vorschlag des Europäischen Parlaments sollen die Anbieter die Risikobewertung selbst durchführen und am Ende auch selbst entscheiden, ob ihr Produkt als Hochrisikoprodukt einzustufen ist oder nicht. Dadurch besteht die Gefahr, dass es zu Fehleinschätzungen kommt. Der EU-Gesetzgeber sollte deshalb klare und eindeutige Klassifizierungskriterien aufstellen, um die Wirksamkeit der verpflichtenden Anforderungen sicherzustellen.“ 

Verpflichtende unabhängige Prüfungen von Hochrisiko-KI-Systemen stärken Vertrauen

„Auch bei der Überprüfung von KI-Systemen besteht Nachbesserungsbedarf. Hier setzt der EU-Gesetzgeber sehr stark auf das Instrument der Eigenerklärung der Anbieter. Gerade von Hochrisikosystemen können jedoch große Gefahren ausgehen, sowohl für Leib und Leben als auch für die Grundrechte der Nutzer:innen (Sicherheit, Privatsphäre) oder die Umwelt.  Anstelle einer Selbsterklärung braucht es eine umfassende Nachweispflicht einschließlich einer Überprüfung von unabhängigen Stellen. Hochriskante KI-Systeme sollten grundsätzlich einer verpflichtenden Zertifizierung durch Benannte Stellen unterliegen. Nur durch unabhängige Prüfungen werden mögliche Interessenskonflikte der Anbieter ausgeschlossen. Zugleich wird das Vertrauen der Menschen in die Technologie gestärkt. Gemäß einer aktuellen repräsentativen Umfrage des TÜV-Verbands befürworten 86 Prozent der Deutschen eine verpflichtende Prüfung der Qualität und Sicherheit von KI-Systemen. ‚AI Made in Europe‘ kann so zu einem echten Qualitätsstandard und globalen Wettbewerbsvorteil werden.“

Reallabore können notwendige Konformitätsbewertung nicht ersetzen

„Die Einrichtung von KI-Reallaboren („regulatory sandboxes“) ist eine gute Möglichkeit, um die Entwicklung und Erprobung von KI-Systemen insbesondere für KMUs zu erleichtern. Auch die Forderung des EU-Parlaments nach der verpflichtenden Einrichtung eines Reallabors in einem oder in Kooperation mit anderen EU-Mitgliedstaaten ist zu unterstützen. Allerdings muss klar sein, dass die Nutzung eines Reallabors durch ein KI-System allein keine Konformitätsvermutung auslösen kann. Der Anbieter muss weiterhin ein vollständiges Konformitätsbewertungsverfahren durchlaufen, bevor er sein KI-System auf den Markt bringen kann. Das gilt insbesondere, wenn eine unabhängige Stelle verpflichtend mit einzubinden ist. Hier sollte der EU-Gesetzgeber im AI Act Klarheit schaffen.“

„Bei der Entwicklung und Nutzung von Reallaboren sollten unabhängige Prüforganisationen als Partner mit einbezogen werden. Mit dem ‚TÜV AI Lab‘ hat es sich der TÜV-Verband zur Aufgabe gemacht, die technischen und regulatorischen Anforderungen an Künstliche Intelligenz zu identifizieren und die Entwicklung zukünftiger Standards für die Prüfung sicherheitskritischer KI-Anwendungen zu begleiten. Zudem engagieren wir uns seit längerem aktiv für die Einrichtung von interdisziplinären ‚AI Quality & Testing Hubs‘ auf Landes- und Bundesebene.“

ChatGPT & Co. muss im AI Act mitreguliert werden

„Die letzten Monate haben deutlich gezeigt, welches Entwicklungspotenzial in Basismodellen und generativen KI-Systemen steckt, und welche Risiken von ihnen ausgehen kann. Es ist daher zu begrüßen, dass das EU-Parlament diese Technologie direkt im AI Act mitregulieren will. Auch generative KI-Systeme müssen grundlegende Sicherheitsanforderungen erfüllen. In einem zweiten Schritt sollte dann aber auch geprüft werden, welche Basismodelle als hochkritisch einzustufen sind. Diese sollten dann allen Anforderungen des AI Acts unterliegen, inklusive einer unabhängigen Drittprüfung durch Benannte Stellen. Europäische Normungsorganisationen und Prüfstellen arbeiten derzeit daran, entsprechende Normen und Prüfstandards zu entwickeln.“  

Download

Anlässlich der Trilogverhandlungen zum AI Act veröffentlicht der TÜV-Verband Empfehlungen für eine sichere Regulierung von künstlicher Intelligenz:

https://www.tuev-verband.de/positionspapiere/empfehlungen-zu-den-ai-act-trilogverhandlungen

Über den TÜV-Verband: Als TÜV-Verband e.V. vertreten wir die politischen Interessen der TÜV-Prüforganisationen und fördern den fachlichen Austausch unserer Mitglieder. Wir setzen uns für die technische und digitale Sicherheit sowie die Nachhaltigkeit von Fahrzeugen, Produkten, Anlagen und Dienstleistungen ein. Grundlage dafür sind allgemeingültige Standards, unabhängige Prüfungen und qualifizierte Weiterbildung. Unser Ziel ist es, das hohe Niveau der technischen Sicherheit zu wahren, Vertrauen in die digitale Welt zu schaffen und unsere Lebensgrundlagen zu erhalten. Dafür sind wir im regelmäßigen Austausch mit Politik, Behörden, Medien, Unternehmen und Verbraucher:innen.


Mehr zu den Themen:

Verwandte Artikel

Krisenfest dank KI: Wie KI-Anwendungen Ernstfälle handhabbar machen

Krisenfest dank KI: Wie KI-Anwendungen Ernstfälle handhabbar machen

Anwendungsbeispiele aus dem Technologieprogramm KI-Innovationswettbewerb des BMWK zeigen, wie KI-basierte Anwendungen das Krisen- und Notfall­management auf ein neues Level heben.

KI-SIGS: SZENARIS im Magazin physiopraxis

KI-SIGS: SZENARIS im Magazin physiopraxis

In der Aprilausgabe der Zeitschrift physiopraxis berichtet SZENARIS über Ergebnisse aus dem vom Bundesministerium für Wirtschaft und Klimaschutz geförderten Projekt „KI-SIGS: Bewegungstraining“.

TÜV-Verband begrüßt Annahme des AI Acts im EU-Rat

TÜV-Verband begrüßt Annahme des AI Acts im EU-Rat

AI Act schützt Gesellschaft vor negativen Auswirkungen von KI-Systemen. Etablierung eines Leitmarkts für sichere KI „Made in Europe“. TÜV-Verband fordert unbürokratische Umsetzung.

:

Photo

Künstliche Intelligenz

Generative KI wie ChatGPT und Co. haben den Stand der Technik erstmals einer breiten Öffentlichkeit demonstriert und KI in den Fokus der Öffentlichkeit gerückt.

Photo

Entwickung Cybercrime 2023/2024

Die Bedrohung im Cyberraum ist so hoch wie noch nie. Aber es gibt auch wirksame Präventionsmöglichkeiten und hervorragende Bekämpfungserfolge. All das lässt sich an der aktuellen Entwicklung in…