Künstliche Intelligenz
Künstliche Intelligenz (KI) ist eine der Schlüsseltechnologien unserer Zeit. Generative KI wie ChatGPT und Co. haben den Stand der Technik erstmals einer breiten Öffentlichkeit demonstriert und KI in den Fokus der Öffentlichkeit gerückt. Algorithmen helfen Mediziner:innen bei der Diagnose von Krankheiten, Verbraucher:innen beim Energiesparen oder Singles bei der Wahl der Partner:innen. Autonomes Fahren und neue Mobilitätskonzepte wären ohne KI nicht denkbar. Das bedeutet aber auch: Die Risiken durch fehlerhafte KI-Anwendungen, Eingriffe in die Privatsphäre oder Cyberangriffe steigen.
Viele KI-gestützte Systeme sind für Nutzer:innen wie eine „Blackbox“, deren Funktionsweise sie weder nachvollziehen noch verstehen. Sie müssen darauf vertrauen, dass die Anbieter dieser Systeme höchste Sicherheitsstandards einhalten. Deshalb engagieren sich der TÜV-Verband und seine Mitglieder dafür, prüfbare Sicherheitsstandards zu etablieren, die KI-Anwendungen gleichzeitig transparent und sicher machen. Dazu sind auf politischer Ebene noch einige Schritte notwendig: Sicherheitsstandards müssen formuliert, ethische Fragen geklärt, Prüfszenarien entwickelt und Institutionen für deren Umsetzung benannt werden.
KI BRAUCHT STANDARDS
Wie wichtig Vertrauen und Sicherheit für den Erfolg von Künstlicher Intelligenz sind, hat die KI-Umfrage des TÜV-Verbands gezeigt: Vier von fünf Bundesbürger:innen fordern ein von unabhängigen Stellen vergebenes Prüfzeichen für Künstliche Intelligenz, um das Vertrauen in die Technologie zu stärken. Der TÜV-Verband unterstützt daher den Einsatz von Künstlicher Intelligenz zum Nutzen der Gesellschaft und setzt sich mit seinen Mitgliedern dafür ein, die Qualitäts- und Sicherheitsstandards von KI-gestützten Systemen zu verbessern. Insbesondere für den Einsatz von KI-Systemen mit einem hohen Risiko für den Menschen sollten verbindliche Sicherheitsstandards gelten, deren Einhaltung von unabhängigen Prüforganisationen überwacht wird. Denn erst durch die sichere Anwendung KI-gestützter Systeme wird die notwendige gesellschaftliche Akzeptanz für ihren Einsatz geschaffen.
Ein wichtiger Baustein für Vertrauen in Künstliche Intelligenz ist der von der EU-Kommission vorgeschlagene AI Act. Die darin vorgeschlagene risikobasierte Regulierung ist richtig. Der TÜV-Verband äußert sich regelmäßig zum notwendigen Änderungsbedarf beim aktuellen Regulierungsvorschlag.
TESTZENTREN FÜR KÜNSTLICHE INTELLIGENZ
Bei einer komplexen Technologie wie Künstlicher Intelligenz reicht es nicht aus, Gesetzestexte zu formulieren. Die praktische Umsetzung der KI-Regulierung muss schon jetzt vorangetrieben werden. Die Entwicklung von Standards für die Prüfung sicherheitskritischer KI-Anwendungen ist ebenfalls eine Aufgabe des AI Labs. Hier finden Sie alle weiteren Informationen zum Thema.
Der TÜV-Verband engagiert sich seit längerem für die Einrichtung von interdisziplinären „AI Quality & Testing Hubs“ auf Länder- und Bundesebene. Auch die Ausbildung von Fachkräften soll dort vorangetrieben werden, genauso wie die Umsetzung von Forschungsvorhaben. Kleineren und mittelständischen Unternehmen können sie als Anlaufstelle bei der Umsetzung der anstehenden KI-Regulierung dienen. Der „AI Quality & Testing Hub“ wurde vom TÜV-Verband gemeinsam mit dem VDE initiiert. Die Bundesländer Berlin, Hessen und Nordrhein-Westfalen haben bereits konkrete Aktivitäten gestartet, um die „AI Quality & Testing Hubs“ in ihren Ländern umzusetzen bzw. mit Förderprojekten zu unterstützen.
Regelmäßig diskutieren wir diese Themen gemeinsam mit führenden Expert:innen aus Politik, Wissenschaft und Wirtschaft bei der alljährlichen TÜV AI Conference. Alle Informationen zur aktuellen Konferenz finden Sie hier.
TÜV-Verband e. V.
Friedrichstraße 136 10117 Berlin
Tel.: +49 30 760095-400
Fax: +49 30 760095-401
E-Mail: berlin@tuev-verband.de