Internationale Cybersicherheitsbehörden veröffentlichen Leitfaden zur Entwicklung sicherer KI-Systeme

Künstliche Intelligenz (KI) kann unserer Gesellschaft zahlreiche Vorteile bieten. Diese Systeme können unter anderem bei Vorhersagen über Klima und Finanzmärkte, automatisierten medizinischen Diagnosen und (teil-) autonomen Transportmitteln eingesetzt werden. Dazu müssen die Systeme aus Sicht des Bundesamtes für Sicherheit in der Informationstechnik (BSI) jedoch nicht nur sicher geplant und entwickelt, sondern auch sicher eingeführt und betrieben werden.

Internationale Cybersicherheitsbehörden veröffentlichen Leitfaden zur...
Quelle: BSI

Das heute veröffentlichte Dokument „Guidelines for Secure AI System Development“ der Partnerbehörden des BSI aus UK und USA stellt einen Leitfaden zur Entwicklung sicherer KI-Systeme bereit. 23 internationale Cybersicherheitsbehörden aus 18 Ländern unterstützen den Leitfaden, an dem auch das BSI mitgewirkt hat. Die Guidelines sollen den Betreibern helfen, KI-Systeme zu entwickeln, die wichtige Anforderungen erfüllen: Die Systeme müssen jederzeit bei Bedarf verfügbar sein und dabei erwartungsgemäß und zuverlässig arbeiten. Außerdem dürfen sie keine sensiblen Daten preisgeben.

BSI-Präsidentin Claudia Plattner ordnet ein:

„Das BSI gestaltet die Cybersicherheit bei der Entwicklung von KI-Systemen von Anfang an mit. So können wir sicherstellen, dass wir die Potenziale dieser Schlüsseltechnologie für die Digitalisierung Deutschlands sicher nutzen und Risiken transparent kommunizieren. Bei den Nutzerinnen und Nutzern sorgt das für mehr Vertrauen und insgesamt für eine höhere Cyberresilienz der Gesellschaft. Ich freue mich, dass wir international dafür an einem Strang ziehen.“

Die Veröffentlichung richtet sich in erster Linie an Betreiber von KI-Produkten. In Verbindung mit bestehenden Prinzipien wie „security-by-design“ und „security-by-default“ zeigt das Dokument, welche KI-spezifischen Schadensanfälligkeiten existieren und wie diese in der Entwicklung berücksichtigt werden können. Endnutzer haben meist keine Einblicke, um die Risiken, die mit KI verbunden sind, nachzuvollziehen. Die Cybersicherheitsbehörden fordern auch, dass Betreiber von KI-Systemen Anwenderinnen und Anwender zu möglichen Risiken informieren und aufzeigen, wie sie die Systeme sicher nutzen.

Die gemeinsame internationale Veröffentlichung verdeutlicht aus Sicht des BSI, dass Fragen der Sicherheit von KI-Systemen nur im Verbund mit gleichgesinnten internationalen Partnern gelöst werden können. Sie unterstreicht zudem die Bedeutung des Themas und den dringenden Handlungsbedarf.


Verwandte Artikel

Sechs Trends für die Sicherheitsbranche im Jahr 2022

Sechs Trends für die Sicherheitsbranche im Jahr 2022

Axis Communications, Technologieführer im Bereich Netzwerk-Video, blickt auf 2022: Sechs große Technologietrends stechen dabei heraus.

Für mehr Cybersicherheit! Hochschulen starten gemeinsames Security Operation Center

Für mehr Cybersicherheit! Hochschulen starten gemeinsames Security Operation Center

Projekt der Hochschulen für angewandte Wissenschaften, Kunst- und Musikhochschulen und der Deutschen Sporthochschule

Krisenfest dank KI: Wie KI-Anwendungen Ernstfälle handhabbar machen

Krisenfest dank KI: Wie KI-Anwendungen Ernstfälle handhabbar machen

Anwendungsbeispiele aus dem Technologieprogramm KI-Innovationswettbewerb des BMWK zeigen, wie KI-basierte Anwendungen das Krisen- und Notfall­management auf ein neues Level heben.

:

Photo

Entwickung Cybercrime 2023/2024

Die Bedrohung im Cyberraum ist so hoch wie noch nie. Aber es gibt auch wirksame Präventionsmöglichkeiten und hervorragende Bekämpfungserfolge. All das lässt sich an der aktuellen Entwicklung in…