ETSI ISG SAI (Sicherheit für Künstliche Intelligenz)
Die Industry Specification Group der ETSI zur Sicherung der Künstlichen Intelligenz (ISG SAI) konzentriert sich auf die Sicherung der KI sowohl aus Nutzungs- als auch aus adversarialer Perspektive und zielt darauf ab, eine standardisierte Grundlage für robuste und sichere KI-Bereitstellungen zu schaffen.
Fordern Sie eine Demo der maßgeschneiderten Secureframe-Frameworks anDefinition und Zweck
Das Hauptziel der ISG SAI besteht darin, Bedrohungen zu identifizieren, die sich aus der Bereitstellung von KI ergeben, und Strategien zur Minderung dieser Risiken vorzuschlagen. Sie zielen darauf ab, ein detailliertes Verständnis dieser Bedrohungen in verschiedenen Anwendungsfällen zu bieten und Sicherheitsmaßnahmen vorzuschlagen, um potenzielle Risiken zu mindern.
Leitungsgremium
Das Leitungsgremium für diese Initiative ist das Europäische Institut für Telekommunikationsnormen (ETSI).
Zuletzt aktualisiert
Die neuesten Veröffentlichungen der ETSI ISG SAI wurden 2023 herausgegeben.
Gilt für
Die ETSI ISG SAI findet überwiegend Anwendung in Branchen und Sektoren, die Künstliche Intelligenz einsetzen, was von Telekommunikation über Gesundheit, Automobilindustrie und Finanzdienstleistungen bis hin zu anderen Bereichen reichen kann.
Kontrollen und Anforderungen
Die spezifischen Kontrollen oder Anforderungen sind in den Berichten und Spezifikationen der ISG SAI detailliert beschrieben. Themen könnten unter anderem Bedrohungsmodellierung für KI, Sicherung von KI-Trainingsdaten, Sicherstellung der Robustheit trainierter Modelle usw. umfassen.
Bitte besuchen Sie die offizielle Website des ETSI ISG SAI Komitees für Details.
Audittyp, Häufigkeit und Dauer
Die ETSI ISG SAI ist kein "Audit"-Rahmenwerk, sondern vielmehr eine Richtlinien- und Spezifikationsgruppe. Sollte in Zukunft basierend auf ihren Spezifikationen eine Auditpflicht entstehen, würde dies wahrscheinlich sowohl interne als auch Drittparteibewertungen beinhalten.Die Häufigkeit und Dauer der Audits würden ebenfalls von den spezifischen Anforderungen der Spezifikationen und den damit verbundenen Risiken der KI-Bereitstellungen abhängen.