ETSI ISG SAI (Seguridad para la Inteligencia Artificial)
El Grupo de Especificaciones de la Industria del ETSI sobre la Seguridad de la Inteligencia Artificial (ISG SAI) se centra en asegurar la IA desde una perspectiva tanto de uso como adversarial, con el objetivo de construir una base estandarizada para implementaciones de IA robustas y seguras.
Solicite una demostración de Secureframe Custom FrameworksDefinición y propósito
El objetivo principal del ISG SAI es identificar amenazas que surgen del despliegue de la IA y proponer estrategias de mitigación para abordar estos riesgos. Pretenden proporcionar una comprensión detallada de estas amenazas en varios casos de uso y proponer medidas de seguridad para mitigar los riesgos potenciales.
Organismo Gobernante
El organismo gobernante de esta iniciativa es el Instituto Europeo de Normas de Telecomunicaciones (ETSI).
Última actualización
Las últimas publicaciones del ESTI ISG SAI se publicaron en 2023.
Aplica a
El ISG SAI del ETSI se aplica predominantemente a industrias y sectores que implementan Inteligencia Artificial, que pueden variar desde telecomunicaciones hasta salud, automotriz y servicios financieros, entre otros.
Controles y requisitos
Los controles o requisitos específicos se detallan en los informes y especificaciones producidos por el ISG SAI. Los temas pueden incluir modelado de amenazas para la IA, aseguramiento de los datos de entrenamiento de la IA, garantizando la robustez de los modelos entrenados, etc.
Por favor, consulte el sitio web oficial del comité ESTI ISG SAI para obtener más detalles.
Tipo de auditoría, frecuencia y duración
El ISG SAI del ESTI no es un marco de "auditoría", sino más bien un grupo productor de directrices y especificaciones. Si la auditoría se convierte en un requisito en el futuro basado en sus especificaciones, probablemente involucraría tanto evaluaciones internas como de terceros. La frecuencia y duración de la auditoría dependerían de manera similar de los requisitos específicos detallados en sus especificaciones y de los riesgos asociados con los despliegues de IA.