Skip to main content

Marco de Gestión de Riesgos de IA del NIST

El Marco de Gestión de Riesgos de IA del NIST (AI RMF) es una colección integral de políticas y prácticas recomendadas que ayudan a las organizaciones a gestionar los riesgos asociados con los sistemas de IA. El objetivo es mejorar la fiabilidad, equidad, transparencia y responsabilidad de las tecnologías de IA.

Solicite una demostración de los marcos personalizados de Secureframe

Definición y Objetivo

El objetivo principal del NIST AI RMF es proporcionar un enfoque estructurado para identificar, evaluar, gestionar y mitigar los riesgos asociados con los sistemas de inteligencia artificial. El marco tiene como objetivo promover el desarrollo y despliegue responsable de tecnologías de IA y asegurar que sean confiables, seguras y cumplan con los estándares éticos.

Organización Supervisora

El NIST AI RMF es desarrollado y mantenido por el Instituto Nacional de Estándares y Tecnología (NIST), una agencia del Departamento de Comercio de los Estados Unidos.

Última Actualización

El NIST AI RMF es una iniciativa relativamente nueva, y su primera versión fue publicada en enero de 2023.

Aplicable a

El NIST AI RMF es aplicable a una amplia gama de industrias y organizaciones que participan en el desarrollo, despliegue y uso de sistemas de inteligencia artificial. Esto incluye sectores como salud, finanzas, transporte, manufactura y servicios públicos, entre otros.

Controles y Requisitos

El NIST AI RMF describe una serie de funciones y controles fundamentales para gestionar de manera efectiva los riesgos asociados con la IA. Estos incluyen:

  1. Gobernanza: Establecimiento de políticas, procedimientos y estructuras organizacionales para gestionar los riesgos asociados con la IA.
  2. Mapeo: Identificación y contextualización de los sistemas de IA y los riesgos asociados.
  3. Medición: Análisis y evaluación del rendimiento y los riesgos de los sistemas de IA.
  4. Gestión: Implementación y monitoreo de controles para mitigar los riesgos asociados con la IA.

Para una lista completa de controles y requisitos, consulte la documentación oficial del NIST AI RMF.

Tipo, Frecuencia y Duración de la Auditoría

Las auditorías de cumplimiento de NIST-AI-RMF suelen incluir evaluaciones internas, evaluaciones de terceros o ambas. Estas auditorías examinan cómo la organización implementa las políticas y prácticas recomendadas del marco. La frecuencia de las auditorías puede variar según la política de la organización, los requisitos regulatorios y la criticidad de los sistemas de IA implicados. Se recomienda a menudo realizar evaluaciones regulares, como revisiones anuales.

La duración de una auditoría depende del tamaño y la complejidad de la organización, del alcance de los sistemas de IA evaluados y del grado de profundidad de la auditoría. Puede variar desde unos pocos días hasta varias semanas.

Logre la conformidad con los marcos personalizados de Secureframe

Solicite una demostración