hero-two-bg

Marco de Gestión de Riesgos de IA del NIST

El Marco de Gestión de Riesgos de IA del NIST (AI RMF) es una colección integral de políticas y prácticas recomendadas que ayudan a las organizaciones a gestionar los riesgos asociados con los sistemas de IA. El objetivo es mejorar la fiabilidad, equidad, transparencia y responsabilidad de las tecnologías de IA.

Solicite una demostración de los marcos personalizados de Secureframeangle-right

Definición y Objetivo

El objetivo principal del NIST AI RMF es proporcionar un enfoque estructurado para identificar, evaluar, gestionar y mitigar los riesgos asociados con los sistemas de inteligencia artificial. El marco tiene como objetivo promover el desarrollo y despliegue responsable de tecnologías de IA y asegurar que sean confiables, seguras y cumplan con los estándares éticos.

Organización Supervisora

El NIST AI RMF es desarrollado y mantenido por el Instituto Nacional de Estándares y Tecnología (NIST), una agencia del Departamento de Comercio de los Estados Unidos.

Última Actualización

El NIST AI RMF es una iniciativa relativamente nueva, y su primera versión fue publicada en enero de 2023.

Aplicable a

El NIST AI RMF es aplicable a una amplia gama de industrias y organizaciones que participan en el desarrollo, despliegue y uso de sistemas de inteligencia artificial. Esto incluye sectores como salud, finanzas, transporte, manufactura y servicios públicos, entre otros.

Controles y Requisitos

El NIST AI RMF describe una serie de funciones y controles fundamentales para gestionar de manera efectiva los riesgos asociados con la IA. Estos incluyen:

  1. Gobernanza: Establecimiento de políticas, procedimientos y estructuras organizacionales para gestionar los riesgos asociados con la IA.
  2. Mapeo: Identificación y contextualización de los sistemas de IA y los riesgos asociados.
  3. Medición: Análisis y evaluación del rendimiento y los riesgos de los sistemas de IA.
  4. Gestión: Implementación y monitoreo de controles para mitigar los riesgos asociados con la IA.

Para una lista completa de controles y requisitos, consulte la documentación oficial del NIST AI RMF.

Tipo, Frecuencia y Duración de la Auditoría

Las auditorías de cumplimiento de NIST-AI-RMF suelen incluir evaluaciones internas, evaluaciones de terceros o ambas. Estas auditorías examinan cómo la organización implementa las políticas y prácticas recomendadas del marco. La frecuencia de las auditorías puede variar según la política de la organización, los requisitos regulatorios y la criticidad de los sistemas de IA implicados. Se recomienda a menudo realizar evaluaciones regulares, como revisiones anuales.

La duración de una auditoría depende del tamaño y la complejidad de la organización, del alcance de los sistemas de IA evaluados y del grado de profundidad de la auditoría. Puede variar desde unos pocos días hasta varias semanas.

Logre la conformidad con los marcos personalizados de Secureframe

Solicite una demostraciónangle-right
cta-bg