- within Technology topic(s)
- in United States
- within Transport, Media, Telecoms, IT, Entertainment and Family and Matrimonial topic(s)
- with Senior Company Executives, HR and Inhouse Counsel
Continuamos con nuestro análisis del segundo bloque de Guías Técnicas Especializadas (Guías 3 a 15) de la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) para el cumplimiento del Reglamento Europeo de Inteligencia Artificial (RIA).
Esta vez desglosamos los pilares operativos de las Guías núm. 9 y 10, centradas en la precisión y solidez de los sistemas IA:
Guía 9: "Precisión"
La Guía 9, titulada "Precisión", desarrolla la precisión que requiere un sistema IA de alto riesgo conforme a lo dispuesto en el artículo 15 del RIA. La precisión de un sistema de IA es fundamental para poder mitigar al máximo los potenciales riesgos para la salud, la seguridad y los derechos fundamentales que pueda implicar la utilización de sistemas de IA de alto riesgo.
A continuación, destacamos algunos puntos clave establecidos por la AESIA en la Guía 9 para conseguir que un sistema de IA cumpla adecuadamente con el requisito de precisión:
- Analizar los aspectos del ciclo de vida del sistema de IA es esencial porque pueden influir en la precisión final de estos sistemas, siendo el objetivo principal que la precisión sea continua y consistente. En este sentido, para que un sistema de IA consiga una precisión a lo largo del tiempo, se deberá realizar un preprocesamiento de los datos (entre otras cosas, se deberá analizar que los datos de entrenamiento del modelo estén libres de sesgo de muestreo y el uso de idénticas maneras de procesado de datos para comparar la precisión entre varios modelos); y tomar medidas acordes con el tipo de modelo y finalidad prevista para evitar el sobreaprendizaje (overfitting) (por ejemplo, que los hiperparámetros se reporten durante los procesos de entrenamiento/prueba y validación del modelo, así como sus valores para cada modelo, o que ninguna información del conjunto de datos de prueba sea usada cuando se ajusten los hiperparámetros).
- Seleccionar adecuadamente las métricas para medir la precisión. La Guía ofrece en su anexo 7.1 unas métricas de precisión (lista no exhaustiva) que pueden utilizarse para medir la precisión, así como, los tipos de modelos con los que se tienen que relacionar. Para el proceso de selección de una métrica de precisión adecuada al sistema, debe tenerse en cuenta dos puntos fundamentales: (i) la finalidad prevista del sistema; y (ii) los riesgos que se hayan encontrado en el sistema de gestión de riesgo, así como seleccionar una función objetivo que pueda permitir alcanzar la finalidad prevista. En este apartado, la Guía destaca la importancia de tener un repositorio centralizado en donde se gestione toda la información de métricas asociadas al modelo en cualquier punto de su ciclo de vida.
- Implementar medidas necesarias para que el proveedor garantice la precisión a lo largo del ciclo de vida de manera consistente. Para ello, el proveedor deberá implementar, entre otras, medidas técnicas en relación con los inventarios de métricas de precisión y funciones objetivo (por ejemplo: que la salida del sistema esté acompañada por una medida de incertidumbre asociada a la precisión de dicha salida); y utilizar métricas específicas que se acompañen de evaluaciones estadísticas que sirvan para poder considerar la distribución de los datos, la dependencia de estos y otras suposiciones de cada evaluación para así conseguir una evaluación relevante.
- Documentar adecuadamente el proceso de selección y aseguramiento de la precisión de acuerdo con toda la documentación técnica restante que se proporciona en la Guía 15 titulada "Documentación técnica". Entre la documentación enfocada en el proceso de selección y aseguramiento de la precisión destaca: la tarjeta del modelo usada por el sistema y la tarjeta de bases de datos que dan una visión más adecuada de las métricas de precisión que se han provisto y de la proveniencia de los datos usados para entrenar el modelo.
Guía 10: "Solidez"
La Guía 10, titulada "Solidez", continúa desarrollando el artículo 15 del RIA, centrándose en la solidez del sistema de IA de alto riesgo. En relación con la solidez, la Guía considera la ciberseguridad como un pilar clave de la solidez porque permite proteger frente a cualquier ataque que pueda alterar la respuesta del sistema de IA y, por ende, su precisión. Asimismo, establece que los mecanismos de solidez deben garantizar que las medidas de ciberseguridad no se degraden con el tiempo.
Para evaluar adecuadamente la solidez de un sistema de IA, se debe tener en cuenta, entre otras cosas, lo siguiente:
- Que el proveedor de un sistema de IA tiene la
responsabilidad de establecer unas métricas adecuadas de
solidez. Para evaluar correctamente la solidez de un
modelo, el proveedor deberá seguir los siguientes pasos:
- Establecer requisitos u objetivos de solidez y métricas asociadas.
- Planificar experimentos que demuestren la solidez.
- Realizar experimentos de acuerdo con el plan establecido donde se registren los resultados, los datos utilizados y todos los valores de salida para que calculen las métricas de una manera más agregada.
- Interpretar los resultados para informar de la decisión.
- Decidir la solidez del sistema de acuerdo con los criterios e interpretación identificados anteriormente.
- Que para que se consiga un resultado adecuado de solidez, el proveedor debe contar con un proceso de verificación para confirmar que se ha cumplido con los requisitos especificados en el diseño, y un proceso de validación para confirmar que se cumplen los requisitos de la finalidad prevista del sistema IA utilizando conjuntos de datos reales y ejecutando el código.
- Que las métricas escogidas para validar las características de la solidez se deben validar y verificar en entornos hardware ya que se replican las capacidades de cómputo (memoria, CPU, velocidad de procesado, etc.) finales a las que tendrá acceso el sistema de IA. Asimismo, debe tenerse en cuenta que las métricas de solidez que estén asociadas al hardware deberán estar descritas en la documentación del sistema de IA con anterioridad a que sean diseñadas las pruebas de precisión y rendimiento de la etapa de ejecución del sistema, y, del mismo modo, monitorizar la solidez a través de estadísticas, distribución de datos y cambios en el uso de negocio.
Además, es muy importante que tanto el proveedor como, en su caso, el responsable del despliegue, dispongan de una solidez técnica para evitar que cualquier fallo, error o incoherencia pueda tener graves consecuencias para la seguridad del sistema o que afecte de manera negativa a algún derecho fundamental. Es por esto por lo que la Guía recalca la importancia de que el proveedor:
- Establezca estrategias y medidas de predicción de fallos, consecuencias no intencionadas de efecto negativo o que afecten a la seguridad de las personas o a derechos fundamentales.
- Para mitigar la falta de solidez en sistemas de IA frente a
errores, fallos o incoherencias, el proveedor deberá:
- Organizativamente, entre otras cosas: implementar técnicas de alerta a las partes responsables o, si no se recibe respuesta de éstas en un tiempo, implementar una función que permita el apagado automático del sistema, e introducir protocolos de fallos seguros que permita a los humanos predecir cualquier percance catastrófico.
- Técnicamente, entre otras cosas: establecer diálogos con diferentes partes involucradas que permitan maximizar la diversidad e inclusión de distintos perfiles de dominio durante el diseño, desarrollo, mantenimiento, aplicación, supervisión y uso del sistema; y elaborar comités de evaluación del diseño del modelo para poder predecir incoherencias de diseño o implementación del sistema que pueda llevar a consecuencias inesperadas no deseadas.
- Para que exista una adecuada solidez, se deberá disponer de técnicas de redundancia que permitan alcanzar la solidez del sistema en donde se incluyan planes de respaldo o pruebas de fallos.
Por último, la Guía pone especial foco en la importancia que tienen los sistemas de IA que continúan aprendiendo tras ser comercializados, pues su aprendizaje puede derivar a la posibilidad de que aparezcan sesgos. Es por esto por lo que el proveedor y los responsables del despliegue deberán asegurarse de que el entrenamiento continuado en el tiempo de un sistema de IA no deteriora la solidez a la que se había llegado antes de su comercialización a través de estrategias para mitigar cualquier cambio que implique la degradación de la precisión y solidez del modelo y/o de sus datos.
Enlaces relacionados
- 'Nuevas Guías de la AESIA para cumplir con
el Reglamento Europeo de Inteligencia Artificial' (02 de
febrero de 2026)
- Guías introductorias de la AESIA: Guías 1 y 2
- Guías técnicas de la AESIA: Guías 3 y 4 | Guías 5 y 6 | Guías 7 & 8
The content of this article is intended to provide a general guide to the subject matter. Specialist advice should be sought about your specific circumstances.
[View Source]