
La inteligencia artificial (IA) se está convirtiendo rápidamente en una parte cotidiana de la banca, impulsando predicciones más precisas y análisis más rápidos. Funciones como la calificación crediticia, la fijación de precios, la detección de fraude y la toma de decisiones sobre clientes dependen cada vez más de modelos que aprenden de los datos y se adaptan a nuevos patrones.
Los supervisores han seguido de cerca esta evolución. La Ley de IA de la UE, junto con las expectativas ya establecidas por el Banco Central Europeo (BCE), la Prudential Regulation Authority (PRA) y la Reserva Federal, envía un mensaje claro: la IA requiere una gobernanza trazable, explicable y coherente.
La IA puede automatizar tareas de gestión del riesgo de modelos y mejorar la eficiencia de la validación. Sin embargo, los modelos de IA son más complejos de probar, explicar y monitorizar, y pueden mostrar comportamientos menos intuitivos que deben ser comprendidos y supervisados.
A medida que los bancos aceleran la adopción de la IA y el aprendizaje automático, crece la necesidad de una supervisión estructurada de la toma de decisiones algorítmica. El objetivo no es crear marcos totalmente nuevos, sino aplicar la disciplina del Model Risk Management (MRM) que ya funciona.
Oportunidades y riesgos
La IA representa una oportunidad clara para las funciones de validación, al permitir simplificar o automatizar tareas clave y hacer los procesos más eficientes y robustos.
Al mismo tiempo, surge un reto relevante: los enfoques tradicionales de validación pueden no ser suficientes para modelos basados en IA, lo que obliga a desarrollar nuevas técnicas de validación.
La Ley de IA de la UE introduce nuevas obligaciones, incluida la identificación y gobernanza de sistemas de IA de alto riesgo. Estos requisitos no exigen necesariamente un marco independiente, sino una adaptación de las estructuras de MRM existentes.
Adaptación del MRM a la gestión del riesgo de la IA
Los fundamentos del MRM —gobernanza, validación, monitoreo y documentación— se adaptan bien al ámbito de la IA. El reto consiste en extender estas prácticas para reflejar los riesgos y comportamientos específicos de estos modelos.
Entre los principios compartidos destacan la transparencia, la explicabilidad y la trazabilidad. El inventario tradicional de modelos puede evolucionar hacia un registro de modelos de IA, que recoja casos de uso, niveles de riesgo, fuentes de datos y métricas de explicabilidad.
La supervisión proporcional, basada en la criticidad, la sensibilidad de los datos y el impacto en el negocio, permite que los algoritmos de alto riesgo estén sujetos a validaciones más profundas y monitoreo continuo, mientras que los modelos de menor riesgo sigan procesos simplificados.
El monitoreo continuo debe incorporar métricas específicas de IA, como la deriva de datos, la detección de sesgos o el seguimiento de la importancia de variables, integradas en los dashboards habituales de MRM.
Desde el punto de vista organizativo, una gobernanza integrada, con los comités de IA bajo el paraguas del Comité de Riesgo de Modelos, evita la fragmentación y refuerza la idea de que el riesgo de la IA es riesgo de modelo, sujeto al mismo nivel de control y responsabilidad.
El camino a seguir
La IA transforma la forma en que los modelos se comportan y se validan, pero no cambia el objetivo fundamental del MRM: garantizar que los modelos utilizados para la toma de decisiones sean sólidos, explicables y bien controlados.
Las entidades que aborden la IA como una extensión de su ecosistema de modelos, y no como una disciplina separada, estarán mejor posicionadas para cumplir con la Ley de IA de la UE y otras regulaciones emergentes, al tiempo que impulsan una innovación segura, escalable y responsable.