La inteligencia artificial (IA) ha comenzado a transformar los flujos de trabajo corporativos, pero su aplicación en el ámbito del cumplimiento normativo presenta desafíos. Un nuevo informe del EQS Group, en colaboración con la asociación Berufsverband der Compliance Manager e.V. (BCM), ha evaluado seis modelos líderes de IA en 120 escenarios reales de cumplimiento. Esta investigación, titulada «EQS Benchmark Report: AI Performance in Compliance & Ethics», busca determinar cómo la IA puede adaptarse a las exigencias de este sector.
Los hallazgos revelan una precisión notable en tareas estructuradas, alcanzando tasas de acierto superiores al 95 %. Sin embargo, la efectividad de los modelos se reduce considerablemente en situaciones más complejas o ambiguas. Moritz Homann, Director de Innovación de Producto e IA en EQS Group, subrayó que muchos profesionales en el área de cumplimiento todavía ven a la IA como un territorio inexplorado. «La clave es comprender cómo aplicarla de forma eficaz y en qué podemos confiar», comentó.
La Dra. Gisa Ortwein, presidenta del BCM, también enfatizó en la importancia de un uso ético de la IA. «Iniciativas como este informe nos ayudan a diferenciar entre lo que la IA realmente puede aportar y dónde el juicio humano sigue siendo fundamental», afirmó.
El informe, el primero en su tipo en analizar el desempeño de la IA en el cumplimiento, midió la precisión y utilidad de estos modelos en diversas tareas. Los resultados muestran que el modelo Gemini 2.5 Pro de Google lidera la lista con una puntuación del 86,7 %, seguido muy de cerca por el GPT-5 de OpenAI, con un 86,5 %. La velocidad de evolución de las capacidades de estos modelos es notable, puesto que los de 2025 han demostrado un avance considerable en comparación a los anteriores.
Si bien la IA sobresale en tareas con reglas claras, su rendimiento disminuye en escenarios más ambiguos. En tareas complejas como el análisis de datos, la diferencia en desempeño entre los modelos fue significativa, alcanzando hasta 60 puntos. Homann destacó que hay tareas críticas que no se deben delegar completamente a la IA, enfatizando que estas herramientas deben ser vistas como multiplicadores de capacidades, no como sustitutos del juicio humano.
La consistencia de los modelos también fue evaluada, con más del 95 % de respuestas idénticas en tareas repetidas. Los errores, conocidos como «alucinaciones», fueron raros, lo que sugiere que, con instrucciones claras y contexto, estos modelos pueden ofrecer resultados estables y precisos. Sin embargo, la supervisión humana sigue siendo fundamental, especialmente en campos sensibles que implican regulaciones.
El informe también resalta la relevancia de la precisión en las instrucciones. Los modelos más recientes mostraron una mayor capacidad para seguir direcciones complejas, lo que beneficia particularmente a los equipos de cumplimiento que trabajan con políticas detalladas y grandes volúmenes de datos.
Finalmente, Homann concluyó que la IA ha llegado para quedarse y que su implementación en los próximos años será crucial para el ámbito del cumplimiento. «Los equipos de ética y cumplimiento no solo deben saber regular los riesgos de la IA, sino también aplicarla. La práctica nos permitirá formular preguntas adecuadas y generar confianza en su uso», afirmó. El informe completo está disponible para su descarga en la página oficial de EQS.