El pasado 12 de diciembre, el Hotel Mandarin Oriental Ritz de Madrid acogió una mesa reveladora y clarificadora sobre la Inteligencia Artificial y el futuro del mundo auditor. Fue en el marco de la IV Edición del Foro de Expertos Confilegal Auditores, un encuentro que reunió a perfiles clave del ámbito judicial, del Compliance, de la auditoría interna y de la analítica avanzada de datos para reflexionar sobre un desafío ya ineludible: la gobernanza, el control y la responsabilidad en la auditoría del futuro, en un entorno donde humanos y algoritmos conviven —y se vigilan— mutuamente.
Bajo la moderación de Carlos Berbell, director de Confilegal, el debate congregó a Eloy Velasco, magistrado de la Audiencia Nacional y uno de los juristas españoles con mayor conocimiento en nuevas tecnologías; Elena del Tiempo, vocal de la Asociación Española de Compliance (ASCOM); Manuel de Alzúa, vicepresidente del Instituto de Auditores Internos de España; y Javier Campelo, «Head of Data Analytics & IA» de BDO.
Cuatro miradas complementarias para abordar una cuestión transversal: quién controla, quién responde y cómo se gobierna la inteligencia artificial cuando entra en el corazón de los procesos de decisión empresarial.
La IA «como un meteorito»
Carlos Berbell abrió la sesión con una idea contundente: la inteligencia artificial no es una herramienta más, sino un fenómeno que está transformando “de raíz” las tres grandes funciones de control de la empresa: Compliance, auditoría interna y auditoría externa. “Es como un gran meteorito que ya ha impactado en la Tierra y parece que todavía no nos hemos enterado”, afirmó.
Ese impacto, sin embargo, no se limita a la eficiencia o a la automatización. Plantea, sobre todo, un problema jurídico y de responsabilidad.
Eloy Velasco lo expresó con claridad desde el inicio: “Lo que no hemos sido capaces de regular todavía, ni siquiera en la Unión Europea, es la responsabilidad cuando un algoritmo provoca un daño”.

Y añadió un matiz clave: “No solo existe la responsabilidad penal. Hay muchos otros tipos de responsabilidad que históricamente nos han permitido convivir con tecnologías que también causan daños”.
Para el magistrado, el debate sobre la IA reproduce dilemas ya conocidos. “No hemos eliminado el automóvil porque cause accidentes. Hemos creado instrumentos jurídicos para gestionar sus riesgos. Con la inteligencia artificial va a pasar exactamente lo mismo”.
De la calidad del dato a la calidad del profesional
Uno de los ejes más repetidos de la conversación fue el riesgo de fetichizar el dato y olvidar al sujeto que lo interpreta. Velasco lanzó un mensaje que resonó en toda la sala: “Yo ya no pongo el foco en la calidad del dato, sino en la calidad de la persona que maneja el dato. Porque si el auditor no sabe interpretar, no sabe preguntar o no tiene espíritu crítico, lo que va a producir es basura. Y su auditoría será basura”.
En esa misma línea se expresó Javier Campelo al analizar la fiabilidad de los algoritmos: “El algoritmo depende de cómo lo utilicemos. Hay veces que sirve para predecir, otras veces toma decisiones críticas. En esos casos hay que validar, hacer test de estrés y llevar los modelos a los extremos”.
Campelo recordó ejemplos históricos, como la crisis financiera, para ilustrar que “los algoritmos también se equivocan cuando no contemplan escenarios extremos”.

Compliance en la era de la inteligencia artificial
El papel del «Compliance Officer» fue otro de los grandes temas del encuentro. Elena del Tiempo defendió que no se trata de un cambio radical, sino de una evolución del rol.
“La finalidad del Compliance sigue siendo la misma: proteger a la empresa de riesgos reputacionales. Pero ahora tenemos que ampliar el foco y asegurarnos de que la inteligencia artificial se utiliza de manera correcta”.
Según Del Tiempo, el perfil del «Compliance Officer» del futuro debe apoyarse en tres pilares fundamentales: conocimiento legal, comprensión tecnológica y visión estratégica. “No se trata de convertirse en ingenieros, pero sí de entender cómo funcionan los algoritmos, qué riesgos tienen, cómo se gestionan los datos y cuáles son los sesgos”.
Y fue tajante ante una de las preguntas clave del debate: “¿Puede una empresa afirmar que cumple si no puede explicar por qué su algoritmo decide lo que decide? Categóricamente no”.

Las cajas negras bajo el escrutinio del auditor
El debate sobre las “cajas negras” —sistemas de inteligencia artificial cuyo funcionamiento interno no siempre es plenamente explicable— ocupó un lugar central en la mesa desde la perspectiva del control. Manuel de Alzúa, vicepresidente del Instituto de Auditores Internos de España, subrayó que la irrupción de la IA no rompe con la auditoría tradicional, sino que refuerza la necesidad de rigor y juicio profesional.
“Sabemos lo que entra en la caja negra, pero no siempre sabemos con certeza lo que va a salir”, señaló. “Y esa incertidumbre obliga al auditor a ser más metódico y más escéptico que nunca”.
Para De Alzúa, el foco no debe ponerse tanto en abrir el algoritmo como en analizar la gobernanza que lo rodea: marcos regulatorios, políticas internas, definición de roles y existencia de controles continuos. “El riesgo no es la caja negra en sí, sino que nadie se pregunte quién la diseñó, con qué datos y bajo qué supuestos”.
En ese contexto, advirtió contra la confianza acrítica en modelos complejos: “La sofisticación tecnológica no sustituye al juicio profesional. La IA no elimina la responsabilidad, la pone a prueba”.

El vicepresidente del Instituto de Auditores Internos añadió que la auditoría interna debe desempeñar también un papel pedagógico ante la alta dirección. “Gobernar la inteligencia artificial no es adquirir una herramienta, es mantener un proceso vivo, con revisión constante y capacidad real de intervención”.
Y conectó directamente con la responsabilidad de consejeros y directivos: “Cuando una decisión crítica se apoya en un algoritmo, nadie puede refugiarse en el ‘no lo entendía’. La auditoría interna está para garantizar que existan sistemas razonables de control y que se actúe con la diligencia debida”.


La IA no decide, ayuda a decidir
Uno de los mensajes más repetidos por Elena del Tiempo fue la necesidad de desmitificar el papel de la inteligencia artificial: “La inteligencia artificial no decide nada. El que decide es la persona. La IA ayuda a decidir mejor porque analiza volúmenes de datos que un ser humano no puede manejar”.
Ese énfasis en la responsabilidad humana conectó con las reflexiones de Velasco sobre el ámbito judicial. “Estamos rodeados de cajas negras desde hace décadas. Yo conduzco un coche sin saber mecánica y vuelo en un avión que funciona en piloto automático. El peligro de la IA es que el profesional pierda su sentido crítico y su responsabilidad”.
El magistrado recordó casos recientes, como resoluciones judiciales elaboradas de forma acrítica con herramientas generativas, para advertir de los riesgos de delegar sin control. “La transparencia y la explicabilidad no son opcionales, especialmente en justicia”.

Auditoría total y aproximación forense
La mesa también abordó cómo la IA está transformando el alcance de la auditoría. Campelo explicó que hoy es posible analizar el 100 % de los datos, en lugar de trabajar con muestras. “Antes auditábamos el 10 o el 20 %. Ahora podemos revisar todo”. Una evolución que aproxima la auditoría tradicional a enfoques más propios de la auditoría forense.
Del Tiempo lo ilustró con un ejemplo sencillo: “Antes se revisaban muestras de regalos de Navidad. Ahora se analizan todos. Eso nos da un dato exacto, pero aun así hay que revisarlo. Siempre hay que revisarlo”.
Un futuro líquido, pero gobernable
En el tramo final, los ponentes coincidieron en una visión prudente pero optimista.
Campelo afirmó que “ya no hablamos del futuro, sino del presente”, con equipos híbridos donde conviven auditores, ingenieros, matemáticos y juristas. “La IA será un copiloto que nos permitirá aportar más valor y menos burocracia”.
Manuel de Alzúa insistió en las oportunidades de negocio y eficiencia, siempre que exista un buen gobierno de los modelos. “No se trata de dejar que las cajas negras se expandan sin control, sino de dedicar recursos a gobernarlas”.
Elena del Tiempo cerró con una reflexión ética: “Me preocupa que la inteligencia artificial se utilice como un fin y no como un medio. Sin ética y sin uso responsable no vamos a ningún sitio”.

Eloy Velasco resumió el espíritu del encuentro con una advertencia final: “No me preocupan tanto los datos como la calidad de la persona. Profesionalidad, espíritu crítico, estrategia y responsabilidad. Ese es el verdadero reto”.
La mesa redonda concluyó así con un mensaje claro: la auditoría del futuro no será solo más tecnológica, sino más humana, precisamente porque la responsabilidad última seguirá residiendo, pese a todo, en quienes deciden firmar.