Opinión | La deshumanización de la Administración Pública: un algoritmo no es un funcionario

Andrés Álvarez Matilla es el abogado que recibió la multa. Una multa automatizada de tráfico que revela un problema mayor: cómo los algoritmos están sustituyendo al juicio humano en la potestad sancionadora de la Administración. Foto: AAM.

19 / 03 / 2026 05:41

En esta noticia se habla de:

El otro día recibí una multa de tráfico. Una notificación en papel, con su número de expediente, su código seguro de verificación CSV, su dirección de validación y sus referencias legales impecablemente formateadas.

La abrí esperando encontrar al otro lado —siquiera en la forma— algo parecido a una decisión humana.

No la encontré.

Lo que encontré fue el resultado de un algoritmo que, en milisegundos, había tomado la determinación de sancionarme con 200 euros.

Sin que nadie me viera.

Sin que nadie valorara las circunstancias.

Sin que ningún funcionario se preguntara por qué mi vehículo aparecía a un lado de la línea continua en una fotografía y al otro lado en la siguiente.

El sistema lo procesó, generó el boletín y lo despachó. Trabajo hecho. O más bien: recaudación iniciada.

Ese momento me hizo comprender algo que llevaba tiempo intuyendo: la Administración Pública española, en su dimensión sancionadora, ha dejado de ser un instrumento al servicio del ciudadano para convertirse en una maquinaria de extracción económica automatizada.

Ya no somos administrados. Somos expedientes en una base de datos que el sistema recorre en busca de infracciones que convertir en ingresos.

Y lo más inquietante no es que existan multas —las multas tienen su razón de ser—.

Lo inquietante es quién, o qué, las impone. Con qué criterio. Con qué revisión humana. Y bajo qué habilitación legal.

I. LA RESERVA DE HUMANIDAD: EL LÍMITE QUE LA ADMINISTRACIÓN SE SALTA

La automatización de la Administración no es en sí misma un mal. Expedientes que se tramitan solos, certificados que se emiten instantáneamente, resoluciones que llegan sin colas: todo eso es bienvenido cuando se orienta al servicio del ciudadano.

El problema surge cuando la automatización se aplica donde no puede: en el ejercicio de la potestad sancionadora sobre tipos normativos que exigen valoración humana.

La doctrina jurídica española más avanzada ha acuñado el concepto de reserva de humanidad: la idea de que existen decisiones que, por su naturaleza, no pueden ser delegadas en un algoritmo sin vulnerar las garantías del Estado de Derecho.

El profesor Juli Ponce Solé, catedrático de Derecho Administrativo de la Universidad de Barcelona, lo argumenta con rigor: las máquinas carecen de empatía y de capacidad de realizar inferencias abductivas, facultades imprescindibles para valorar las circunstancias de un caso concreto.

El ejercicio totalmente automatizado de potestades discrecionales que afecten a ciudadanos está, por tanto, jurídicamente vedado.

«El ejercicio por máquinas de la discrecionalidad conllevaría el desplazamiento del compromiso moral humano que el ejercicio de la misma debe conllevar, de tal manera que los servidores públicos tendrían la muy humana tentación de escudarse tras las decisiones maquinales, no afrontando su responsabilidad última por ellas». — McCann, S. «Discretion in the Automated State», Canadian Journal of Law & Jurisprudence, 2023.

La reserva de humanidad tiene anclaje constitucional: la presunción de inocencia (artículo 24.2 de la Constitución Española –CE–), la prohibición de arbitrariedad (artículo 9.3 de la CE) y la exigencia de motivación (artículo 35 Ley 39/2015).

Un algoritmo no puede respetar estos derechos porque no los comprende. Puede procesar datos. No puede valorar circunstancias.

Sin embargo, la Administración española ha decidido que la reserva de humanidad es un obstáculo operativo, no un límite jurídico. Y lo salta cuando el beneficio económico lo justifica.

II. EL CTDA: CUANDO EL NOMBRE LO DICE TODO

Centro de Tratamiento de Denuncias Automatizadas (CTDA). Téngase presente cada palabra porque cada una encierra una decisión deliberada sobre el papel que la Administración quiere jugar respecto al ciudadano.

Tratamiento: como si las denuncias fueran residuos industriales a gestionar, no acusaciones contra personas con derechos fundamentales.

Automatizadas: la palabra clave, el rasgo definitorio, la decisión fundacional. No «tramitadas», no «instruidas», no «resueltas tras análisis». Automatizadas.

El CTDA tramita, propone y determina las sanciones de tráfico captadas por medios tecnológicos en todo el territorio nacional.

Procesa cientos de miles de expedientes al año sin que un solo funcionario examine individualmente cada caso. El sistema funciona así: una cámara detecta una posible infracción, el software procesa las imágenes, las coteja con el registro de matrículas y genera automáticamente un boletín de denuncia.

El ciudadano lo recibe con una propuesta de sanción ya formulada y tiene veinte días para pagar con descuento o alegar.

Desde la detección hasta la notificación, la intervención humana es estructuralmente irrelevante.

El problema jurídico es de una gravedad que no ha sido suficientemente debatida en el espacio público: el CTDA está ejerciendo la potestad sancionadora —una de las manifestaciones más intensas del ius puniendi estatal— sin que ningún funcionario haya valorado individualmente los hechos denunciados.

III. EL ELEMENTO DEL TIPO QUE EL ALGORITMO NO PUEDE VER: «CIRCUNSTANCIAS ESPECIALES QUE LO JUSTIFIQUEN»

Existe una diferencia fundamental entre dos tipos de normas sancionadoras. Las primeras describen una conducta completamente objetivable: circular a 130 km/h en una vía limitada a 120.

El instrumento mide un dato físico y lo compara con un umbral legal. No hay valoración: hay medición. La automatización aquí es legítima porque no existe margen de apreciación.

Las segundas describen una conducta que incluye un elemento normativo valorativo: un juicio que el aplicador del Derecho debe realizar sobre las circunstancias del caso concreto. Y aquí reside la clave del problema que estamos analizando.

El artículo 53.1 del texto refundido de la Ley sobre Tráfico, Circulación de Vehículos a Motor y Seguridad Vial (Real Decreto-ley 6/2015) establece la obligación genérica del usuario de obedecer las señales de circulación. Pero el artículo 53.2 de esa misma ley añade una cláusula que el legislador consideró absolutamente imprescindible incluir:

«Salvo circunstancias especiales que lo justifiquen, el usuario debe obedecer las prescripciones indicadas por las señales, aun cuando parezcan estar en contradicción con las normas de comportamiento en la circulación», artículo 53.2 de la Ley de Tráfico y Seguridad Vial (RDL 6/2015)-

El artículo 147.2.a del Reglamento General de Circulación (RD 1428/2003) define las marcas viales longitudinales como las que delimitan los carriles y ordenan los movimientos de los usuarios. Son las que describen la conducta prohibida: rebasar la línea continua. Pero es el artículo 53.2 LTSV quien introduce el elemento valorativo esencial del tipo: la obligación de obedecer las señales existe «salvo circunstancias especiales que lo justifiquen».

Esta cláusula, lejos de ser un tecnicismo accesorio, constituye un elemento esencial que condiciona toda la estructura sancionadora. Sin ella, la norma sería radicalmente distinta: un régimen de responsabilidad objetiva pura que el ordenamiento no admite.

Esta arquitectura normativa no es casual. El legislador ha reconocido expresamente que cruzar una línea continua puede estar justificado y que, por tanto, alguien debe valorarlo. El Derecho no es solo la constatación mecánica de un hecho —el vehículo estaba aquí y luego allá— sino la valoración de una conducta dentro de un contexto normativo completo.

Tres consecuencias jurídicas del tipo con elemento valorativo:
 
1. Desprecio por la atipicidad. Si existió una causa de justificación —un obstáculo, una emergencia, un vehículo que invadía el carril— la conducta es atípica o está justificada. Un algoritmo que no puede ‘ver’ la justificación está sancionando conductas lícitas.  

2. Inversión de la carga de la prueba. El ciudadano se ve obligado a recurrir para introducir la valoración que la Administración debió hacer de oficio. El sistema sanciona primero y ‘pregunta’ después, quebrando la presunción de inocencia.  

3. Arbitrariedad tecnológica. La aplicación del Derecho exige una labor intelectual de subsunción. El sistema automatizado ofrece una ‘plantilla’ que ignora las particularidades del caso, lo que constituye arbitrariedad prohibida por el artículo 9.3 CE.

El sistema Foto-Línea del CTDA no realiza ninguno de estos análisis. Detecta el vehículo a un lado de la línea y después al otro. Concluye automáticamente que hubo cruce. Y da por demostrado, sin valoración alguna, que ese cruce se produjo sin circunstancias que lo justificasen.

No porque lo haya analizado. Simplemente porque no ha podido hacerlo, yprocede como si ese análisis no fuera jurídicamente necesario. Pero lo es. Y su omisión es constitutiva de vicio.

Al automatizar la sanción prescindiendo del elemento valorativo del tipo, el sistema transforma la infracción en una hipótesis de responsabilidad objetiva pura.

Y la responsabilidad objetiva está prohibida en nuestro ordenamiento sancionador, donde rige el principio de culpabilidad. El sistema no está aplicando el artículo 53.2 LTSV: está aplicando una versión amputada de ese artículo que no existe en la ley. Una ficción normativa fabricada por el algoritmo.

Ahora bien: el artículo 41 de la Ley 40/2015 («Actuación administrativa automatizada») establece en su apartado segundo las obligaciones que la Administración debe cumplir: definir órganos competentes para las especificaciones, la programación, el mantenimiento y el control de calidad, e indicar el órgano responsable a efectos de impugnación.

Lo que este artículo no contempla —y la omisión es jurídicamente elocuente— es la obligación de verificar que el sistema ha evaluado todos los elementos esenciales del tipo infractor antes de generar la propuesta de sanción.

La ley regula el quién pero no el qué se verifica. Y ese silencio es el que permite al CTDA sancionar sin haber completado la subsunción jurídica.

Por tanto, la automatización total de este tipo de denuncias carece de habilitación legal suficiente. No existe norma con rango de ley que autorice al CTDA a sancionar automáticamente infracciones cuyo tipo incluye un elemento normativo que exige valoración discrecional. El vacío legal es real. Y es denunciable.

IV. LA PRESUNCIÓN DE INOCENCIA: LA LÍNEA QUE SEPARA UN ESTADO DE DERECHO DE UN ESTADO POLICIAL

No hay garantía más básica en el Derecho sancionador que la presunción de inocencia. No es un adorno constitucional. No es un tecnicismo procesal.

Es la línea que separa un Estado de Derecho —donde el poder debe probar la culpa— de un Estado policial —donde el ciudadano debe probar su inocencia—. Cuando esa línea se borra, aunque sea de forma gradual y bajo la apariencia de modernización tecnológica, algo esencial del pacto constitucional se rompe.

El artículo 24.2 de la Constitución Española consagra este principio con plena aplicación al procedimiento administrativo sancionador, como ha reiterado el Tribunal Constitucional desde su sentencia 76/1990. La doctrina es inequívoca en tres dimensiones:

Carga de la prueba: es la Administración quien debe probar los hechos constitutivos de la infracción, incluida la culpabilidad. El ciudadano no tiene que probar su inocencia; existe una presunción de licitud de su conducta.

Insuficiencia probatoria: si la Administración no logra aportar pruebas contundentes, legítimas y suficientes que desvirtúen esa presunción, el procedimiento debe finalizar con el archivo del expediente. No cabe sanción basada en meras sospechas, conjeturas o inferencias estadísticas.

In dubio pro reo: cualquier duda sobre la comisión de la infracción debe resolverse a favor del administrado. La Administración acusa; cuando no logra probarlo, debe absolver.

¿Qué ocurre en el sistema del CTDA?

Exactamente lo contrario. El algoritmo genera una denuncia sustentada en dos fotografías que muestran al vehículo en posiciones distintas. Nadie ha probado el cruce de línea —el sistema lo infiere—.

Nadie ha valorado si existían circunstancias especiales —el sistema lo presupone descartadas—. Sin embargo, el expediente se notifica al ciudadano con una propuesta de sanción formulada.

Si no reacciona en veinte días, la sanción se ejecuta. Este diseño coloca sobre el ciudadano la carga de demostrar su inocencia —inversión de la carga de la prueba, expresamente prohibida por el artículo 24.2 CE— y omite la obligación de verificar la antijuridicidad del hecho: para que una conducta sea sancionable no basta con que sea típica; debe ser antijurídica y culpable.

El sistema automatizado omite sistemáticamente este análisis. Sanciona sin haber completado el juicio de subsunción.

Y ese incumplimiento es estructural, no accidental: el algoritmo no está mal programado. Está programado para hacer exactamente lo que hace: detectar el dato objetivo e ignorar el contexto jurídico que la norma exige valorar.

V. UN ALGORITMO NO ES UN FUNCIONARIO: LA CAJA TONTA SANCIONADORA

Existe un problema técnico-jurídico que raramente se debate en público y que debería ocupar el centro del análisis: el sistema automatizado del CTDA es lo que la doctrina denomina un sistema de caja negra.

O más precisamente, en este caso, una caja tonta sancionadora: un sistema del que se conocen los datos de entrada —las fotografías del vehículo— y los datos de salida —la propuesta de sanción—, pero cuyo funcionamiento interno, sus criterios de valoración, los umbrales que activan o desactivan la denuncia, son opacos, incomprensibles e inaccesibles para el ciudadano afectado.

Hay una prueba de esto que no admite réplica y que el propio sistema aporta contra sí mismo. En el boletín de denuncia que origina este artículo, el campo «LUGAR DENUNCIA» imprime literalmente: «sentido: D-DECRECIENTE NULL». NULL.

Quien no sea programador puede no reconocer la palabra, pero su significado técnico es inequívoco: en el lenguaje de las bases de datos relacionales, NULL no significa cero, ni desconocido, ni incompleto.

Significa ausencia absoluta de dato. El campo está vacío. El sistema intentó recuperar un valor, no lo encontró, y lo imprimió tal cual en el documento oficial que se notificó al ciudadano. Ningún funcionario leyó ese boletín antes de enviarlo.

Ningún ser humano lo revisó. Porque si alguien lo hubiera leído, no habría firmado un documento oficial con un error informático de esa naturaleza. El NULL no es un defecto menor de formato: es la confesión involuntaria del sistema. Es la máquina diciéndonos, en su propio idioma, que nadie estuvo aquí.

Y aquí el Derecho tiene una respuesta clara. El artículo 35.1.i) de la Ley 39/2015 exige que los actos administrativos estén motivados. No como requisito formal: como garantía que permite al ciudadano comprender por qué se le sanciona y, por tanto, defenderse con eficacia.

Un acto no motivado es un acto arbitrario. Y la arbitrariedad de los poderes públicos está expresamente prohibida por el artículo 9.3 de la Constitución.

¿Cuál es la motivación del boletín de denuncia del CTDA respecto al elemento «circunstancias especiales que lo justifiquen»? Ninguna.

El boletín ni siquiera menciona que ha valorado este elemento porque no lo ha valorado. El sistema no está programado para hacerlo. Ha tomado una decisión jurídica —la concurrencia de todos los elementos del tipo infractor— sin haberlos examinado todos. Una decisión jurídica sin deliberación jurídica es, precisamente, arbitrariedad tecnológica.

Añádase a esto que el artículo 77.5 de la Ley 39/2015 otorga valor probatorio reforzado a los documentos formalizados por funcionarios con condición de autoridad que recogen hechos constatados por ellos. Un algoritmo no es un funcionario. No tiene condición de autoridad. No constata hechos: los infiere.

El boletín del CTDA no puede beneficiarse de esa presunción de veracidad. Pero en la práctica la Administración lo trata como si la tuviera, trasladando sobre el ciudadano una carga probatoria que el ordenamiento no le impone.

El Tribunal Supremo, en su sentencia núm. 1119/2025 de 11 de septiembre de 2025, ya advirtió que los sistemas automatizados con efectos jurídicos sobre ciudadanos deben garantizar el derecho a la intervención humana significativa. Si eso es predicable de un sistema de ayudas, con mayor razón debe predicarse de un sistema de sanciones.

VI. LO QUE LA ADMINISTRACIÓN AUTOMATIZA Y LO QUE NO: LA REVELADORA ASIMETRÍA

Hay un dato que revela más sobre las prioridades reales de la Administración que cualquier declaración oficial: la automatización se ha aplicado con sofisticación técnica en los sistemas de sanción al ciudadano, mientras permanece prácticamente ausente en los sistemas de prestación de servicios y distribución de beneficios.

Piense el lector en su propia experiencia. ¿Cuánto tardó en recibir la multa desde el momento en que fue captado por el sistema? Días. ¿Cuánto tiempo lleva esperando la resolución de una solicitud de ayuda, una devolución tributaria, una respuesta a un recurso?

La velocidad de la Administración varía radicalmente según la dirección del flujo económico. Cuando el dinero va del ciudadano a la Administración, la máquina funciona con eficiencia admirable.

Cuando va en sentido contrario, aparece de repente la intervención humana y los plazos se dilatan indefinidamente. Esta asimetría no es un accidente operativo. Es una elección consciente.

Si la Administración estuviera genuinamente preocupada por la seguridad vial, habría automatizado también los sistemas de advertencia, los recordatorios preventivos, las alertas de peligro. No solo las sanciones.

La unidireccionalidad de la automatización —hacia el cobro y no hacia el servicio— revela cuál es la verdadera función del sistema: mantener estructuras de poder administrativo a costa de un esfuerzo del ciudadano muy superior al que le corresponde.

VII. LO QUE LOS CIUDADANOS PUEDEN —Y DEBEN— HACER

Este análisis tiene consecuencias prácticas inmediatas. El ciudadano que recibe una sanción automatizada no está indefenso, aunque el sistema esté diseñado para que lo parezca. En primer lugar, es posible exigir en alegaciones que la Administración acredite haber valorado el elemento «circunstancias especiales que lo justifiquen» antes de proponer la sanción. Si no puede acreditarlo —y un sistema automatizado no puede— la propuesta carece de base probatoria suficiente. La presunción de inocencia y el principio in dubio pro reo deben operar a favor del ciudadano.

En segundo lugar, al amparo del artículo 41.2 de la Ley 40/2015, es exigible que la Administración aporte la resolución habilitante del sistema, los certificados de verificación del equipo, los registros de control de calidad y la auditoría del código fuente.

La negativa a aportar estos documentos tiene valor probatorio en sí misma. En tercer lugar, ante los juzgados de lo contencioso-administrativo es posible articular la incompatibilidad constitucional de la automatización total de tipos sancionadores con elementos normativos valorativos.

Si un juzgado lo acoge, el efecto es sistémico: afecta a todos los expedientes del sistema Foto-Línea y obliga a la DGT a introducir revisión humana individualizada.

VIII. VALORACIÓN CRÍTICA: ADMINISTRAR ES SERVIR, NO RECAUDAR

Llega el momento de nombrar lo que está ocurriendo sin eufemismos. La Administración española ha diseñado un sistema de sanciones automatizadas que incumple sistemáticamente el tipo normativo que pretende aplicar, invierte la carga de la prueba constitucionalmente garantizada, omite la motivación que la ley exige y opera bajo la cobertura de una habilitación legal insuficiente.

Y lo hace con plena consciencia de sus efectos porque esos efectos son su razón de ser: cuanto más difícil resulte recurrir, más ciudadanos pagarán sin cuestionar.

El cálculo es tan sencillo como injusto: pago porque recurrir es demasiado caro.No porque sea culpable. Sino porque el sistema ha sido diseñado para que el coste de impugnar —en tiempo, en energía, en recursos jurídicos— supere el coste de pagar. Esa asimetría —la Administración con todos los medios, el ciudadano solo frente a una notificación de 200 euros— es el verdadero motor del modelo. Un modelo que convierte la pasividad del ciudadano en rentabilidad del Estado.

Este artículo va dirigido también a los trabajadores de la Administración Pública. A los funcionarios que ven cómo la automatización erosiona su papel y los convierte en supervisores nominales de decisiones que no toman.

La reserva de humanidad no es solo una garantía para el ciudadano: es también la defensa de la función pública real y cercana. Una Administración que delega en algoritmos lo que debería hacer con criterio humano no solo vulnera derechos ciudadanos: también traiciona a sus propios empleados.

Los ciudadanos debemos exigir que la automatización esté al servicio de la persona, no la persona al servicio de la máquina.

Y mientras esa exigencia no se articule colectiva, jurídica y políticamente, la caja tonta sancionadora seguirá procesando expedientes, generando boletines y ejecutando sanciones sin que nadie, en ningún despacho, haya pensado en el ciudadano que las recibe.

Pronto, Burocracia Sencilla pondrá a disposición de cualquier ciudadano las herramientas jurídicas necesarias para que ese cálculo cambie. Para que recurrir deje de parecer más caro que resignarse. Para que la Administración sepa, por fin, que el ciudadano conoce sus derechos y está dispuesto a exigirlos.

Porque la Administración es nuestra. La hemos construido con nuestros impuestos para que nos sirva. Y si la hemos dejado convertirse en una caja recaudadora automatizada que nos procesa sin mirarnos, la responsabilidad es también nuestra por no haberlo impedido a tiempo.

www.burocraciasencilla.com

Tu ayuntamiento no puede aprovechar los datos que has facilitado a Hacienda para sancionarte

Opinión | ¿Cómo comprará España las armas que necesita?

Tu ‘smart TV’ te espía, pero las administraciones «esperarán» a que denuncies para las consecuencias legales

El TSJ de Galicia exime al Ayuntamiento de A Coruña de indemnizar a una viandante por una caída en la vía pública

Lo último en Firmas

Letrado de la Administración de Justicia LAJ

Opinión | La fractura silenciosa de los LAJ: nuevos sumideros de los Tribunales de Instancia

Hoja de ruta del Juez Peinado

Opinión | El juez Peinado y su hoja de ruta

Isarel y Turquía.

Opinión | Turquía en la lista: Cómo Israel fabrica su próximo enemigo y por qué esta vez puede tener razón

Victoria López Barrio

Opinión | La división de la cosa común frente a la herencia yacente

Peinado

Opinión | Por qué yerra Peinado