En un ecosistema digital donde los delitos viajan a la velocidad de un clic y las grandes plataformas tecnológicas marcan el pulso global, la justicia no puede permitirse quedarse atrás.
Eloy Velasco, magistrado de la Sala de Apelación de la Audiencia Nacional y uno de los juristas más avanzados en materia tecnológica en España, analiza cómo la irrupción del Digital Services Act (DSA) y la inteligencia artificial están redefiniendo la respuesta judicial frente a los contenidos ilícitos en Internet.
Con visión pragmática y experiencia pionera en la aplicación de herramientas digitales, Velasco defiende una justicia capaz de actuar con firmeza, proporcionalidad y rigor técnico en un entorno donde la libertad de expresión y la seguridad conviven en equilibrio cada vez más delicado. Lo explica en esta entrevista.
¿Cómo ha evolucionado en la última década el uso de medidas restrictivas en Internet —como la retirada, la interrupción o el bloqueo de contenidos— y qué hitos marcaría como más relevantes en ese cambio?
El cambio más significativo ha sido la aprobación del Digital Services Act (DSA) en 2023, que sustituye la antigua ley de servicios de la sociedad de la información de 2003. Esta nueva normativa europea adapta el marco legal al papel actual de las plataformas tecnológicas, que han evolucionado enormemente en dos décadas.
Su aplicación directa en los 27 países de la UE garantiza una respuesta uniforme ante contenidos ilícitos, sin necesidad de transposición nacional.
La normativa europea, especialmente el Digital Services Act (DSA), impone obligaciones inéditas a las plataformas digitales. ¿Qué cree que cambia realmente en la práctica judicial con la entrada en vigor del DSA?
El DSA introduce tres grandes novedades.
Primero, obliga a las plataformas digitales a tener una sede en la UE, lo que permite a las autoridades judiciales y administrativas ejecutar órdenes sin importar dónde estén sus servidores.
Segundo, reconoce la capacidad de las propias plataformas para aplicar medidas preventivas y de moderación de contenidos, lo que ayuda a evitar la sobrecarga judicial.
Y tercero, establece un sistema garantista que da margen a las empresas para colaborar antes de aplicar sanciones severas como el cierre de servicios. Además, se amplía el abanico de medidas restrictivas, permitiendo acciones más proporcionales como retirar la monetización o limitar la visibilidad de ciertos contenidos.
Desde el punto de vista de un magistrado, ¿cuál es el criterio de proporcionalidad clave para decidir si procede un bloqueo completo de un sitio o una medida más selectiva, como la desindexación de URLs?
Los jueces valoran varios factores: la gravedad del delito, la reiteración de conductas ilícitas, el beneficio económico obtenido, el número de víctimas, los antecedentes del infractor y la implantación del servicio. Estos elementos permiten ajustar la respuesta judicial, desde la desindexación de URLs hasta el bloqueo total de una plataforma.
Uno de los retos es equilibrar la seguridad y la libertad de expresión. ¿Cómo puede el juez garantizar que una medida restrictiva no se convierta en una forma de censura o limitación del derecho a la información?
La jurisprudencia del Tribunal Europeo de Derechos Humanos protege firmemente la libertad de expresión, pero establece límites claros cuando se cometen delitos. Los jueces están entrenados para distinguir entre una opinión legítima y una conducta delictiva, como el acoso, el fraude o los discursos de odio.
La clave está en aplicar las medidas con rigor jurídico y proporcionalidad.
En el caso, por ejemplo, del bloqueo de Telegram, que afectó a millones de usuarios, ¿qué lecciones se extrae sobre los límites y las consecuencias de aplicar este tipo de resoluciones?
Aunque fue una medida polémica y breve, sirvió para que Telegram pasara de no colaborar con las autoridades a hacerlo activamente. La experiencia demuestra que lo ideal no es cerrar una plataforma por completo, sino actuar contra los contenidos o usuarios delictivos.
La proporcionalidad y la colaboración son esenciales para proteger tanto la seguridad como los derechos de los usuarios.
Cuando las plataformas o proveedores están fuera del territorio nacional, ¿qué herramientas jurídicas y de cooperación internacional resultan realmente eficaces para hacer cumplir las órdenes judiciales?
Dentro de la UE, el reglamento eEvidence permite intercambiar información tecnológica de forma ágil entre los 27 países. A nivel global, se espera que el nuevo convenio de la ONU facilite la obtención de pruebas y la cooperación jurídica internacional.
También destaca el Convenio de Budapest sobre ciberdelincuencia, especialmente su segundo protocolo adicional, que promueve el intercambio urgente de información entre países firmantes.
La inteligencia artificial empieza a tener presencia en la investigación y la instrucción penal. ¿Qué papel cree que puede desempeñar en la detección de delitos tecnológicos y en la valoración de pruebas digitales?
Un papel absolutamente crucial. Yo soy de los que ya desde hace muchos años he dicho que no hay otra manera de combatir la tecnología que con tecnología. La IA es clave para combatir delitos en entornos digitales.
Las empresas ya la utilizan para detectar y bloquear actividades ilícitas, como fraudes financieros, antes de que lleguen a los tribunales. Tanto el DSA como el reglamento europeo de IA permiten su uso para prevenir delitos, incluso en casos graves como terrorismo o abusos a menores.
La tecnología se convierte así en una herramienta esencial para proteger a los usuarios y agilizar la respuesta judicial.
¿Cuáles son los principales errores o deficiencias que observa en la redacción de las órdenes de retirada o bloqueo que se cursan a los intermediarios de Internet?
La falta de coordinación entre autoridades y plataformas genera inconsistencias. Es necesario crear plantillas comunes y políticas de moderación homogéneas para que las medidas sean coherentes y efectivas.
La Comisión Nacional de los Mercados y la Competencia (CNMC), como autoridad central en España, debe liderar esta coordinación, tanto con las plataformas como con jueces, fiscales y policías.
Desde su experiencia, ¿qué recomendaciones haría a empresas y despachos para actuar correctamente cuando reciben una orden judicial de retirada o interrupción de contenidos online?
Es fundamental que tanto las autoridades como las empresas designen interlocutores especializados. Esto facilitaría la comunicación, evitaría errores por desconocimiento mutuo y permitiría aplicar las medidas de forma más eficaz. La colaboración entre tecnología y derecho es clave para actuar correctamente.
Para cerrar, ¿qué mensaje le gustaría que el público de los Legal Innovation Days se llevara de su intervención sobre la regulación y el control judicial de los contenidos en Internet?
Que ya contamos con una normativa europea avanzada en transformación digital —como el DSA, el reglamento de IA, el MiCA sobre criptoactivos o la identidad digital— y ahora el reto es aplicarla correctamente. Los juristas deben especializarse en estas normas y trabajar coordinadamente para garantizar su eficacia. Solo así podremos combatir el uso ilícito de las plataformas tecnológicas y proteger los derechos fundamentales.