Si bien estas tecnologías ofrecen oportunidades reales de democratizar el acceso a la justicia, especialmente en procedimientos sencillos, el caso de DoNotPay subraya los riesgos de su utilización sin supervisión humana ni base jurídica contrastada. Imagen: Confilegal
La FTC sanciona con 193.000 dólares a DoNotPay y su «abogado robot» por publicidad engañosa
|
04/5/2025 00:46
|
Actualizado: 05/5/2025 00:52
|
La Comisión Federal de Comercio de Estados Unidos (FTC, por sus siglas en inglés) ha impuesto una multa de 193.000 dólares a DoNotPay, una startup fundada por el británico Joshua Browder que se autodenominaba “el primer abogado robot del mundo”.
La sanción, dictada tras una investigación del organismo de protección al consumidor, concluye que la empresa incurrió en publicidad engañosa al presentar su chatbot de inteligencia artificial como un sustituto real de un abogado humano, sin contar con pruebas que avalaran tal afirmación.
La resolución representa un precedente clave en la regulación del uso de la inteligencia artificial en el ámbito jurídico, al establecer límites concretos sobre lo que las empresas tecnológicas pueden prometer cuando ofrecen servicios que impactan en los derechos de los ciudadanos.
Una herramienta sin validación legal
DoNotPay se popularizó por ofrecer servicios jurídicos automatizados a precios reducidos, como la redacción de recursos contra multas de tráfico, reclamaciones de consumo, gestiones migratorias o disputas en tribunales menores.
La compañía defendía que su tecnología era capaz de desempeñar funciones legales al nivel de un letrado, lo que permitía a los usuarios “evitar el coste de los honorarios tradicionales”.
Sin embargo, tras múltiples denuncias de usuarios que detectaron errores graves en los documentos generados por la IA —algunos de los cuales derivaron en perjuicios legales—, la FTC abrió una investigación.
La conclusión fue que DoNotPay engañó al público al afirmar que su producto ofrecía un asesoramiento jurídico equiparable al de un abogado humano, sin contar con evidencias ni revisión profesional que lo sustentara.
Según el organismo estadounidense, la empresa no disponía de abogados cualificados que supervisaran la calidad legal de los documentos generados, ni podía demostrar que su herramienta fuese capaz de aplicar correctamente las normas jurídicas a casos concretos.
Por tanto, la publicidad basada en equivalencias con profesionales legales constituía una práctica comercial desleal y engañosa.
Medidas correctivas y transparencia obligatoria
Además de la sanción económica, la resolución obliga a DoNotPay a cesar inmediatamente toda publicidad que sugiera que su IA puede sustituir a un abogado. También deberá comunicar por correo electrónico a todos los usuarios registrados entre 2021 y 2023 que sus mensajes promocionales eran incorrectos, y modificar de manera permanente su estrategia de marketing.
La empresa ya ha comenzado a aplicar estas directrices. En su sitio web ha eliminado el eslogan “The world’s first robot lawyer” y lo ha reemplazado por una descripción más cauta: “Your AI Consumer Champion” (“Tu campeón de consumo con inteligencia artificial”).
Asimismo, durante los próximos diez años, DoNotPay deberá mantener registros detallados de sus campañas publicitarias y del funcionamiento de sus servicios, así como remitir informes anuales a la FTC firmados por su fundador, en los que certifique el cumplimiento de los compromisos asumidos.
Implicaciones para el futuro de la IA jurídica
La decisión de la FTC abre una etapa de mayor escrutinio regulatorio para las aplicaciones de inteligencia artificial que operan en el ámbito legal. Si bien estas tecnologías ofrecen oportunidades reales de democratizar el acceso a la justicia, especialmente en procedimientos sencillos, el caso de DoNotPay subraya los riesgos de su utilización sin supervisión humana ni base jurídica contrastada.
“La IA no estaba preparada para asesorar como un profesional letrado”, señala la FTC en su comunicado. “Las empresas que prometen reemplazar a profesionales humanos deben tener la capacidad real para hacerlo, y deben respaldarlo con evidencia verificable”.
El caso reaviva el debate sobre los límites éticos y legales del uso de la IA en entornos regulados, como el Derecho, y pone de manifiesto la necesidad de establecer estándares claros para proteger a los consumidores frente a promesas tecnológicas infundadas.
Noticias Relacionadas: