Firmas

¿Es posible que un día tengamos un «juez robot» administrando justicia?

¿Es posible que un día tengamos un «juez robot» administrando justicia?
Javier Puyol es el socio director de Puyol Abogados, una boutique legal especializada en el mundo de las nuevas tecnologías y el cumplimiento normativo. Confilegal.
26/2/2017 05:58
|
Actualizado: 11/12/2023 12:12
|

Ya señalaba Rabindranath Tagore que el hombre necesita la máquina y la organización, pero tiene que dominarlas y humanizarlas en vez de resignarse a ser mecanizado y deshumanizado por ellas.

El verdadero peligro para el hombre, no está en los riesgos que corre la seguridad material, sino en el oscurecimiento del hombre mismo en su propio mundo humano», y como recuerda Lopezserrano Reyes, los avances tecnológicos y científicos de gran magnitud siempre han chocado en su etapa inicial con instituciones que controlan y rigen el orden de la sociedad, y esto incluye a la religión. Recordemos el caso de Galileo, torturado y apresado por tener el atrevimiento de declarar que la tierra no sólo no era el centro del universo, sino que tampoco era plana.

Este miedo al cambio y a lo nuevo se puede traducir en un rechazo programado hacia aquello que lo represente. Y en este panorama, la Inteligencia Artificial puede ser al mismo tiempo, víctima y culpable de su propio proceso de evolución.

Adams ponía de manifiesto que nosotros, los humanos, como potenciales dadores de sentimientos afrontamos gran cantidad de dilemas morales y éticos, porque si la máquina se comporta como nosotros y tiene la capacidad de emitir sus propios juicios ¿dejaremos de pensar que es una máquina y empezaremos a tratarla como un ser humano?

¿Cómo un igual?

Todo ser dotado de sentimientos y mente puede tomar decisiones y  tener juicios que podrían ser inválidos o errados, y ¿cómo reaccionar a esto? ¿Qué pasaría si esos errores son crímenes? ¿Cómo castigarlos? Siempre podríamos solo desconectarla pero en realidad ¿la estaremos matando?

Por ello, cabe traer a colación con Wikipedia, el concepto de ética o moral de las máquinas que hace referencia a la parte de la ética de la inteligencia artificial que trata el comportamiento moral de los seres con inteligencia artificial.

La ética de las máquinas contrasta con la roboética, que se enfoca al comportamiento moral de los humanos mientras diseñan, construyen, usan y tratan a los seres con inteligencia artificial. La ética de las máquinas no debe ser confundida con la ética computacional, la cual se enfoca en el comportamiento profesional en el uso de las computadoras y la información.

Alfredo Rodríguez Díez señalaba en un reciente trabajo, como la Cibernética y la Inteligencia Artificial son dos las ciencias que han tenido un alto crecimiento en los últimos años, lo que unido a los vertiginosos progresos de la tecnologías asociadas a la Informática, han conllevado a investigadores y científicos a pronosticar el desarrollo de máquinas que no solo superen al hombre en el procesamiento de complejas operaciones matemáticas, ni en la manipulación de grandes volúmenes de información, el reto está en máquinas que han denominado «inteligentes» porque serán capaces de realizar tareas que hasta el momento sólo desarrollan los humanos y algunos se han aventurado a predecir que habrá una convergencia entre humanos y máquinas y que podrían en una etapa dominar a la humanidad.

La Inteligencia Artificial, se ha definido como la habilidad que tienen los computadores de hacer tareas que hasta ahora hacen mejor los humanos.

La Inteligencia Artificial, tiene por objetivo hacer que los computadores no sólo puedan procesar información, almacenarla y realizar acciones repetitivas, sino que sean capaces de entender la información, simular las competencias de un experto humano a partir de datos, a priori, cumpliendo tareas inteligentes, dejadas sólo para los humanos.

Y en tal sentido, como ponen de manifiesto Castrillón Gómez, Rodríguez Córdoba y Leyton Castaño, es importante considerar que en un futuro muy cercano la incorporación de la ética en los sistemas inteligentes como: Sistemas expertos, redes neuronales, sistemas evolutivos, etc., será una tendencia activa en el ambiente industrial de países con alto desarrollo tecnológico y con una gran inversión en investigación y desarrollo.

Sin embargo, dicha incorporación puede traer altos sobrecostos en el diseño y construcción de estos sistemas, surgiendo así nuevas inquietudes. Para estos autores, la ética es una  necesidad y una urgencia para la Inteligencia Artificial, ya que existe la necesidad de crear una conciencia que logre cambiar los modos de pensar de mucha gente sobre la urgencia de la incorporación de la ética dentro de actividades de diseño y desarrollo de agentes o máquinas inteligentes. De esta manera se garantizan dos requisitos:

a). Primero, que se tengan en cuenta las implicaciones del uso de técnicas de Inteligencia Artificial en la generación y mantenimiento del empleo.

b).Segundo, que dichas máquinas no atenten contra la integridad de los humanos y cumplan con una serie de códigos de conducta, restringiéndoles sus acciones, y no se desvíen de las normas que rigen a los humanos

Hoy en día, y desde una perspectiva eminentemente práctica los límites técnicos no son críticos. Los avances de la tecnología rompen las barreras establecidas a mayor velocidad de lo que la sociedad y el individuo puedan asimilar. Los límites físico-teóricos están demasiado lejos para que lleguen realmente a restringir posibilidades.

Debemos mucho antes encontrarnos con otros obstáculos, de naturaleza económica, socio-jurídica y –especialmente– ética, tal como ha indicado Fernando de Cuadra, el cual considera a la inteligencia artificial como un conjunto bastante diverso de disciplinas que persiguen objetivos similares: resolver automáticamente problemas, y/o realizar tareas, que por su complejidad requieren un cierto grado de inteligencia. Entre estas disciplinas incluyo la programación matemática, la investigación operativa, la informática avanzada, la ingeniería del conocimiento y el control inteligente.

En cuanto a su vertiente aplicada, se considera la inteligencia artificial como una rama más de la ingeniería.

Por ello se ha de prestar una especial atención a las llamadas “decisiones problemáticas” desde un punto de vista ético son sólo aquellas que puedan perjudicar directa o indirectamente a las personas. Por lo tanto se debe cuestionar si el desarrollo y explotación de un sistema inteligente puede afectar a la vida, la salud (lo que incluye el medio ambiente), la libertad, la intimidad, el puesto de trabajo o la dignidad de alguien, y en general a su bienestar físico y mental.

Leyes de la robótica

AIsoy Robotics, tomando como punto inicial las literarias Tres Leyes de la Robótica de Isaac Asimov, basadas en una moralidad funcional, cita a R. Murphy y D. Woods los cuales proponen tres leyes alternativas que pueden aplicarse a las capacidades y funciones que tienen los robots hoy en día; leyes que hacen bastante hincapié en la responsabilidad social y legal que tiene el ser humano sobre el comportamiento del robot.

No obstante ello, deben recordarse con carácter previo, los enunciados que resumían las famosas leyes de Asimov:

a). Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.

b). Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.

c). Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.

Según R. Murphy y D. Woods, estas leyes asumen que los robots tienen capacidades y conocimientos suficientes como para tomar decisiones de orden moral. Este hecho está aún lejos de producirse y ni siquiera tenemos garantías de que se vaya a conseguir en el futuro. De hecho, los autores ponen en duda el objetivo de construir máquinas que participen significativamente en contextos conversacionales totalmente abiertos, sobre todo en aplicaciones reales.

Para salvar esta inadecuación entre el contexto actual y los robots ficticios de Asimov, se proponen tres leyes alternativas orientadas a regular equipos de personas y robots que están a cargo de una misma tarea, a diferencia del marco planteado por Asimov, que se centraba solamente en regular el comportamiento del robot:

a). Un ser humano no debe poner un robot en funcionamiento sin que el equipo de trabajo hombre-robot cumpla los más altos estándares de profesionales y legales en seguridad y ética (equiparables a los de un equipo de personas).

b). Un robot debe responder apropiadamente, según su papel en el equipo.

c). Un robot debe tener la suficiente autonomía para proteger su propia existencia, siempre que dicha autonomía permita la transferencia de control a otros miembros del equipo de manera fluida y según la primera y la segunda ley.

Desde el punto de vista de la legalidad muchas,  y muy novedosas son las cuestiones que nos abordan. En este contexto, hay numerosos temas que deben ser objeto de análisis y de reflexión desde la perspectiva del desarrollo tecnológico y de las nuevas aplicaciones que incluyen ideas que tienen que ver con la confidencialidad de la información en Internet, la protección de datos personales, la seguridad informática, la investigación cibernética, los derechos de autor, la responsabilidad, etc.

Y más concretamente como señala Pompeu Fabra la interrelación entre Inteligencia Artificial y el Derecho nació con el objetivo de solucionar un conjunto de problemas específicos que se plantean en el ámbito jurídico.

Algunos de estos problemas son conocidos y persisten hasta hoy: la organización de las grandes bases de datos, la clasificación y ordenación de textos jurídicos que varían con el tiempo (leyes, reglamentos, sentencias…), el interfaz con los distintos tipos de usuarios, el modelado de las operaciones realizadas por los agentes políticos (legística) y jurídicos (razonamiento judicial, razonamiento por casos, resolución de problemas), el modelado de determinados ámbitos del conocimiento jurídico  (especialmente en derecho financiero y en cálculo de tasas e impuestos), el modelado de la argumentación razonable en función de normas o de precedentes, etc.

Juez robot

En este sentido, es posible que un día tengamos un juez robot, artificial, administrando justicia, ya que tal como seña Martínez Bahena, cuando se plantea la posibilidad de servirse de los instrumentos informáticos para poder representar los procesos mentales que realizan los jueces con carácter previo a dictar sentencia, la respuesta que se recibe son preconceptos de quienes sostienen que es imposible sustituir la subjetiva apreciación del juzgador por la evaluación mecánica de un aparato, por muy sofisticado que este sea.

Sin embargo, los programadores de computadoras en conjunto, como investigadores jurídicos que son, han desarrollado ya proyectos de programas de computación que pueden representar los procesos de pensamiento que realizan los jueces en el momento de evaluar las pruebas y los escritos presentados por las partes en el juicio que fue sometido a su consideración, evaluación que finalmente les lleva a resolver en un sentido o en otro, sin que ello implique necesariamente la sustitución la figura del impartidor de justicia.

Ello exige definir los elementos necesarios para la creación de sistemas expertos jurídicos capaces de procesar la información de manera fiable y adecuada.

Los sistemas expertos a diferencia de la Inteligencia Artificial se basan en una cualidad típica del ser humano, que es la experiencia, y se pueden definir como aquellos programas informáticos que reproducen las actuaciones que ha previsto el experto que los diseña, lo que implica desde el punto de vista legal, la creación de programas jurídicos que ante una situación jurídica van a dar una respuesta y solución al problema suscitado de acuerdo con la ley.

Por ello, Lancho Pedrera ha puesto de manifiesto que los sistemas expertos son el último concepto de las aplicaciones informáticas.

Y suponen el intento del hombre por simular la inteligencia humana por medio de sistemas informáticos. Dichos sistemas aplicados al mundo jurídico, están suponiendo una especial revolución tanto en el campo teórico como en la aplicación práctica del derecho. Por ello, los sistemas expertos en Derecho son ya una realidad en su aplicación, pero su desarrollo en los próximos tiempos supondrá un cambio radical en la percepción que tiene el jurista sobre el derecho, y su aplicación.

Todas estas consideraciones nos llevan a la conclusión con Diego Perdomo, consistente en que el problema ético más inmediato en un sistema de razonamiento automático es el mismo que en otros tipos de sistemas: hasta qué punto el objetivo fundamental de la aplicación es ético cuestión más general es hasta qué punto debe confiarse a una máquina la toma de decisiones, cuando nunca puede ser responsable de las mismas. P

or ello, en estos problemas que incluyen atributos éticamente conflictivos, la decisión final debe tomarla una persona que se haga responsable de las consecuencias. Una herramienta automática puede generar el conjunto de soluciones óptimas, para que el usuario de la herramienta, es decir, la persona escoja entre ellas la solución más apropiada a las circunstancias concretas ante las que se tenga que tomar una decisión concreta.

Finalmente puede afirmarse con Mario Conde, el cual señala que en cualquier caso, los más optimistas en torno al futuro desarrollo de la Inteligencia Artificial consideran que llegará un momento en el que nos será posible recrear un universo virtual de esta clase con el objetivo, entre otros, de estudiar los patrones de comportamiento entre los seres humanos.

Y como dice el filósofo Nick Bostrom al defender su teoría del universo simulado, “no hay ley física conocida o restricción material que impida a una civilización lo suficientemente avanzada tecnológicamente implementar mentes humanas en computadoras”.

La cuestión es si sería ético “crear” vida inteligente en un espacio virtual sin hacer a estos “seres” partícipes de su propia naturaleza, teniendo en cuenta en todo caso, como afirma Cordeiro, que no hay que temer a la inteligencia artificial, sino a la estupidez humana.

Otras Columnas por Javier Puyol Montero:
Últimas Firmas
  • Opinión | Los juicios serán preferentemente telemáticos a partir de ahora, según  el Real Decreto-ley 6/2023
    Opinión | Los juicios serán preferentemente telemáticos a partir de ahora, según el Real Decreto-ley 6/2023
  • Opinión | El secreto de la fase de instrucción ha muerto
    Opinión | El secreto de la fase de instrucción ha muerto
  • Opinión | Elección de colegio y patria potestad
    Opinión | Elección de colegio y patria potestad
  • Opinión | CDL – El pleito de M&A más complejo y largo de la Historia: La compra de Autonomy por Hewlett-Packard (I)
    Opinión | CDL – El pleito de M&A más complejo y largo de la Historia: La compra de Autonomy por Hewlett-Packard (I)
  • Opinión | ¿A quién defiende el Defensor del Pueblo?
    Opinión | ¿A quién defiende el Defensor del Pueblo?