Firmas

Opinión | Implicaciones éticas y legales de los videos ultrarrealistas creados por IA: Un estudio sobre Sora de OpenAI

Opinión | Implicaciones éticas y legales de los videos ultrarrealistas creados por IA: Un estudio sobre Sora de OpenAI
Carlos Franco aborda la dimensión jurídica que presenta la novedad de Sora. Foto: ChatGPT.
17/2/2024 06:30
|
Actualizado: 17/2/2024 10:57
|

El pasado día 15 de febrero salió a la luz el nuevo producto de OpenAI, creadores del omnipresente ChatGPT, denominado Sora[1], presentándolo como un modelo de Inteligencia Artificial (IA) que puede crear escenas realistas e imaginarias desde instrucciones escritas.

En este sentido, la capacidad de Sora para generar videos de alta fidelidad a partir de descripciones en formato texto abre nuevas fronteras en campos como la educación, el entretenimiento, publicidad, investigación científica, etc.

Sin embargo, estas capacidades también plantean preguntas críticas sobre el sesgo de datos, la transparencia, el control de contenido, y la responsabilidad legal y ética.

La Comisión Europea ha definido los sistemas de Inteligencia Artificial como sistemas de software (y posiblemente también de hardware) diseñados por humanos que, dados un objetivo complejo, actúan en la dimensión física o digital percibiendo su entorno a través de la adquisición de datos, interpretando los datos estructurados o no estructurados recopilados, razonando sobre el conocimiento o procesando la información derivada de estos datos y decidiendo la(s) mejor(es) acción(es) a tomar para alcanzar el objetivo dado. Los sistemas de Inteligencia Artificial pueden usar reglas simbólicas o aprender un modelo numérico, y también pueden adaptar su comportamiento analizando cómo sus acciones previas afectan el entorno.[2]

SORA 2
La realidad generada por Sora es indistinguible de la realidad misa. Foto: ChatGPT.

En este contexto, a principios del año pasado ya se adelantaba la eventual posibilidad de crear sintética o artificialmente videos que pudieran repercutir positiva o negativamente en la vida de las personas o Estados sin capacidad de discernir la realidad de la ficción, creando una realidad virtual que por su precisión y características supera la mentalidad de cualquier ser humano que a veces, ni siquiera a través de pruebas periciales son capaces de discernir la realidad de la ficción.[3]

Este nuevo escenario puede acarrear ciertos desafíos jurídicos como los que se detallan a continuación:

a) Propiedad intelectual y derechos de autor

En nuestro anterior artículo sobre el rol de la Inteligencia Artificial en la propiedad intelectual se analizaban las nuevas posibilidades de que las máquinas, plataformas de Inteligencia Artificial o diversos softwares sean titulares de derechos de autor.[4]

En este sentido, la titularidad de derechos de autor por parte de la Inteligencia Artificial promovería la innovación y el desarrollo tecnológico, reconociendo el esfuerzo y la inversión en la creación de sistemas de Inteligencia Artificial capaces de producir obras originales.

Esta perspectiva sostiene que otorgar derechos de autor a la Inteligencia Artificial podría incentivar a los desarrolladores a crear sistemas más avanzados y creativos, contribuyendo así al progreso cultural y tecnológico.

Por el contrario, otorgar derechos de autor a la Inteligencia Artificial socava los principios fundamentales del derecho de autor, diseñados para proteger las creaciones humanas y promover el enriquecimiento cultural a través del reconocimiento del esfuerzo humano.

Reconocer a la Inteligencia Artificial como titular de derechos desvía la atención de los verdaderos creadores (los programadores y diseñadores de sistemas de Inteligencia Artificial) y plantea dilemas éticos sobre la autoría y la originalidad, potencialmente obstaculizando la colaboración y el acceso libre al conocimiento y la cultura.

SORA 3
Sora puede hacer «volver a la vida» en imagen a los mamuts desaparecidos de la tierra hace miles de años. Foto: ChatGPT.

b) Privacidad y derechos de imagen

La creación de videos ultrarrealistas por Inteligencia Artificial plantea serios desafíos para la privacidad y los derechos de imagen, ya que estos sistemas pueden generar representaciones precisas de individuos sin su consentimiento.

Este avance tecnológico desdibuja las líneas entre la realidad y la ficción, permitiendo la creación de contenido que puede ser utilizado en contextos perjudiciales o difamatorios, lo que pone en riesgo la imagen pública de las personas involucradas.

La dificultad para discernir entre contenido real y generado aumenta la vulnerabilidad de los individuos a ser retratados de manera engañosa, socavando su derecho a la privacidad y control sobre su propia imagen.

Frente a estos desafíos, se hace imperativo el desarrollo de marcos legales robustos que regulen el uso de la Inteligencia Artificial en la creación de contenido audiovisual, protegiendo así los derechos de imagen y privacidad de los individuos.

En este sentido, se propone el establecimiento de políticas claras que exijan la obtención de consentimiento explícito de las personas representadas en videos generados por Inteligencia Artificial, junto con mecanismos de resarcimiento y reparación del daño efectivos para quienes se vean afectados negativamente por su uso indebido. Esta evolución normativa debe equilibrar la innovación tecnológica con el respeto a los derechos fundamentales, asegurando que el avance de la Inteligencia Artificial no se produzca a expensas de la dignidad y la privacidad individual.

c) Difamación y desinformación

La difamación y la desinformación se ven potenciadas significativamente con el uso de videos ultrarrealistas creados por Inteligencia Artificial, ya que estos pueden fabricar escenarios falsos o manipular declaraciones de individuos de manera convincente.

La habilidad para crear contenido que parece auténtico pero es completamente falso presenta un riesgo sustancial para la integridad de la información, pudiendo dañar reputaciones, influir en la opinión pública y manipular eventos políticos o sociales sin un método fácil de verificación por parte del espectador promedio.

Ante esta problemática, es crucial desarrollar e implementar tecnologías de detección de deepfakes[5], así como establecer marcos legales que sancionen la creación y distribución de contenido difamatorio generado por Inteligencia Artificial.

Esto requiere una colaboración entre tecnólogos, legisladores y educadores para aumentar la conciencia sobre los riesgos de la desinformación y promover el desarrollo de habilidades críticas en el público para discernir entre contenido auténtico y manipulado. La respuesta a este desafío debe ser multifacética, incluyendo tanto avances tecnológicos como educación y regulación.

d) Regulación y control

La regulación y control de los videos ultrarrealistas creados por inteligencia artificial son fundamentales para mitigar los riesgos asociados a su mal uso. Establecer un marco legal específico que aborde la creación, distribución y utilización de estos videos es crucial para proteger los derechos individuales y preservar la integridad de la información. Esto incluye legislación que regule la autoría y propiedad de los contenidos generados por Inteligencia Artificial, así como normas que prevengan su uso para difamar, desinformar o violar la privacidad.

Además, es esencial implementar mecanismos de control tecnológico que permitan la detección y marcado de contenido generado por Inteligencia Artificial, asegurando la transparencia sobre el origen de los videos. La colaboración internacional para homogeneizar estos marcos regulatorios facilitaría la gestión de contenido a nivel global, promoviendo un equilibrio entre la innovación tecnológica y la protección de los derechos fundamentales.

Estas medidas requerirían la participación activa de desarrolladores, reguladores y la sociedad civil para adaptarse eficazmente a la rápida evolución de la Inteligencia Artificial.

En este aspecto, la reciente Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) tendrá un papel vital en la supervisión, el asesoramiento, la concienciación y la formación dirigidas a entidades de derecho público y privado para la adecuada implementación de toda la normativa nacional y europea en torno al adecuado uso y desarrollo de los sistemas de inteligencia artificial, más concretamente, de los algoritmos, así como de la función de inspección, comprobación, sanción y demás que le atribuya la normativa europea que le resulte de aplicación y, en especial, en materia de Inteligencia Artificial.[6]

Debido a estos desafíos, OpenAI ha decidido retrasar la salida al público de su nuevo producto Sora con el fin de trabajar con expertos en dominios como desinformación, contenido de odio y sesgo, quienes probarán adversariamente el modelo. Asimismo, en la actualidad se encuentran desarrollando herramientas para detectar contenido engañoso a través de un clasificador de detección que tiene la capacidad de identificar cuándo un video fue generado por Sora a través de la inclusión de metadatos en sus creaciones.


[1] Más información en: https://openai.com/sora

[2] Cfr. Samoili, S., López Cobo, M., Gómez, E., De Prato, G., Martínez-Plumed, F., and Delipetrev, B., AI Watch. Defining Artificial Intelligence. Towards an operational definition and taxonomy of artificial intelligence, EUR 30117 EN, Publications Office of the European Union, Luxembourg, 2020, p. 9.

[3] Cfr. PUYOL, J. y FRANCO, C., “La Inteligencia Artificial y la aplicación en su desarrollo de directrices éticas”, Confilegal, 15 de marzo de 2023. Disponible en: https:// confilegal.com/20230315-la-inteligencia-artificial-y-la-aplicacion-en-su-desarrollo-de-directrices-eticas/

[4] Cfr. FRANCO BLANCO, C., “El rol de la Inteligencia Artificial en la propiedad intelectual: análisis del caso Thaler en el Supremo inglés”, Confilegal, 8 de enero de 2024. Disponible en: https ://confilegal.com/20240108-inteligencia-artificial-propiedad-intelectual-caso-thaler-dabus/

[5] El Instituto Nacional de Ciberseguridad (INCIBE) define los Deepfakes como vídeos manipulados para hacer creer a los usuarios que ven a una determinada persona, tanto si es anónima como si es personaje público, realizando declaraciones o acciones que nunca ocurrieron, a través del uso de herramientas o programas dotados de tecnología de inteligencia artificial que permiten el intercambio de rostros en imágenes y la modificación de la voz. Más información en: https://www.incibe.es/aprendeciberseguridad/deepfakes

[6] Real Decreto 729/2023, de 22 de agosto, por el que se aprueba el Estatuto de la Agencia Española de Supervisión de Inteligencia Artificial.

Otras Columnas por Carlos Franco:
Últimas Firmas
  • Opinión | «La Guerra de Charlie Wilson» en Afganistán: Una decisión cuyas consecuencias aún sacuden la geopolítica actual
    Opinión | «La Guerra de Charlie Wilson» en Afganistán: Una decisión cuyas consecuencias aún sacuden la geopolítica actual
  • Opinión | Los pactos de socios, pilar fundamental en sociedades de reciente creación
    Opinión | Los pactos de socios, pilar fundamental en sociedades de reciente creación
  • Opinión | En torno al nuevo criterio del Supremo sobre el delito de falsedad documental por simulación
    Opinión | En torno al nuevo criterio del Supremo sobre el delito de falsedad documental por simulación
  • Opinión | En defensa de la independencia del CGPJ: no todo vale
    Opinión | En defensa de la independencia del CGPJ: no todo vale
  • Opinión | Procuradores: Orgullosos de nuestros 450 años de historia
    Opinión | Procuradores: Orgullosos de nuestros 450 años de historia