Deepfakes, inteligencia artificial y violencia digital: un desafío jurídico urgente

El derecho avanza al ritmo de la sociedad, y hoy más que nunca, enfrenta el reto de adaptarse a las transformaciones aceleradas que traen consigo las nuevas tecnologías. Un caso emblemático es la irrupción de la inteligencia artificial (IA) en múltiples ámbitos de la vida humana: desde herramientas que redactan textos o resumen documentos, hasta la creación de complejas obras digitales.

Sin embargo, estos avances también plantean riesgos jurídicos significativos, particularmente con la proliferación de contenidos falsos generados mediante IA, como los deepfakes. Estas representaciones digitales hiperrealistas permiten suplantar la identidad de una persona a partir de una sola imagen, sin su autorización, alterando rasgos, expresiones, voz y movimientos.

¿Cual sería entonces el mayor peligro?

Que cualquier persona podría ser víctima de la manipulación de su imagen y datos biométricos sin saberlo. Estas herramientas han sido utilizadas para difamar, engañar, cometer delitos informáticos o vulnerar la intimidad.

Estudios revelan que el 96% del contenido deepfake disponible en internet tiene fines de carácter sexual explícito o sensacionalista, y suele difundirse sin el consentimiento de las personas implicadas. Un caso ampliamente divulgado fue el del streamer estadounidense Bradon Ewing (Atrioc), quien fue captado durante una transmisión en vivo con contenido generado por inteligencia artificial, de naturaleza sexual, visible en su pantalla. Este hecho reabrió el debate sobre el consentimiento digital, la explotación de la imagen personal y la responsabilidad jurídica frente al desarrollo y uso de estas tecnologías.

El marco legal: insuficiente y reactivo

Desde el punto de vista jurídico, la creación y difusión de deepfakes puede encuadrarse en tipos penales como la suplantación de identidad, falsedad personal, injuria, calumnia o delitos informáticos. En Colombia, el tipo penal más cercano es la falsedad personal; sin embargo, este solo se configura si el acto se vincula a otro delito, dejando fuera muchos casos donde el daño es real, pero jurídicamente difuso.

Esta laguna normativa impide prevenir abusos y limita las posibilidades de reparación efectiva. Es urgente:

  • Establecer regulación específica sobre el uso de IA en la alteración de identidades.
  • Tipificar la generación y difusión de contenidos falsos no autorizados, incluso si no derivan en otros delitos.
  • Garantizar la protección de los datos biométricos, como imágenes faciales, voces o expresiones.

El derecho como herramienta preventiva

La regulación no debe frenar la innovación, sino encauzarla. La IA tiene un potencial invaluable para el desarrollo científico, educativo, jurídico y social. Pero su aplicación debe regirse por principios éticos, respeto por los derechos fundamentales y límites claros frente a su uso indebido.

La creación de imágenes y videos hiperrealistas sin consentimiento no puede normalizarse como daño colateral del progreso. Es hora de que el derecho actúe no solo como mecanismo sancionador, sino también como herramienta preventiva y protectora, anticipándose a los impactos de una tecnología que evoluciona más rápido que las normas que buscan controlarla.

Información tomada del artículo titulado: Deepfake: acerca de las implicaciones jurídicas por el uso de imágenes generadas con inteligencia artificial.
Autor: Johan Sebastian Lozano P., miembro del ICDP.
URL:
https://icdp.org.co/deepfake-acerca-de-las-implicaciones-juridicas-por-el-uso-de-imagenes-generadas-con-inteligencia-artificial/

Referencias bibliográficas
(Se conservan íntegramente del documento original para garantizar su fidelidad)

  1. García Ull, F. J. (2023). Deepfakes: el próximo reto en la detección de noticias falsas. Revista Anàlisi: Quaderns de comunicació i cultura, 64(1), 103–120.
  2. Carranza, M. (2023). El escándalo del Streamer Atrioc y las fotos de desnudos generadas por IA. Sopitas.com.
  3. Simó Siler, E. (2023). Retos jurídicos derivados de la inteligencia artificial generativa. Deepfakes y violencia contra las mujeres como supuestos de hecho. Revista InDret, 3(1), 493–515.
  4. Ibídem, p. 495.
  5. Nobbot. (2019). El 96% de los videos “deepfake” son pornografía y las víctimas son mujeres. Nobbot Tecnología para las personas.
  6. Croft, A. (2019). From Porn to Scams, Deepfakes are becoming a big racket – and that’s Unnerving Business leaders and Lawmakers. Fortune.
  7. Suárez Font, A. (2023). Los peligros del porno “deepfake”: la inteligencia artificial también te puede arruinar la vida. La Vanguardia.

 

 

Compartir Artículo

Otros

Artículos Recientes

¿Tienes dudas o preguntas?

Realiza una consulta sin costo

Si tienes dudas o preguntas, no dudes en escribirnos. Nuestros abogados pueden ayudarte a llevar los casos más complicados y acompañarte en el proceso.