Días atrás, una madre y su hija de 14 años que viven en New Jersey pidieron publicamente que se aumenten las medidas de protección a las víctimas de extorsión sexual, luego de que en la escuela de la joven circularan fotos suyas desnuda y otras de sus compañeras que habían sido generadas a partir del uso de herramientas de Inteligencia Artificial. En paralelo, en Seattle, un grupo de investigadores intenta aclarar un incidente en el que supuestamente un adolescente utilizó IA para crear y distribuir imágenes similares de un grupo de sus compañeras.
Meses antes, en setiembre de este año, en España, se presentaron al menos 22 denuncias por la generación de imágenes de desnudos de niñas de entre 12 y 14 años en una ciudad de Badajoz. Los responsables de crear estos deepfakes eran varones adolescentes de edades similares, que luego de hacer las imágenes en una aplicación que cobraba 9 euros por un pack de fotos, las distribuyeron en grupos de WhatsApp y Telegram. El caso está siendo investigado por la Justicia española.
Hasta ahora en Uruguay no se conocen públicamente casos de este tipo. Eso, lamentablemente, no quiere decir que no existan y estén entre nosotros. Sobre todo si tenemos en cuenta los datos de uso de esta tecnología para la creación de videos.
En 2019, la empresa de investigación Sensity AI encontró que el 96% de los videos de deepfake disponibles en internet eran de pornografía no consensuada. Con la evolución de la inteligencia artificial también empezó a usarse esta técnica para amenazar y acosar a personas, especialmente a mujeres. Niñas y adolescentes comunes y también, mujeres famosas. En mayo de 2023, el rapero JC Reyes subió a Instagram diferentes imágenes de la cantante española Rosalía con el torso desnudo. Todas manipuladas. Rosalía respondió en X: “El cuerpo de una mujer no es propiedad pública, no es una mercancía para tu estrategia de marketing. Esas fotos estaban editadas y creaste una falsa narrativa alrededor cuando ni te conozco”.
Este es uno de los costados más dañinos de la Inteligencia Artificial que hoy está disponible. Porque más allá de los peligros que los expertos anuncian y que todos podemos imaginar, existen daños que hoy están entre nosotros.
Pero vayamos por partes. ¿Qué es un deepfake? Se trata de una técnica que permite usar inteligencia artificial para editar videos. Con esta técnica, se pueden poner rostros, movimientos y gestos de una persona sobre el cuerpo de otros. En el cine es cada vez más común y las últimas películas y series de Star Wars son un ejemplo de esto. Pero desde hace unos años, el deepfake se está utilizando para videos pornográficos. En las primeras etapas, se usaban películas porno y se cambiaban las caras de las actrices porno por rostros de cantantes o actrices de Hollywood. Y en el caso del contenido pornográfico, el deepfake se hace siempre sin consentimiento.
En la actualidad el acceso a herramientas masificadas ha generado casos como los relatados al principio de esta columna, donde por apenas unos dólares un adolescente puede “desnudar” a sus compañeras de clase y hacer circular esas imágenes. Muchas veces el acceso a la tecnología que nos permite hacer algo, no viene acompañado de la capacidad crítica, la formación ética y la madurez para entender el impacto que tiene utilizarla. Tal vez sea momento, aunque más no sea corriendo de atrás, de comenzar a reflexionar en nuestras casas, en los centros educativos, en las instituciones sobre la violencia y el daño que implica desnudar sin consentimiento a una persona aunque sea “solo” virtualmente.