Esta semana una serie de deepfakes, desnudos arficiales de menores no consentidos, han sido noticia desde Almendralejo, una localidad de 30.000 habitantes entre los que se conocen todos. Pero para mí quienes han sido la noticia han sido las madres, que reaccionaron rápidamente de la mano de una de ellas, ginecóloga, que no dudó en usar sus redes sociales para contar esto cuando su hija se lo contó. Esto hizo que un grupo de madres se organizase por Whatsapp para denunciar, y luego surgieran otras denuncias similares también en Alcalá de Henares (Madrid). Muchas de ellas, como me dijo Miriam Al Adib, la ginecóloga, oían la palabra deepfakes y se encontraban con la IA así de la peor forma.
La mayoría de medios en un primer momento enfocaron la noticia desde lo tecnológico, algún tuitero wanna-OSINT decía cuál era la herramienta, y otros daban detalles que para mí no son lo fundamental del caso. Muchos se preguntaban por el Código Penal, y pedían leyes específicas «para la IA», confundiendo varias cosas. Hablé con Borja Adsuara, un abogado que sostiene que esto no es necesario, así como no hace falta una ley que tipifique la ciberestafa para castigar una estafa.
Y recordé el estudio más amplio y más citado sobre los deepfakes, que fue llevado a cabo en 2019 por Deeptrace, a pedido de Sensity AI. Desveló que el 96% de los vídeos deepfakes eran pornográficos y no consentidos. “La pornografía con IA daña exclusivamente a mujeres” dice ese informe. Lo que es necesario es que nos demos cuenta de que la IA es una arma masiva de última generación al servicio de la violencia machista. Después de avisar a las chicas que no tienen que avergonzarse, y a los padres que deben denunciar, el mensaje más importante según Al Adib, debe ir hacia los chicos: «No me vale que estés en un Whatsapp grupal y te quedes callado. Todo eso también daña a las víctimas». Lo mismo piensa Adsuara, que me explicó los tipos legales que corresponden. Todo, enlaces, estudios y lo que me contaron, en este reportaje para Newtral.
Foto: Kallerna | Wikimedia CC BY-SA 4.0
[Archivo]