Las trampas de la Inteligencia Artificial: ¿Cómo no caer en los ‘deepfake’?
Desde memes hasta golpes de estado, las limitaciones del ‘deepfake’ y las imágenes alteradas son infinitas. Para evitar fraudes o ‘fake news’, es indispensable identificarlas.
Foto: Af Stephen Wolfram/Stephen Wolfram
LatinAmerican Post | Julián Gómez
Escucha este artículo
Read in english: The Traps of Artificial Intelligence: How not to Fall for the ‘Deepfake’?
Así como Kendrick Lamar desde el arte viralizó con ‘deepfake’ el videoclip de “The Hart Part V”, este avance tecnológico también ha sido usado de manera perjudicial. Esta semana se conoció que la ‘gamer’ británica conocida como Sunpi tuvo que pagar 500 libras esterlinas para que bajaran de internet un video pornográfico que mostraba su rostro con el uso de esta Inteligencia Artificial.
Como la mayoría de avances de la IA, muchos entes piden su control con el ‘deepfake’, que es la falsificación de contenidos audiovisuales que involucran a personas hablando. Además de ser combustible para las ‘fake news’, esta técnica es una herramienta idónea para el fraude, extorsión o cibercrimen. Por eso, gobiernos como el del Reino Unido penaliza a las personas que crean pornografía usándolo sin permiso.
Muchas personas usaron esta técnica para memes o imágenes cómicas. Un ejemplo es la del Papa vistiendo un abrigo moderno más digno de las grandes pasarelas de Europa que de sus atuendos en el Vaticano. Por otra parte, están quienes las utilizan para difundir ‘fake news’ como la fotografía viralizada de Donald Trump esposado. Dicha imagen inició siendo un experimento y se dio en el marco de la imputación que el expresidente de Estados Unidos tuvo por sobornar a una actriz porno durante las elecciones de 2016.
¿Cómo reconocer el ‘deepfake?
Como gran parte de la población es susceptible de caer en la trampa del ‘deepfake’, hay varios trucos que permiten detectarlo sin ser un experto. Es importante identificar lo real de lo falso, ya que ha habido casos como el de Ali Bongo, presidente de Gabón, que después de un tiempo fuera de la opinión pública por salud, reapareció con un video que muchos catalogaron como ‘deepfake’. La incertidumbre llevó a que hubiese un intento de golpe de estado y después el presidente aclaró que su apariencia era inusual porque sufrió un derrame cerebral.
Uno de los trucos más importantes para detectar esta IA es estar atento a movimientos artificiales en la persona del video. Es fácil detectarlo fijándose en la falta de parpadeo o el movimiento de los ojos. También es necesario observar las tonalidades de la piel de la persona, las sombras y la iluminación. Como la especialidad del ‘deepfake’ es la imagen, para videos es útil escuchar la calidad de audio, así que es fundamental estar atento en sí las entonaciones coinciden con la imagen o si carece de volumen.
Algunos otros trucos para detectarlo están en las proporciones del cuerpo o posturas inusuales. En los rostros la clave normalmente está en la frente y las mejillas, aunque si está hablando los labios también pueden ser importantes.
Con las imágenes es más compleja la detección, pero también se aplican trucos como las tonalidades en la piel, las sombras y la proporcionalidad de las partes del cuerpo de cada persona. También es importante ver si las imágenes tienen marcas de agua. Como recurso extra se puede acudir al detector de Generative Adversarial Networks (GAN por sus siglas en inglés), que intentará establecer si la imagen es generada con Inteligencia artificial.
Lee también: ¿Qué pasó con ellas? 5 redes sociales de las que no volvimos a saber
¿Cómo trasciende el ‘deepfake’?
En 1997 tenemos el primer antecedente de lo que conocemos como ‘deepfake’. Surgió gracias al programa Video Rewrite en el que sus creadores Christoph Bregler, Michele Covell y Malcolm Slaney usaban material de archivo para que una persona pronunciara palabras que no había dicho. Con los años dicha tecnología avanzó y se perfeccionó al punto de hacer casi que indetectable la diferencia entre un videoclip real y uno alterado por la inteligencia artificial.
El 2014 es el año clave de esta tecnología con la creación de GAN. Dicha compañía usa dos sistemas algorítmicos: uno falsifica la imagen original y el otro detecta y mejora las falsificaciones para acercarse a un resultado preciso.
El peligro del uso irresponsable o dañino se cierne en cómo puede alterar la percepción de la realidad. Es tanta su trascendencia hoy en día que se duda de lo verídico como en el caso del presidente de Gabón. La herramienta también tiene poder en la reputación de figuras públicas con la pornografía y las medidas restrictivas de los gobiernos recién inician.