fbpx

¿Qué son los 'deepfakes' y por qué suponen un gran problema?

A pesar de que todos parecemos luchar contra la desinformación, la tecnología avanzó hasta el punto en que se dificulta saber qué es cierto y qué no.

Ejemplo de una intervención con Deepfakes

Esta tecnología supone peligros para la veracidad informativa. / Foto: YT / derpfakes

LatinAmerican Post | Ariel Cipolla

Escucha este artículo


Read in english: What are deepfakes and why are they such a big problem?

¿Alguna vez te preguntaste si lo que consumes es verídico? Generalmente, estamos acostumbrados a hacer eso con las imágenes y texto. Si una publicación es de dudosa calidad, probablemente pensaremos que nos están mintiendo. Lo mismo sucede con imágenes, que pueden ser modificadas gracias a los programas de edición.

Sin embargo, ¿qué sucede con los vídeos? Según lo que informa la web de Hipertextual, Microsoft creó una herramienta para detectar videos alterados que impidan la desinformación en las redes sociales. Es decir, se trata de un software, conocido como Microsoft Video Authenticator, que permite analizar las probabilidades de que algo sea falso.

En esta misma línea, vemos que el medio de PubliNews menciona que los deepfakes “alcanzan y desafían al periodismo”, debido a que las posibilidades de mentir a través de la tecnología están más presentes que nunca. Veamos, entonces, en qué consiste esta técnica y por qué puede ser tan útil como peligrosa.

Los peligros y las utilidades de los deepfakes

Antes que nada, deberíamos definir a los propios deepfakes. Según lo que informa la web de CNet, se trata de un término que nació de dos conceptos: el Deep learning y el fake. Es decir, la generación de falsedades a través de la inteligencia artificial. Implica superponer el rostro de una persona donde sale otra, haciendo creer que el que sale en un vídeo es alguien diferente al del original.

A pesar de que supone peligros para la veracidad informativa, lo cierto es que en ningún momento su creación surgió en ese contexto. Por el contrario, se utiliza para determinados fines humorísticos que se comprenden como tales. Por ejemplo, ante el anuncio de la salida de Lionel Messi del Barcelona, la web de Diario Registrado mencionó que armaron un vídeo donde el astro rosarino cantaba una canción de Ricardo Montaner, despidiéndose del club catalán.

Otra de las posibilidades es la que mencionó la web de La Tercera, donde reemplazaron los rostros de los personajes de los videojuegos de Marvel’s Avengers por el de los actores reales. Es decir, todos los que disfrutasen de este título podrían reconocer que se trataba de un engaño “divertido”, para generar una apariencia más real del título, que no contaba con las licencias para llevarlos a la virtualidad.

Lea también: Los algoritmos de las redes sociales modifican nuestra realidad

Por lo tanto, estamos viendo que los avances de la tecnología permiten que podamos ver un discurso o una acción como si fuese que la está llevando a cabo otra persona. En un principio, esto no supondría un problema si se realiza con fines humorísticos, donde el público reconozca que se trata de un chiste. No obstante, ¿qué sucedería si tuvieran otras intenciones y la gente no las pudiese detectar?

Esta misma situación la plantea la web de IPS Noticias, que habla de la “imagen en tiempos de posverdad”. Al hacerlo, lo que se produce es en un quiebre de la credibilidad de cualquier documento audiovisual. Es decir, podríamos llegar al punto en que no sepamos qué es lo que estamos consumiendo, llegando a que, incluso, pudiesen perder el carácter de prueba legal. Si todo puede ser modificado sin que lo percibamos, ¿cómo detectaríamos la verdad?

En el terreno de la política, vimos que, tal y como informa la web de TekCrispy, uno de los ejemplos más famosos fue el de Barack Obama llamando “idiota” a Donald Trump. En ese caso, lo preparó el actor y director Jordan Peele, director de la película Get Out, con la intención de generar “consciencia” de que cualquiera puede decir lo que quiera a quien sea.

Incluso, esto podría ser aprovechado por los propios políticos. La web de Xataka destaca que el candidato político Manoj Tiwari a la Asamblea Legislativa en Delhi usó deepfakes en campañas políticas, hablándole a públicos en idiomas que él no conoce. Por lo tanto, surge el debate de la ética: ¿está bien que lo haga o es una competencia desleal con quienes no utilicen estos recursos?

Por lo pronto, vimos que, según informa EuropaPress, algunas redes sociales, como es el caso de TikTok, decidieron “prohibir los deepfakes” para luchar contra la desinformación. Si bien puede ser una medida extrema -especialmente pensando en los que tienen tintes humorísticos-, lo que conocemos como “realidad” podría verse seriamente afectado en caso de que se generen cambios a gran escala.

We use cookies to improve our website. By continuing to use this website, you are giving consent to cookies being used. More details…