Hace unos días, en medio de su habitual verborrea tuitera, Donald Trump incluyó un vídeo de Nancy Pelosi (presidenta de la Cámara de Representantes, del opositor Partido Demócrata) en el que ésta parecía mostrar dificultades de dicción.
Pero no era así: el vídeo había sido manipulado resaltando momentos muy concretos de un rueda de prensa en los que Pelosi titubeaba, además de ralentizando ligeramente los fragmentos seleccionados.
“PELOSI STAMMERS THROUGH NEWS CONFERENCE” pic.twitter.com/1OyCyqRTuk
— Donald J. Trump (@realDonaldTrump) 24 de mayo de 2019
Al día siguiente, Rudy Giuliani, exalcalde de Nueva York y abogado de Trump, compartía un segundo vídeo en el que Pelosi aparecía arrastrando las palabras, en lo que algunos usuarios interpretaron (Giuliani no lo afirmaba) como un síntoma etílico.
.@RudyGiuliani has apparently deleted this tweet in which he shared an obviously slowed down video of Nancy Pelosi pic.twitter.com/y1w9TyN7Za
— Aaron Blake (@AaronBlake) 24 de mayo de 2019
En este caso, también se había procedido a ralentizar el tempo del vídeo original, a lo que se añadía una sutil deformación de la voz de Pelosi. Horas después, Guiliani procedió a borrar el tuit. Sin embargo, éste último se había empezado a difundir previamente por otras vías, y ya ha sido visualizado por parte de cientos de miles de usuarios.
Seleccionar y difundir clips de vídeo humillantes para el adversario político no tiene nada de nuevo. Pero, como señala en Washington Post, "la alteración directa de sonidos y efectos visuales marca un nuevo paso en lo relacionado con la falsificación de noticias".
Ahora son los 'cheapfakes', luego llegarán los 'deepfakes'
Y esto llega en medio de un creciente debate sobre los peligros que los deepfakes representan para el debate público y sobre cómo afectan a la credibilidad de las fuentes informales de información política (básicamente, los medios sociales).
Es importante señalar que ninguno de los dos vídeos entra en la categoría de 'deepfake': no hay inteligencia artificial implicada en el proceso de manipulación (por eso los medios empiezan a referirse a ellos como "cheap fakes", 'falsificaciones baratas').
Sin embargo, la caja de Pandora que ambos vídeos han abierto parecen apuntar algunos de los retos que plantearán los deepfakes cuando empiecen a popularizarse. El primero de ellos, el debate sobre cómo deben responder las grandes plataformas sociales.
Y, concretamente, la respuesta de Facebook ante la difusión de este material parece no responder a lo que un sector de la opinión pública estadounidense esperaban de la compañía de Zuckerberg.
Y es que la red social ha apostado por negarse a retirar los vídeos ("No tenemos una política que estipule que la información que se public aen Facebook deba ser cierta"), prefiriendo acompañarlos de mensajes advirtiendo de la falsedad de lo mostrado y animando al usuario a buscar fuentes de información alternativas.
En palabras de Monika Bickert, vicepresidenta de Facebook para Políticas Públicas,
"Todos los que lo han visto o lo han compartido han recibido la advertencia de que es falso. Creemos que es importante que la gente tome sus propias decisiones informadas".
Sin embargo, Google ha optado por no seguir esa filosofía, borrando el vídeo de su plataforma Youtube. Y analistas tecnológicos como Kara Swisher, del New York Times, han criticado fieramente la decisión de Facebook:
"Lo único que muestra este incidente es lo experto que se ha vuelto Facebook en difuminar la línea entre simples errores y el engaño deliberado. De esa forma abdica de su responsabilidad como el principal distribuidor de noticias del planeta".
A la vista de este precedente, está claro que a los Estados Unidos les espera una cibercampaña movida en 2020. Y después, como pasa casi siempre, el resto del mundo puede ir detrás de la 'moda americana'.
Vía | Washington Post
Imagen | Office of Nancy Pelosi
También te recomendamos
-
La noticia La polémica con los vídeos de Nancy Pelosi manipulados para hacerle parecer borracha vaticinan lo que nos espera con los deepfakes fue publicada originalmente en Xataka por Marcos Merino .
Gracias a Marcos Merino
No hay comentarios.:
Publicar un comentario