¿Cómo detectar las noticias falsas por Internet?

Ya no podrás creer nada de lo que veas, escuches o leas.

622

En la era del Photoshop, los filtros y las redes sociales, muchos de nosotros estamos acostumbrados a ver imágenes manipuladas (algunas personas se vuelven más delgadas y, en el caso de Snapchat, se transforman en cachorros).

Sin embargo, han llegado hasta nosotros una nueva clase de herramientas de manipulación audiovisual, hechas gracias a los avances en inteligencia artificial y gráficos generados por computadora, que permiten la creación de videos de apariencia real de figuras públicas donde se pueden hacer que digan cualquier cosa.

Trump declarando su gusto por los deportes acuáticos. Hillary Clinton describiendo el número de niños que mantiene encerrados en su ático. Tom Cruise admitiendo finalmente lo que todos sospechábamos desde el principio… que es un fan acérrimo de las caricaturas para niños.

Este es el futuro de las noticias falsas. Desde hace tiempo se nos ha dicho que no creamos todo lo que leemos, pero pronto tendremos que cuestionar también todo lo que veamos y escuchemos.

Las nuevas tecnologías de manipulación de imagen y sonido

Por ahora, hay varios equipos de investigación que están trabajando en capturar y sintetizar diferentes elementos audiovisuales del comportamiento humano.

El software desarrollado por la Universidad de Stanford en los Estados Unidos, es capaz de manipular grabaciones en video de figuras públicas para permitirle que alguien hable por ellos palabra por palabra (en tiempo real) como si se tratara de una marioneta.

Face2Face captura las expresiones faciales de esta otra persona mientras le hablan a una cámara web y luego transforma estos movimientos para luego traspasarlos directamente al rostro de la persona en el video original. El equipo de investigación ha demostrado su tecnología manipulando videos de George W. Bush, Vladimir Putin y Donald Trump. Face2Face te permite manipular la imagen de celebridades y políticos, colocando palabras en su boca, literalmente.

Por su cuenta, Face2Face es un divertido juguete para crear tus propios memes y shows de internet. Sin embargo, “el valor de una idea es el uso de la misma” (Thomas Edison, https://gananci.com/frases-de-negocios/) y si agregamos una voz sintetizada a este coctel, nuestro divertido meme se vuelve más convincente – no solo la marioneta digital se ve como un político, sino que también puede sonar como el mencionado político.

Esto es lo que vuelve a estas nuevas tecnologías, en algo potencialmente peligroso.

Un equipo de investigadores de la Universidad de Alabama en Birmingham, USA, ha estado trabajando en un sistema de suplantación de voz. Con 3 o 5 minutos de audio de la voz de la víctima – grabados en vivo o de videos de YouTube o incluso, programas de radio – un falsificador puede crear una voz sintetizada capaz de engañar tanto a humanos como a sistemas de seguridad biométricos usados por muchos bancos y smartphones.

El falsificador puede entonces hablar en un micrófono y el software convertirá sus palabras para que suenen como si estuvieran siendo pronunciadas por la victima, ya sea a través del teléfono o de un show de radio.

La empresa canadiense Lyrebird, ha desarrollado capacidades similares, y aseguran que su tecnología puede convertir texto en audio libros exactos “leídos” por voces famosas o para crear los diálogos de un personaje de videojuegos.

Motivo de preocupación

Aunque puede que sea que su propósito sea bien intencionado, las tecnologías de distorsión de voz podrían ser combinadas con las tecnologías de alteración de rostros en video para crear convincentes declaraciones falsas realizadas por figuras públicas.

Solo tienen que darle un vistazo al proyecto de Sintetización de Obama, realizado en la Universidad de Washington, USA, para tener una idea de lo pernicioso que pueden resultar estas alteraciones. En el ejemplo, tomaron el audio de uno de los discursos de Obama y los usaron para animar su cara en un video completamente distinto con una precisión increíble (gracias al entrenamiento de una red neural recurrente con horas de video del ex presidente).

Más allá de las noticias falsas, hay muchas otras temibles implicaciones para estas tecnologías. Nos dice Nitesh Saxena, profesor asociado y director de investigación del departamento de ciencias de la computación en la Universidad de Alabama en Birmingham. “Podrías dejar mensajes de voz falsos haciéndote pasar por la mama de alguien. O podrías difamar a otra persona, publicando en línea un audio fabricado”

Estas tecnologías de transformación están lejos de ser perfectas. Las expresiones faciales en los videos pueden verse distorsionadas o artificiales y las voces pueden sonar bastante robóticas.

Pero con algo de tiempo, serán capaces de recrear de una manera fiel la voz o la apariencia de una persona. Hasta el punto donde puede que resulte muy difícil para los humanos detectar el fraude.

Los peligros a futuro de las noticias falsas y como la podemos combatir

Dada la continua erosión de la confianza en los medios y la propagación sin control de noticias falsas a través de las redes sociales, se volverá cada vez más importante para las organizaciones noticiosas el escrutinio minucioso del contenido que se ve y suena como si fuera real.

Tendrán que buscar indicadores que confirmen donde fue creado el video o audio en cuestión, quien más estaba en el evento que pueda confirmar su veracidad y si las condiciones climáticas coinciden con los registros de ese día.

“La gente también debería analizar la iluminación y las sombras presentes en el video, preguntarse si todos los elementos mostrados en la imagen son del tamaño correcto y cuestionar si el audio esta sincronizado a la perfección,” nos aconseja Mandy Jenkins, de la compañía de noticias de redes sociales: Storyful, la cual se especializa en verificar el contenido de las noticias.

Contenido demasiado adulterado puede que no sobreviva al rigoroso escrutinio de una sala de prensa, pero si se publicara como un video de baja calidad en una red social se podría viralizar y provocar un desastre de relaciones publicas político o diplomático. Por ejemplo, imaginen un video de Trump declarando abiertamente la guerra a Corea del Norte.

“Si alguien se ve como Trump y habla como Trump, la gente creerá que se trata de Trump,” afirma Saxena.

“Ya hemos visto que ni siquiera se necesita audio o video altamente modificado para hacer creer a la gente algo que no es cierto,” agregó Jenkins. “Estas nuevas tecnologías tienen el potencial de empeorar la situación.”

Edith Gómez
Editora – gananci.com

Publicidadbanner-Montakit-750