La llegada de Trump a la Casa Blanca tras un día de golf Fuente: Reuters

La tecnología actual permite hacer que los líderes políticos digan cualquier cosa y luego viralizarla como si fuera real

Rafael Mathus Ruiz Comentar Me gusta Me gusta Compartir E-mail Twitter Facebook WhatsApp Guardar 17 de junio de 2019

WASHINGTON.- Durante siglos, la vista y el oído bastaban para confiar. "Ver para creer", marca el dicho. Ya no. Un nuevo fenómeno de desinformación, respaldado con tecnología de última generación, ha despertado preocupación en Estados Unidos y ha puesto a las agencias de seguridad en alerta: se trata de los videos falsos, conocidos como deepfakes, los herederos de las noticias falsas o fake news.

La nueva amenaza ganó envergadura días atrás, cuando se viralizó un video adulterado de Nancy Pelosi, líder demócrata en el Congreso, en el que parecía hablar con dificultad, arrastrando las palabras. Un grupo de derecha, Politics Watchdog, lo colgó de su página de Facebook, donde fue visto más de dos millones de veces en menos de un día. "¿Qué le pasa a Nancy Pelosi?", tuiteó Rudy Giuliani, abogado del presidente Donald Trump, junto con el video. Luego lo borró.

El video falso de Pelosi había sido tomado de un evento real, pero su voz y sus palabras habían sido alteradas con una computadora: Pelosi sonaba como si estuviera borracha.

Antes de ese escándalo, el Pentágono ya había tomado cartas en el asunto al poner a un equipo de investigadores a buscar soluciones. Marco Rubio, senador republicano, dijo que eran "la próxima ola de ataques contra la democracia occidental". Esta semana, el Congreso puso el tema en la agenda al tratarlo por primera vez en una audiencia pública en el poderoso Comité de Inteligencia de la Cámara de Representantes como una "amenaza a la seguridad nacional". Ya a principios de este año la comunidad de inteligencia había advertido sobre el peligro de que los deepfakes como el de Pelosi sean utilizados como arma política, en un párrafo en el último informe de amenazas a la seguridad nacional de la comunidad de inteligencia.

"Los adversarios y los competidores estratégicos probablemente intentarán usar deepfakes o tecnologías automáticas similares para crear archivos de imagen, audio y video convincentes, pero falsos, para aumentar las campañas de influencia contra Estados Unidos y nuestros aliados y socios", indicó el informe.

Como herramienta de desinformación, los deepfakes parecen ser más efectivos que las fake news, un logro que agrava el problema, según expertos. Además, los especialistas advierten sobre la relativa facilidad con la cual se puede acceder a software que utilice inteligencia artificial (AI, según sus siglas en inglés) para crearlos.

"Hemos manipulado videos durante mucho tiempo, pero las cosas han cambiado recientemente", dijo Jack Clark, director de Políticas de OpenAI, una organización que aspira a garantizar que la AI genere beneficios para todos, en la audiencia del Comité de Inteligencia.

Clark remarcó que las computadoras ahora son más baratas y más poderosas, y alertó: "Al mismo tiempo, el software se ha vuelto cada vez más accesible y capaz, y parte de este software comenzó a incorporar AI, lo que nos facilita enormemente la manipulación de los medios".

Con la cicatriz del Rusiagate aún abierta, las agencias de inteligencia y de seguridad de Estados Unidos buscan ultimar las precauciones para evitar que otra campaña de desinformación desplegada por el Kremlin, o cualquier otro actor, vuelva a manosear una elección. El flagelo dista de ser nuevo o exclusivo de Estados Unidos. Apareció en las recientes elecciones de México, Colombia y Brasil, y ya despuntó en la Argentina, donde se espera una de las campañas más sucias desde el regreso de la democracia.

Danielle Keats Citron, profesora de derecho de la Universidad de Maryland, dijo en el panel convocado por el Congreso que el problema es particularmente difícil de resolver debido al impacto de ver una imagen y escuchar una voz.

"Hay algunos fenómenos que se unen que hacen que hacen que los deepfakes sean particularmente problemáticos cuando son provocativos y destructivos. La primera es que sabemos que, como seres humanos, el video y el audio son viscerales. Tendemos a creer lo que nuestros ojos y oídos nos dicen. Y también tendemos a creer y a compartir información que confirma nuestros prejuicios", afirmó Citron.

Los expertos creen que Estados Unidos, el país que más dinero destina a seguridad, no está listo para afrontar esta nueva amenaza. El demócrata Adam Schiff, presidente del Comité de Inteligencia, donde se realizó la audiencia, coincidió con esta visión.

"No creo que estamos preparados para nada", dijo Schiff. "Y no creo que la gente sea consciente de lo que está por venir", agregó.

Conforme a los criterios de Más información