Los deepfakes creados con IA amenazan con alterar las elecciones mundiales

Los deepfakes creados con IA amenazan con alterar las elecciones mundiales

Divyendra Singh Jadoun, fundador de Polymath Solutions, en su oficina. (Saumya Khandelwal para The Washington Post)

 

El teléfono de Divyendra Singh Jadoun no para de sonar. Conocido como el “Deepfaker Indio”, Jadoun es famoso por utilizar inteligencia artificial para crear secuencias de Bollywood y comerciales de televisión.

Por washingtonpost.com





Pero a medida que comienza la votación escalonada en las elecciones de IndiaJadoun dice que cientos de políticos han estado clamando por sus servicios, con más de la mitad pidiendo cosas “poco éticas”. Los candidatos le pidieron que falsificara audios de competidores cometiendo errores en la campaña o que superpusiera las caras de los retadores en imágenes pornográficas. Algunas campañas solicitaron videos falsos de baja calidad de su propio candidato, que podrían ser lanzados para sembrar dudas sobre cualquier video real perjudicial que surja durante la elección.

Jadoun, de 31 años, dice que rechaza trabajos destinados a difamar o engañar. Pero espera que muchos consultores accedan, distorsionando la realidad en la elección más grande del mundo, ya que más de medio millar de millones de votantes indios acuden a las urnas.

“Lo único que nos impide crear deepfakes poco éticas son nuestra ética”, dijo Jadoun. “Pero es muy difícil detener esto”.

Las elecciones en India, que comenzaron la semana pasada y se extienden hasta principios de junio, ofrecen una vista previa de cómo una explosión de herramientas de IA está transformando el proceso democrático, facilitando el desarrollo de medios falsos impecables alrededor de las campañas. Más de la mitad de la población mundial vive en los más de 50 países que celebran elecciones en 2024, marcando un año crucial para las democracias globales.

Aunque se desconoce cuántas falsificaciones de IA se han hecho de políticos, los expertos dicen que están observando un aumento global de las deepfakes electorales.

Estoy viendo más [deepfakes políticas] este año que el anterior y las que estoy viendo son más sofisticadas y convincentes”, dijo Hany Farid, profesor de ciencias de la computación en la Universidad de California en Berkeley.

Mientras los responsables políticos y reguladores desde Bruselas hasta Washington se apresuran a redactar legislación que restrinja el audio, las imágenes y los videos potenciados por IA en la campaña electoral, está surgiendo un vacío regulatorio. La histórica Ley de IA de la Unión Europea no entrará en vigor hasta después de las elecciones parlamentarias de junio. En el Congreso de Estados Unidos, una legislación bipartidista que prohibiría la representación falsa de candidatos federales mediante IA probablemente no se convertirá en ley antes de las elecciones de noviembre. Un puñado de estados de Estados Unidos han promulgado leyes que penalizan a las personas que hacen videos engañosos sobre políticos, creando un mosaico de políticas a través del país.

Mientras tanto, hay pocas medidas disuasorias para evitar que políticos y sus aliados utilicen la IA para engañar a los votantes, y los aplicadores de la ley rara vez son competencia para los fakes que pueden difundirse rápidamente a través de las redes sociales o en chats grupales. La democratización de la IA significa que depende de individuos como Jadoun – no de los reguladores – tomar decisiones éticas para evitar el caos en las elecciones inducido por la IA.

No nos quedemos al margen mientras nuestras elecciones se arruinan”, dijo la Sen. Amy Klobuchar (D-Minn.), presidenta del Comité de Reglas del Senado, en un discurso el mes pasado en el Consejo Atlántico. “… Este es un momento de ‘el cabello en llamas’. No es un momento de ‘esperemos tres años a ver cómo va’”.

Durante años, grupos estatales inundaron FacebookTwitter (ahora X) y otras redes sociales con desinformación, emulando el libro de jugadas que Rusia utilizó en 2016 para incitar discordia en las elecciones de Estados Unidos Pero la IA permite que actores más pequeños participen, haciendo que combatir las falsedades sea una tarea fragmentada y difícil.

El Departamento de Seguridad Nacional advirtió a los funcionarios electorales en un memorando que la IA generativa podría usarse para mejorar las campañas de influencia extranjera dirigidas a las elecciones. Las herramientas de IA podrían permitir que los malos actores se hagan pasar por funcionarios electorales, dijo el DHS en el memorando, difundiendo información incorrecta sobre cómo votar o la integridad del proceso electoral.

Estas advertencias se están convirtiendo en una realidad en todo el mundo. Actores respaldados por el estado utilizaron la IA generativa para entrometerse en las elecciones de Taiwán a principios de este año. En el día de las elecciones, un grupo afiliado al Partido Comunista Chino publicó audio generado por IA de un político prominente que se retiró de la elección Taiwanesa apoyando a otro candidato, según un informe de Microsoft. Pero el político, el propietario de Foxconn Terry Gou, nunca había hecho tal respaldo, y YouTube retiró el audio.

Taiwán finalmente eligió a Lai Ching-te, un candidato al que se oponía el liderazgo del Partido Comunista Chino, señalando los límites de la campaña para afectar los resultados de la elección.

Microsoft espera que China use un libro de jugadas similar en IndiaCorea del Sur y Estados Unidos este año. “La creciente experimentación de China en la ampliación de memes, videos y audio probablemente continuará, y puede resultar más efectiva a largo plazo”, dijo el informe de Microsoft.

Pero el bajo costo y la amplia disponibilidad de las herramientas de IA generativa han hecho posible que personas sin respaldo estatal participen en engaños que rivalizan con las campañas de los estados nación.

En Moldavia, los videos deepfake de IA han mostrado a la presidenta prooccidental del país, Maia Sandu, renunciando y alentando a las personas a apoyar a un partido pro-Putin durante las elecciones locales. En Sudáfrica, una versión digitalmente alterada del rapero Eminem respaldó a un partido de oposición sudafricano antes de las elecciones del país en mayo.

En enero, un operativo político demócrata falsificó la voz del presidente Biden para instar a los votantes de las primarias de New Hampshire a no ir a las urnas, una broma destinada a llamar la atención sobre los problemas con el medio.

Para leer la nota completa pulse Aquí