Pablo Gonzalez

La IA está perturbando las elecciones más importantes del planeta

Por Vikram Sharma----
**** Los videos manipulados de respaldos políticos son demasiado sofisticados para discernirlos o rastrearlos. Los expertos dicen que la intención podría ser psicología inversa: socavar el partido que respalda el video, una vez que los votantes descubren que es falso.

Las elecciones parlamentarias indias en curso , al igual que las de Estados Unidos, Pakistán e Indonesia, son testigos del uso creativo de la inteligencia artificial.


Otros, como los vídeos deepfake de estrellas de cine que aparentemente respaldan a un partido sobre otro, o del ministro del Interior del país abogando por la abolición de la acción afirmativa , son más siniestros.

Y los policías clave de la India están un paso por detrás de los "malos actores" del ciberespacio, incapaces de distinguir los deepfakes de los videos reales y de rastrear sus orígenes, con el único recurso de bloquearlos, momento para el cual ya es demasiado tarde.

El término ' deepfake ' deriva de 'aprendizaje profundo' y 'falso', y significa la manipulación digital de los medios para sustituir la imagen de una persona por la de otra.

Hace casi dos semanas, aparecieron vídeos de las estrellas de Bollywood Aamir Khan y Ranveer Singh criticando al primer ministro Narendra Modi y pidiendo a la gente que votara por el opositor Partido del Congreso. 

Los actores no perdieron el tiempo y se quejaron ante el departamento de delitos cibernéticos de la policía de Mumbai, pero para entonces los videos habían sido vistos más de medio millón de veces.

Medio millón puede no parecer mucho, dado que YouTube, propiedad de Google, tiene 462 millones de usuarios en la India y el electorado es de 968 millones. Hay 900 millones de usuarios de Internet, según una encuesta del Centro Esya y el IIM (A) ; En promedio, cada uno pasa 194 minutos al día navegando en las redes sociales.

Sin embargo, como dijo a RT la ciberpsicóloga y oradora de TEDx Nirali Bhatia, gracias a las redes sociales, todos podrán formarse sus propias opiniones y juicios sobre el asunto, lo que puede ser mucho más dañino.
Los votantes hacen cola para emitir su voto en un colegio electoral durante la segunda fase de las elecciones generales de la India en Bengaluru el 26 de abril de 2024. © Idrees MOHAMMED / AFP

El poder de la psicología inversa

El psefólogo Dayanand Nene explica que los vídeos deepfake pueden influir en la opinión pública y desacreditar a personas y políticos. "Los deepfakes explotan varias vulnerabilidades psicológicas", dijo a RT.

Los humanos tenemos una tendencia natural a confiar en lo que ven y oyen, y los deepfakes aprovechan esto creando contenido realista. 

“Además, los sesgos cognitivos como el sesgo de confirmación (donde es más probable que creamos información que confirma nuestras creencias preexistentes) nos hacen susceptibles a deepfakes que se alinean con nuestros puntos de vista”, dijo Nene.

Por ejemplo, el domingo la policía de Delhi tuvo que registrar un caso después de que se encontrara un vídeo manipulado en el que se veía al ministro del Interior, Amit Shah, abogando por la abolición de las cuotas educativas y laborales para los desfavorecidos de la India: los dalits y las castas "atrasadas". 

Era un deepfake, manipulado a partir de un discurso que pronunció en el estado de Telangana, en el sur de la India, y se volvió viral.

Bhatia sintió que el alto número de visitas se debía a la curiosidad, ya que las celebridades siguen siendo mucho más populares que las personas influyentes. 

Además, los deepfakes funcionarán como psicología inversa, impactando negativamente al partido respaldado una vez que quede claro que son deepfakes.

"En mi opinión, esa era la agenda de estos videos", dijo Bhatia, que estudia el impacto de la tecnología en el comportamiento humano.

 "Los votantes inteligentes pueden comprender la verdadera agenda, pero la mayoría actúa basándose en el sentimiento más que en una decisión racional".
Una mujer vestida con atuendo del Partido Bharatiya Janata (BJP) está tomando fotografías con su teléfono móvil durante una reunión del partido BJP en Mumbai, India, el 21 de febrero de 2024. © Indranil Aditya/NurPhoto vía Getty Images

Los deepfakes transfieren la atención del "contenido" a la "intención" al crear estas falsificaciones. "Y ese será el factor que influirá", dijo Bhatia, fundador de CyberBAAP (Concienciación, Acción y Prevención del Ciberbullying).

La investigación ha demostrado ser un desafío. 

La policía, que habló bajo condición de anonimato, dice que es difícil diferenciar las falsificaciones de la realidad. Los deepfakes son baratos, fáciles de crear y difíciles de rastrear, lo que les da a los malos "carrera libre".

Según funcionarios del gobierno que colaboraron en la investigación de alto perfil, se cree que los creadores de los videos deepfake utilizaron el modelo de difusión , una herramienta de inteligencia artificial que permite a los malos actores explotar videos disponibles en los sitios de redes sociales. 

 "La herramienta les permite recrear casi cualquier cosa", dijo un funcionario a RT.

Entrenamiento de IA

El modelo de difusión genera imágenes únicas al aprender a eliminar el ruido y reconstruir el contenido. ¿Entonces, cómo funciona?

El científico informático Srijan Kumar, premiado por su trabajo sobre la seguridad e integridad de las redes sociales, explicó que dependiendo del mensaje, un modelo de difusión puede crear imágenes y tomas tremendamente imaginativas basadas en las propiedades estadísticas de sus datos de entrenamiento , todo en cuestión de segundos.

"En el pasado, había que superponer caras individuales, lo que era un proceso que requería mucho tiempo", dijo Kumar. 

“Ahora, con el modelo de difusión, se pueden generar múltiples imágenes con un solo comando. No requiere muchos conocimientos técnicos”.

En los videos de Aamir Khan y Ranveer Singh, los dos actores supuestamente dicen que Modi no cumplió sus promesas de campaña y no abordó cuestiones económicas críticas durante sus dos mandatos.

En el momento en que apareció el vídeo de Singh el 17 de abril, la portavoz del Congreso, Sujata Paul, lo compartió con sus 16.000 seguidores en X. A partir de entonces, su publicación fue compartida 2.900 veces y recibió 8.700 me gusta. El vídeo recibió 438.000 visitas.
El actor de Bollywood Aamir Khan, el industrial indio Srikanth Bolla y el actor Rajkummar Rao asisten al lanzamiento de la canción de la próxima película biográfica en hindi 'Srikanth' en Mumbai el 22 de abril de 2024. © SUJIT JAISWAL / AFP

Esta no es la primera vez que Bollywood se ve afectada por los deepfakes. Anteriormente, los actores Rashmika Mandanna y Kajol aparecieron en deepfakes que circulaban en línea. 

En el vídeo de Mandanna, su rostro se superpuso al de la personalidad británica-india de las redes sociales Zara Patel, que entraba en un ascensor con un mono revelador.

Estas imágenes generadas por IA tienen la capacidad de socavar cualquier sistema de seguimiento en Internet. "Precisamente por eso es casi imposible determinar si una imagen es real o falsa", dijo Kumar, cofundador y director ejecutivo de Lighthouz AI .

Al utilizar modelos de IA generativa, el costo de producir contenido de alta calidad, tanto bueno como malo, se ha reducido drásticamente. 

“Las herramientas de inteligencia artificial permiten una manipulación a una escala inimaginable”, afirmó el experto en ciberespacio, que ha creado métodos de ciencia de datos para combatir a los revisores falsos en las plataformas de comercio electrónico. 

"Desempeña un papel clave en la creación de contenido de aspecto realista pero totalmente inventado y desinformativo".

Otro modelo, o más bien una extensión de la herramienta de IA existente, es la difusión estable , un modelo de aprendizaje profundo de texto a imagen que se utiliza para crear deepfakes.

"Es completamente de código abierto y el generador de imágenes más adaptable", dice un funcionario gubernamental involucrado en la investigación (pero que exigió el anonimato debido al secreto de su organización).

 "Se cree que en Occidente se depende en gran medida de la difusión estable para crear deepfakes".

Hasta ahora, los investigadores no tienen claro si los videos deepfake de los actores de Bollywood se generaron en el extranjero o se hicieron en la India. 

Si bien la policía bloqueó los videos, el Ministerio de Electrónica y TI de la India instó a las plataformas de redes sociales como X (anteriormente Twitter) y Meta a regular la proliferación de deepfakes generados por IA.

Competir con la tecnología

¿Existen soluciones de detección y mitigación de vídeos deepfake?

"Bastantes, pero son preliminares y no tienen en cuenta los muchos tipos de imágenes y vídeos generados", dijo Kumar.

Las más populares entre las crecientes herramientas de detección/mitigación de deepfake incluyen el detector de deepfake en tiempo real de Intel (FakeCatcher)

Se centra en la velocidad y la eficiencia. Utilizando hardware y software Intel, FakeCatcher analiza detalles fisiológicos sutiles, como variaciones del flujo sanguíneo en píxeles.
Las elecciones parlamentarias indias en curso, al igual que las elecciones en Estados Unidos, Pakistán e Indonesia, son testigos del uso creativo de la inteligencia artificial. © NurPhoto / Colaborador

Otra es la herramienta Video Authenticator de Microsoft , que analiza vídeos e imágenes y proporciona a cada uno una puntuación de confianza que indica la probabilidad de manipulación. 

Pretende identificar inconsistencias en la combinación de límites y elementos sutiles en escala de grises que son invisibles para el ojo humano.

Uno de los principales desafíos que enfrentan los investigadores es que a medida que se desarrollan nuevos detectores, la tecnología generativa evoluciona para incorporar métodos para evadir la detección de esos detectores.

"Cada vez es más difícil identificar los deepfakes con el avance de la tecnología, la facilidad de acceso y el menor costo", dice Kumar. 

"Desafortunadamente, no hay una solución inmediata a la vista".

Dice que, al igual que el software antivirus y antimalware, los usuarios finales tendrán que utilizar equivalentes en sus dispositivos para protegerse contra los deepfakes.

Por Vikram Sharma , reportero general

Related Posts

Subscribe Our Newsletter