WASHINGTON DC - Cuando Amanda Aguilar vio un video de lo que parecía ser ella hablando, se quedó atónita. Era exactamente igual que ella, pero era falso. El video era un deepfake.
Aguilar se enteró de que un estafador tomó un video real que ella publicó en Instagram y luego usó inteligencia artificial para crear un video falso con la esperanza de engañar a alguien. Comparados uno al lado del otro, los videos son inquietantemente similares.
"Que alguien se esfuerce y haga un deepfake de mí es como, ¿qué? Sabía que los deepfakes existían, pero nunca pensé que sería víctima de uno", afirmó Aguilar, quien hizo una pasantía en nuestra cadena hermana News4 y luego trabajó en noticias de televisión en California.
Los amigos de Aguilar le dijeron hace unas semanas que alguien había creado una página de Facebook haciéndose pasar por ella, usando sus fotos reales de Instagram. El estafador le envió un mensaje a un espectador llamado John Pulido.
Recibe las noticias locales y los pronósticos del tiempo directo a tu email. Inscríbete para recibir newsletters de Telemundo Tampa aquí.
Durante varias semanas, Pulido pensó que estaba hablando con la verdadera Aguilar. Dijo que comenzó a sospechar cuando la persona le preguntó cuánto dinero ganaba. Pidió una prueba en video de que realmente era ella y recibió videos deepfake como respuesta.
"Pensé, 'Dios mío. Esta es ella'", expresó Pulido. "Fue bastante aterrador por lo bueno que era. Fue muy convincente".
Tecnología
Pulido dijo que le envió un mensaje a un amigo que conocía a Aguilar y luego se enteró de que todo era una estafa.
"Solo ten cuidado si suena demasiado bueno para ser verdad, si estás hablando con una celebridad que se comunica contigo", señaló.
Aguilar describió la experiencia como desconcertante.
"Alguien puede tomar mi video y publicarlo y, ya sabes, decir algo que tal vez no dije o hacer algo que no hice, y eso es aterrador", enfatizó Aguilar.
AUMENTO EN LOS ATAQUES DEEPFAKE
La cantidad de ataques deepfake ha aumentado, según Vijay Balasubramaniyan, el director ejecutivo de una empresa de seguridad digital llamada Pindrop.
“Estamos viendo una explosión del 1,400% en la cantidad de ataques deepfake”, destacó.
Su empresa desarrolló un software que puede detectar deepfakes instantáneamente buscando errores en el archivo.
“Por ejemplo, cuando dices ‘Hola, Paul’, tu boca está bien abierta cuando dices ‘hola’ y se cierra cuando dice ‘Paul’. Hay una cierta velocidad con la que puedes hacer eso porque eres humano. A las máquinas no les importan estas velocidades”, aclaró.
El CEO dijo que no hay mucho que las personas puedan hacer para evitar que su contenido público en línea sea robado.
“La responsabilidad recae en las plataformas para comenzar a proporcionar capacidades para detectar cuándo algo es generado por Amanda y cuándo es generado por IA (Inteligencia Artificial) sin su consentimiento”, dijo.
Aguilar indicó que ahora será “un poco más exigente” con lo que comparte en línea.
CÓMO DETECTAR UN DEEPFAKE
El experto en IA dijo que si alguna vez necesitas verificar si alguien es quien dice ser, pídele que se una videollamada en vivo, como una llamada de Zoom o FaceTime. No te conformes con un video pregrabado, porque esos son más fáciles de falsificar para los estafadores. Dicho esto, las videollamadas en vivo también pueden ser falsificadas.
Presta atención a las pausas extrañas mientras alguien habla, porque eso podría indicar que una máquina está tratando de programar el video en tiempo real, explicó Balasubramaniyan.
Otra táctica es pedirle a la persona que mueva su mano frente a su cara. Eso agrega una capa de complejidad que es más difícil de seguir para los generadores de IA, por lo que la mano generalmente se verá extraña, a veces con dedos adicionales.