¿Alguna vez te has encontrado con un video donde aparece la imagen de un famoso en un lugar poco habitual o haciendo actividades intencionalmente graciosas? Este tipo de contenido puede ser un deepfake.
Los deepfakes son videos manipulados mediante inteligencia artificial para hacer que una persona parezca decir o hacer algo que nunca ocurrió. Inicialmente, esta tecnología estaba limitada a expertos en desarrollo, pero con el tiempo se ha vuelto accesible para cualquier usuario, gracias a herramientas de código abierto que permiten replicar voces y gestos faciales de manera muy detallada.
Un estudio realizado por la empresa de biometría iProov reveló que apenas el 0.1% de las personas en internet es capaz de diferenciar con precisión un video de deepfake de uno auténtico.
Según el Informe de Inteligencia de Amenazas 2024 de iProov, los deepfakes han aumentado un 704% en el uso de intercambio de rostros, lo que representa una amenaza digital significativa. La investigación encuestó a 2,000 personas en Reino Unido y Estados Unidos, concluyendo que los videos deepfake son más difíciles de detectar que las imágenes estáticas.
El estudio también evidenció que los adultos mayores son los más vulnerables a este tipo de manipulación. El 30% de los encuestados entre 55 y 64 años, y el 39% de los mayores de 65, jamás habían escuchado sobre esta tecnología, lo que los hace más propensos a caer en engaños.
A pesar de que más del 60% de los encuestados confiaba en su habilidad para reconocer contenido falso, los resultados demostraron lo contrario. Además, las redes sociales como Facebook e Instagram (49%) y TikTok (47%) son las principales plataformas donde circulan estos videos, lo que ha provocado que casi la mitad de los usuarios desconfíe más de la información que consumen en línea.
El estudio revela que los consumidores no verifican la veracidad del contenido e información que consumen en línea, lo que provoca que sean más susceptibles a caer en este tipo de engaños. Anteriormente, se ha utilizado este formato para organizar estafas masivas, donde suplantan la identidad de figuras relevantes y con gran influencia. La empresa fraudulenta Quantum AI utilizó las caras de personas famosas como el magnate Elon Musk o el expresidente de México, Andrés Manuel López Obrador, con las que pedían a los espectadores registrarse en una app de inversión donde obtenían información sensible de las víctimas y les pedían invertir dinero. Una vez obtenido suficiente dinero, su cuenta se cerraba y no podían acceder más a esa "inversión".
Para enfrentar este problema, iProov recomienda que las empresas de redes sociales empiecen a adoptar soluciones biométricas que puedan verificar si una persona real está realizando una acción y así prevenir suplantaciones de identidad.