Deepfake: el terror de políticos ahora se usa para dañar personas con videos porno falsos
(CRHoy.com) A nivel mundial, en el ambiente político, siempre se ha temido por esos videos manipulados a los que les montan un audio falso y empiezan a circular. Por lo general anuncian una posición descabellada o contraria a la realidad, afectando la imagen de un personaje público.
Sin embargo, un reciente estudio de la compañía informática Sensity señala que el 96% de este tipo de videos conocidos como Deepfake, responden a videos falsos de pornografía, con lo que buscan dañar la imagen de personas, en especial de personalidades.
Anteriormente era fácil notar irregularidades que no hacían creíbles los contenidos, pero con los avances de la inteligencia artificial, las inconsistencias ya no son detectadas por el ojo humano.
"Nuestro informe Estado de los Deepfakes de 2019 encontró que el 96% de los videos deepfake en línea son pornográficos y que la gran mayoría de estos videos están dirigidos a celebridades", señala el informe titulado "Abuso de las imágenes automatizadas: Deepfake bots en Telegram".
Eso sí, los especialistas detallan que las herramientas más avanzadas de "intercambio de caras" todavía requieren habilidades de programación que las hacen un poco menos accesibles al público en general.
No obstante, estos programas que usan imágenes que reemplazan la cara de una persona por otra usando la inteligencia artificial, son cada vez más sencillos y hay opciones en línea que son hasta gratuitos.
Los videos se utilizan, también, voces generadas en computadora que cada vez son más avanzadas y casi imposibles de descifrar.
Ataques a empresas
Omar Quesada, especialista en Ciberseguridad de la firma EY, explicó que estos daños no solo le están ocurriendo a personas o políticos, sino que también se están viendo afectadas diferentes empresas.
"Ya hemos visto campañas de desinformación que han atacado generalmente elecciones, pero es muy probable que pronto tengan como blanco a las empresas. Se han visto casos de ataques exitosos con audios falsos en los que se imita la voz de un CEO y que dieron comienzo a transferencias de dinero, lo que terminó en el robo de millones de dólares", explicó.
Quesada, además, lamentó que las informaciones falsas, en redes sociales, pueden llegar a propagarse como el fuego, "generando impactos generalizados y profundos
en la opinión y la conducta pública".
La tendencia ante este riesgo es que las compañías logren asegurar la autenticidad de las informaciones para mantener la confianza y proteger la reputación de marca.
Los especialistas han visto una evolución en la diversificación de los ciberataques. Anteriormente se ha enfrentado los clásicos ataques como el phishing, el spam y el malware.
¿Qué se ocupará?
Según Quesada, ahora se requieren de un grupo de "anticuerpos" completamente nuevos para luchar contra los riesgos generados por "medios sintéticos".
Algunos ejemplos son:
- Análisis forense digital: Se usa para la detección "luego del hecho". Identifica materiales forzados al buscar inconsistencias en la luz y en las sombras de una imagen o en los patrones de parpadeo en un video. Algunos usan el aprendizaje automático para analizar las incongruencias a nivel de pixeles que pueden engañar al ojo humano.
- Marca de agua digital. Esto ayuda a identificar contenido falso al ocultar marcas en
imágenes o videos. Dichos distintivos también podrían incorporarse en un software para cámaras, altavoces u otros dispositivos de creación de contenido para marcar automáticamente las imágenes, videos o audios en el momento en que se crean.
- Hashing y blockchain. Esta técnica lleva la marca de agua digital a un paso más allá. Una vez creado, el contenido es marcado con la fecha, hora, ubicación e información del dispositivo, lo cual identifica su creación. Luego, una representación del contenido se pasa a una blockchain pública, creando así una copia inmutable directamente de la fuente. Un registro de auditoría establece la procedencia al notar futuras alteraciones.