Abanico
La originalidad y la realidad de videos y grabaciones caminan en la cuerda floja. Se mimetizan con creaciones y manipulaciones de Inteligencia Artificial y cada vez se consolida más la interacción del mundo real y el virtual.
La difusión deepfakes se multiplica año a año, pero paradójicamente las tecnologías de IA que se usan para ello, también permiten crear herramientas de detección cada vez más eficientes. Avanzamos en tecnologías que desenmascaran los engaños.
Sólo en Latinoamérica, de 2022 a 2023, aumentaron los videos falsos en 450 % en ese periodo, según un informe de SumSub, plataforma de identificación de identidad. Los sectores más afectados son periodismo, política, entretenimiento y finanzas. Curiosamente iniciaron en el ámbito de la pornografía.
Actualmente, el mercado de las deepfake tiene un valor actual de 534 millones de dólares y puede crecer 961% en 2030.
Los deepfakes son medios sintéticos “mentirosos”. Se generan mediante técnicas de aprendizaje profundo (Deep learning), e incluyen imágenes, vídeos y grabaciones de audio manipulados para retratar a alguien que dice o hace algo que en realidad nunca dijo o hizo.
Las acciones de estos deepfakes son propagar noticias falsas, generar desinformación, desacreditar a alguien, cometer delitos relacionados con el honor, la imagen o el fraude, influir en las votaciones o toma de decisiones o pensamiento grupal, llevar al cabo venganzas, manipular los mercados financieros o desestabilizar las relaciones internacionales.
Si consideramos que lesionan la reputación de personas, empresas (partidos políticos) y marcas, se atenta contra el 80% del valor de una firma o nombre.
Anteriormente la detección de estos deepfakes era sólo la observación y encontrar fallos en las imágenes digitales, como bordes borrosos, piel artificialmente lisa, movimientos entrecortados o antinaturales…
Una forma sencilla de detectar si estamos ante un posible Deepfake es fijarse en cuántas veces parpadea la persona de la imagen. Los vidos muy cortos son otro indicio de falsedad y un recurso para detectar el engaño es detectar quien empezó a compartir el material-
Desajustes entre el audio y la imagen es otro signo de engaño y algo que resulta común en los videos falsos es el interior de la boca de las personas: Los algoritmos de inteligencia artificial son incapaces de copiar con precisión la lengua, los dientes y el interior de la boca al hablar.
Sin embargo, hoy las tecnologías identifican y aprenden de grandes cantidades de datos para generar medios falsos de apariencia realista.
Ahora, ¿cómo descubrimos si un video o grabación de audio no es real? Mario Micucci, Investigador de seguridad informática de ESET Latinoamérica, menciona herramientas basadas en IA que utilizan algoritmos de aprendizaje automático para analizar patrones en videos y audios. Busca inconsistencias que podrían indicar manipulación.
Micucci menciona a Sentinel, Oz Liveness, HyperVerge, FakeCatcher Deepware, Phoneme-Viseme Mismatch y DuckDuckGoose.
También existen herramientas basadas análisis de metadatos como la fecha de creación del archivo o la ubicación de la grabación. Herramientas como MediaInfo y ExifTool facilitan la extracción y el análisis de estos metadatos.
Finalmente existen herramientas buscan patrones inusuales en el movimiento facial, la voz o el contenido del video que podrían indicar deepfakes. Algunos ejemplos incluyen FaceForensics y Audio Fingerprinting.
Ivette Estrada
Periodista y escritora mexicana. Creadora del Método ADM de comunicación estratégica. Considera que las palabras construyen realidades, reputación y recuerdos. Fue Premio Nacional de Periodismo en Crónica. Tiene publicados ocho libros y es experta en Relaciones Públicas, Personal Branding y creación de publicaciones diversas.
Colaboradora desde el 27 de junio de 2022.
Las opiniones expresadas por los columnistas en sus artículos son de exclusiva responsabilidad de sus autores y pueden no representar la postura o línea editorial de PressLibre. Sin embargo, como medio periodístico respetamos su derecho a la libertad de expresión.