La Batalla Contra los «Deepfakes»: Herramientas Avanzadas y el Factor Humano en la Detección de Contenido Falso
Se ha vuelto de conocimiento general que nos dirigimos hacia una nueva era en la que la Inteligencia Artificial (IA) es capaz de generar contenido falso sofisticado, como imágenes y videos.
Esto tiene enormes ramificaciones para nuestra sociedad; desde celebridades y políticos hasta personas comunes, todos se verán afectados. Ya estamos siendo testigos del uso de estas tecnologías por parte de actores malintencionados en los medios de comunicación, y jóvenes que crean desnudos falsos de otros de manera perjudicial.
Ante esta situación, ¿qué podemos hacer? ¿Cómo contrarrestamos los efectos nocivos de esta nueva amenaza?
A continuación, se destacan algunas de las formas en que tanto las tecnologías de «deepfake» como los sistemas defensivos están mejorando con el tiempo. Esto podría ayudarnos a reflexionar sobre cómo abordar este fenómeno.
Herramientas Poderosas para la Detección de «Deepfakes»
Las herramientas más sofisticadas para detectar «deepfakes» pueden analizar un video y buscar aquellos indicios sutiles que revelan si fue producido de forma natural o no.
Existen marcadores forenses que pueden ser utilizados, y muchas de estas herramientas son, en última instancia, efectivas.
También hay un componente humano, como el caso de Louise Bruder, descrita como una «súper-reconocedora» encargada de identificar contenido «deepfake».
Persiguiendo el Contenido «Deepfake»
Melat Ghebreselassie y Elon Raya explican el uso de esta tecnología y su beneficio para el público.
Raya señala que se necesita algo que esté activo, «sobre la marcha», de fácil acceso y versátil. Deep Detect, afirma, funciona en tiempo real en plataformas como YouTube, que es donde se necesita que se realice este tipo de trabajo.
Por otro lado, las soluciones anteriores carecían de eficacia.
«Simplemente se desmoronaron», dijo sobre las herramientas tradicionales, «porque están entrenadas en entornos controlados». Las nuevas herramientas, señala, se entrenan con datos desordenados, por lo que son mejores para identificar «deepfakes» en situaciones reales.
El Modelo GAN
Al describir estos sistemas, Ghebreselassie y Raya explican la interacción entre dos motores de IA efectivos.
Se podría denominar «modelo de red generativa antagónica», que era una forma común de describir esto en los primeros días del aprendizaje automático, a principios de esta década.
En esta situación, un modelo generativo produce elementos, en este caso, «deepfakes». El modelo antagónico los evalúa y determina si son «deepfakes» o no. La idea tradicional es que el resultado regresa al modelo generativo para ajustar o afinar sus resultados. Sin embargo, si el resultado se dirige a una audiencia humana, funciona en contra del creador de «deepfakes».
En otras palabras, esto se puede utilizar tanto de forma positiva como negativa con los «deepfakes». El motor antagónico puede detectar los «deepfakes» y señalarlos al público, o puede entrenar a la red generativa para crear contenido «deepfake» aún mejor.
Sin embargo, presumiblemente, existe un límite para lo que los «deepfakes» pueden lograr. Es posible que no puedan imitar realmente todos los pequeños matices del contenido producido de forma natural. Por ejemplo, una forma en que funcionan los detectores de «deepfakes» es observar la iluminación y la composición natural. Para engañar a estas herramientas, el generador de «deepfakes» tendría que crear toda la dinámica de la iluminación natural, hasta el más mínimo detalle. Se desconoce hasta qué punto los nuevos modelos pueden lograr esto.
El Toque Humano
Luego está la participación humana. Las personas son los guardianes en algunas de estas situaciones y pueden utilizar la IA de forma asistencial.
En términos de la tecnología que presentan Raya y Ghebreselassie, existe una especie de modelo de «crowdsourcing» que Ghebreselassie considera un «cambio de juego» para la detección de «deepfakes».
En las finanzas descentralizadas, una multitud de personas forma un consenso, y ese es el mecanismo de confianza para el resultado económico. Esto también se puede aplicar a la detección de «deepfakes». Si el 90% de las personas lo reportan como un posible «deepfake», se puede tener en cuenta a medida que los algoritmos determinan qué es probable que sea contenido falso.
«Si el 80% de los usuarios están de acuerdo con una pieza de contenido, se agrega para el reentrenamiento y se marca para que nuestro modelo aprenda de ella», explica Ghebreselassie. «Y estamos utilizando el aprendizaje basado en la repetición que permite al modelo aprender sin olvidar las piezas de contenido anteriores que ha visto».
«Utilizamos métodos de regularización como la modulación de peso elástico», agrega Raya, «para que el modelo no olvide las características clave aprendidas, al mismo tiempo que se ajusta a los nuevos datos».
Además, Ghebreselassie señaló que el sistema Deep Detect tiene dos «superpoderes»: uno es un mecanismo de atención de múltiples cabezas, que le permite concentrarse en más de una cosa a la vez. Otro es la capacidad de normalizar con el Procesamiento del Lenguaje Natural (PNL).
El sistema utiliza redes neuronales convolucionales para extraer características y un transformador visual para realizar evaluaciones profundas.
Así que las noticias aquí son mixtas. La buena noticia es que las herramientas de detección de «deepfakes» son bastante elaboradas y complejas. Son bastante avanzadas. Utilizan todo el poder antes mencionado para permitirnos minimizar el daño que están causando los «deepfakes». La mala noticia es que los generadores de «deepfakes» también están en constante evolución.
Insights de Evox News: Cómo la Lucha Contra los Deepfakes Puede Impactar tu Negocio
La proliferación de «deepfakes» y el desarrollo de tecnologías para combatirlos presentan un panorama complejo para las empresas, con implicaciones en varios frentes:
Reputación y Confianza: La capacidad de crear videos y audios falsos convincentes representa una amenaza directa para la reputación de cualquier empresa. La difusión de información falsa, ya sea a través de un supuesto comunicado de prensa o un video manipulado de un ejecutivo, puede erosionar la confianza del público y de los inversores. Las empresas deben estar preparadas para monitorear activamente la aparición de «deepfakes» relacionados con su marca y contar con estrategias de comunicación de crisis para contrarrestar la desinformación.
Seguridad y Fraude: Los «deepfakes» pueden ser utilizados para fines fraudulentos, como la suplantación de identidad de ejecutivos para obtener información confidencial o autorizar transacciones financieras. Las empresas necesitan fortalecer sus protocolos de seguridad, implementando medidas de autenticación multifactorial y capacitando a sus empleados para identificar posibles intentos de fraude basados en «deepfakes».
Ventaja Competitiva e Innovación: El desarrollo de tecnologías de detección de «deepfakes» también representa una oportunidad para las empresas. Aquellas que inviertan en estas herramientas o las integren en sus procesos internos pueden obtener una ventaja competitiva al protegerse mejor contra los riesgos asociados. Además, las empresas dedicadas al desarrollo de IA y soluciones de seguridad pueden encontrar un nuevo mercado en la lucha contra los «deepfakes», impulsando la innovación en este campo.
Marketing y Contenido: A pesar de los riesgos, la tecnología «deepfake» también podría tener aplicaciones legítimas en el marketing y la creación de contenido, como la personalización de anuncios o la generación de avatares virtuales. Sin embargo, las empresas deben ser extremadamente cautelosas y transparentes en el uso de estas tecnologías, asegurándose de que no se utilicen para engañar o manipular a los consumidores.
En resumen, la batalla contra los «deepfakes» es un desafío en evolución que exige que las empresas estén informadas, preparadas y dispuestas a adaptarse. La inversión en tecnologías de detección, la capacitación de los empleados y la implementación de estrategias de comunicación sólidas serán cruciales para mitigar los riesgos y aprovechar las posibles oportunidades que surjan de esta nueva realidad tecnológica