Europol alerta sobre el uso de ChatGPT para facilitar el fraude, la desinformación y la ciberdelincuencia
La agencia de coordinación policial europea, Europol, ha emitido una advertencia sobre el potencial de herramientas de inteligencia artificial como ChatGPT para ser utilizadas con fines delictivos. La capacidad de esta tecnología para generar textos de gran realismo a alta velocidad y escala la convierte en un recurso valioso para el fraude y la difusión de información engañosa, así como en un facilitador para ciberdelincuentes con conocimientos técnicos limitados, al permitirles crear código en diversos lenguajes de programación.
Europol reconoce que los modelos de lenguaje extenso, como el que impulsa a ChatGPT, poseen un «lado oscuro». La agencia ha publicado recientemente su primer informe evaluando la posible explotación de estos sistemas de IA por actores maliciosos, describiendo un «panorama sombrío» y un desafío emergente para las fuerzas de seguridad.
El modelo de ChatGPT actualmente disponible al público, diseñado para procesar y generar texto similar al humano, ofrece una amplia gama de funcionalidades: responde preguntas, traduce textos, mantiene conversaciones, crea contenido original y produce código informático funcional. Sin embargo, estas mismas capacidades pueden ser desviadas para facilitar actividades ilícitas, que abarcan desde ayudar a los delincuentes a ocultar su identidad hasta cometer delitos específicos como el terrorismo o la explotación sexual infantil.
Potencial Abuso de los Modelos Lingüísticos por Actores Maliciosos
El Laboratorio de Innovación de Europol ha analizado en profundidad cómo los infractores podrían sacar provecho de los modelos de lenguaje extenso (LLM). Los especialistas de la agencia han identificado múltiples áreas de inquietud, destacando tres ámbitos de particular relevancia.

El primer punto crítico se relaciona con la simplificación de tareas vinculadas al fraude, la suplantación de identidad y la ingeniería social. La habilidad de ChatGPT para redactar textos muy convincentes representa un cambio significativo. Mientras que el ‘phishing’ tradicional a menudo era detectable por sus errores gramaticales y ortográficos, ahora es posible suplantar a organizaciones o individuos de forma muy realista, incluso sin un dominio avanzado del idioma.
«Hasta la fecha, este tipo de comunicaciones engañosas debían ser elaboradas por los propios delincuentes. En campañas masivas, las víctimas frecuentemente podían identificar la falta de autenticidad de un mensaje por errores evidentes o contenido impreciso», detalla Europol.
Riesgos Asociados al Terrorismo, Propaganda y Desinformación
Gracias a la inteligencia artificial, las estafas de ‘phishing’ y el fraude en línea pueden elaborarse «más rápidamente, con una autenticidad mucho mayor y a una escala considerablemente más amplia», permitiendo además «responder a mensajes de manera contextualizada y adoptar un estilo de escritura específico», alerta la agencia.
«Las funcionalidades de ChatGPT se prestan a diversos usos indebidos en el terreno del terrorismo, la propaganda y la desinformación. El modelo puede emplearse para recopilar información general que facilite actividades terroristas, como la financiación o el intercambio anónimo de archivos», explica el informe.
Adicionalmente, este tipo de tecnología no solo simplifica la creación y difusión de desinformación, discursos de odio y contenido terrorista en internet, sino que también podría otorgarles una «credibilidad indebida», ya que al ser generado por una máquina, podría parecer más objetivo para ciertos públicos que si fuera producido por un ser humano.

Sumado al fraude y la desinformación, Europol subraya la ciberdelincuencia como la tercera área principal de preocupación. ChatGPT no solo genera lenguaje natural, sino que también es capaz de producir código en múltiples lenguajes de programación, ofreciendo una variedad de aplicaciones prácticas en cuestión de minutos si se introducen las indicaciones correctas.
«Es posible crear herramientas básicas para diversos propósitos maliciosos. Aunque sean elementales, esto constituye un punto de entrada para la ciberdelincuencia, ya que permite que alguien sin conocimientos técnicos explote un vector de ataque en el sistema de una víctima», enfatiza la agencia en su documento.
Las medidas de seguridad implementadas para impedir que ChatGPT genere código potencialmente malicioso solo son efectivas si la herramienta comprende la intención final. Sin embargo, si las instrucciones se dividen en pasos individuales, resulta «trivial eludir estas medidas de seguridad».
Además, un usuario con conocimientos más avanzados puede utilizar las capacidades potenciadas de ChatGPT para refinar o incluso automatizar tácticas operativas sofisticadas empleadas por los ciberdelincuentes.
Insights de Evox News: Cómo el uso delictivo de IA como ChatGPT puede impactar tu negocio
La capacidad de herramientas como ChatGPT para ser explotadas con fines delictivos presenta implicaciones significativas para las empresas:
Impacto Económico: Las organizaciones enfrentan un aumento en los costos asociados a la ciberseguridad, incluyendo la detección de amenazas generadas por IA, la prevención de ataques de phishing y fraude más sofisticados, y la recuperación tras incidentes. Las pérdidas financieras directas por estafas y el daño a la reputación de la marca pueden ser considerables, afectando ingresos y la confianza del cliente.
Ventaja Competitiva: Las empresas que inviertan proactivamente en soluciones de ciberseguridad capaces de identificar y neutralizar amenazas generadas por IA (incluyendo el uso de IA para la defensa) obtendrán una ventaja competitiva. Aquellas que no adapten sus defensas se volverán blancos más fáciles. La creciente demanda de expertos en ciberseguridad con conocimientos en IA intensificará la competencia por el talento especializado.
* Innovación y Adaptación: Esta amenaza impulsa la innovación en el sector de la ciberseguridad, fomentando el desarrollo de nuevas tecnologías defensivas (a menudo basadas también en IA). Obliga a las empresas a revisar y actualizar continuamente sus protocolos de seguridad, así como a reforzar la formación de sus empleados para reconocer intentos de ingeniería social y phishing cada vez más convincentes. También puede incentivar un mayor enfoque en el desarrollo y la implementación ética de la IA dentro de las propias organizaciones