La IA conversacional: Su lado oscuro amenaza tu seguridad

La IA conversacional: Su lado oscuro amenaza tu seguridad

Evox News
Por
7 min de lectura

Estafas y Ataques Cibernéticos Emergen como Amenazas Clave de los Chats de IA

La competencia entre gigantes tecnológicos como Google y Microsoft se intensifica para posicionar sus nuevos asistentes conversacionales basados en inteligencia artificial (IA) en el centro de la experiencia del usuario, aspirando a una popularidad comparable a la de sus motores de búsqueda. Sin embargo, la inminente llegada masiva de estos «chatbots» trae consigo nuevas vulnerabilidades en el ámbito de la ciberseguridad, incluyendo su potencial uso para la elaboración de fraudes sofisticados y la creación de software malicioso destinado a ciberataques. Estos riesgos son igualmente aplicables a herramientas ya conocidas como ChatGPT de OpenAI, cuya tecnología subyace también en el buscador Bing de Microsoft.

¿Contenido Generado por Humanos o por Inteligencia Artificial?

Satnam Narang, ingeniero investigador senior en la firma de ciberseguridad Tenable, señala que los ciberdelincuentes podrían ser uno de los colectivos más beneficiados por estas tecnologías avanzadas.

La capacidad de los chatbots para generar textos coherentes y gramaticalmente impecables en múltiples idiomas en cuestión de segundos representa un desafío. Narang explica que, tradicionalmente, los errores gramaticales en mensajes fraudulentos eran una señal de alerta para identificar a los estafadores. Con el uso de la IA, estos delincuentes pueden enmascarar su identidad de manera más efectiva.

«ChatGPT puede asistir (a los defraudadores) en la creación de plantillas muy convincentes para correos electrónicos o en la elaboración de perfiles falsos para estafas en aplicaciones de citas. Durante una conversación en tiempo real (con la víctima), los estafadores pueden recurrir a ChatGPT para generar respuestas que simulen la personalidad que intentan suplantar», detalla Narang.

Adicionalmente, el especialista apunta a la existencia de otras herramientas de IA, como DALL·E 2 (también de OpenAI), que permiten a los actores maliciosos generar imágenes fotorrealistas de individuos inexistentes, añadiendo otra capa de engaño a sus operaciones.

La IA como Asistente en el Diseño de Programas Malignos

Otra capacidad preocupante de herramientas como ChatGPT es su potencial para ayudar a individuos con intenciones maliciosas a desarrollar software dañino (malware).

«Si bien este malware podría no ser el más avanzado o el mejor estructurado, sí proporciona a los atacantes una base conceptual sobre cómo escribir código malicioso en lenguajes específicos. Esto representa una ventaja significativa en su proceso, ya que previamente, quien quisiera desarrollar malware debía poseer conocimientos de programación. Ahora, ChatGPT puede reducir considerablemente ese tiempo de aprendizaje», explica Narang.

DAN: Un Chatbot sin Restricciones Morales o de Seguridad

Tanto ChatGPT de OpenAI como los chatbots Bing de Microsoft y Bard de Google han sido programados con salvaguardas para evitar generar respuestas sobre temas sensibles –como racismo, seguridad– o contenido ofensivo. Por diseño, evitan discutir figuras históricas controvertidas, usar lenguaje peyorativo o proporcionar instrucciones para actividades ilegales o peligrosas.

Sin embargo, Narang advierte sobre la existencia de versiones modificadas o «liberadas» de ChatGPT, como una conocida como DAN (acrónimo de «Do Anything Now» o «Haz Cualquier Cosa Ahora»), que opera sin estas barreras éticas o de seguridad.

«Esto incrementa la preocupación, ya que ahora (un usuario) podría solicitar a una versión sin restricciones de ChatGPT ayuda para escribir ransomware (software de secuestro de datos). Aunque la efectividad real de dicho ransomware generado por IA aún está por determinarse», comenta Narang.

Un Avance Irreversible con Usos Duales

El experto considera improbable que se puedan establecer regulaciones efectivas a nivel nacional o institucional para limitar estas nuevas tecnologías o disuadir su uso por completo.

«Una vez que se abre la caja de Pandora, es imposible volver a cerrarla. ChatGPT ya es una realidad y no desaparecerá. Más allá de su potencial uso malicioso, existen numerosos casos de uso legítimos que aportan un valor considerable a empresas, organizaciones e individuos», concluye Narang.

Insights de Evox News: Cómo el Uso Malicioso de la IA puede impactar tu negocio

La proliferación de chatbots de IA y su potencial uso indebido presenta un panorama complejo para las empresas. Desde una perspectiva económica, las organizaciones deben prepararse para un incremento en la sofisticación de los ciberataques (phishing, malware, fraudes) impulsados por IA, lo que requerirá mayores inversiones en ciberseguridad avanzada y formación de personal. Las pérdidas financieras directas por ataques exitosos podrían aumentar.

En términos de ventaja competitiva, las empresas que adopten herramientas de IA para fines legítimos (automatización, análisis, atención al cliente) pueden obtener mejoras significativas en eficiencia e innovación. Sin embargo, aquellas que no implementen defensas robustas contra las amenazas de IA podrían sufrir daños reputacionales y operativos severos, perdiendo la confianza de clientes y socios. La capacidad de una empresa para protegerse contra estos nuevos vectores de ataque se convertirá en un diferenciador clave.

Desde el punto de vista de la innovación, si bien la IA es un motor fundamental para nuevos productos, servicios y modelos de negocio, su «lado oscuro» exige una innovación paralela en ciberseguridad. Las empresas deben adoptar un enfoque de «seguridad por diseño» al implementar soluciones de IA y fomentar una cultura de vigilancia constante. La aparición de IA capaz de generar código malicioso o eludir filtros de seguridad subraya la necesidad crítica de desarrollar contramedidas igualmente inteligentes y adaptativas para proteger los activos empresariales y la continuidad del negocio

Compartir este artículo