ChatGPT: 5 revelaciones que comprometen tu seguridad

ChatGPT: 5 revelaciones que comprometen tu seguridad

Evox News
Por
10 min de lectura

La Creciente Preocupación por la Privacidad en el Uso de ChatGPT

ChatGPT ha modificado la forma en que numerosas personas abordan su trabajo y su vida diaria. Según estadísticas recientes, más de 100 millones de individuos lo utilizan cada jornada para gestionar más de mil millones de consultas.

No obstante, este popular chatbot basado en un modelo de lenguaje grande (LLM) ha sido descrito como un «agujero negro para la privacidad», debido a las inquietudes sobre cómo maneja los datos ingresados por los usuarios, una situación que incluso llevó a su suspensión temporal en Italia.

Su desarrollador, OpenAI, admite abiertamente que los datos introducidos podrían no estar seguros. Estos datos no solo se emplean para el entrenamiento continuo de sus modelos, con el riesgo potencial de ser expuestos en las respuestas a otros usuarios, sino que también pueden ser revisados por personal humano para asegurar el cumplimiento de las normativas de uso. Además, como ocurre con cualquier servicio en la nube, la seguridad de los datos depende intrínsecamente de las medidas de protección del proveedor.

Todo esto significa que cualquier dato ingresado en la plataforma debería ser considerado como información potencialmente pública. Con esta premisa, existen varias categorías de información que bajo ninguna circunstancia deberían compartirse con este, ni con ningún otro chatbot público alojado en la nube. Revisemos algunas de ellas:

Solicitudes Ilegales o Poco Éticas

La mayoría de los chatbots de inteligencia artificial incorporan mecanismos de seguridad diseñados para impedir su utilización con fines contrarios a la ética. Si una pregunta o petición se relaciona con actividades que pudieran ser ilícitas, el usuario podría encontrarse en una situación comprometida. Ejemplos de acciones definitivamente desaconsejables incluyen preguntar a un chatbot público cómo perpetrar delitos, realizar actividades fraudulentas o manipular a terceros para inducirles a acciones perjudiciales.

Numerosas políticas de uso establecen claramente que las solicitudes ilegales o el intento de emplear la IA para llevar a cabo actividades ilícitas podrían derivar en la notificación del usuario a las autoridades competentes. La legislación aplicable puede variar considerablemente según la ubicación geográfica. Por ejemplo, la normativa sobre IA en China prohíbe su uso para menoscabar la autoridad del Estado o la estabilidad social, mientras que la Ley de IA de la Unión Europea estipula que las imágenes o vídeos «deepfake» generados por IA que simulan ser personas reales deben estar claramente identificados. En el Reino Unido, la Ley de Seguridad Online tipifica como delito la difusión de imágenes explícitas generadas por IA sin el debido consentimiento.

Ingresar solicitudes de material ilegal o información que pudiera causar daño a otros no solo es moralmente reprobable, sino que puede acarrear severas consecuencias legales y un deterioro significativo de la reputación.

Credenciales de Acceso y Contraseñas

Con la proliferación de la IA agéntica, un número creciente de usuarios utilizará sistemas de IA capaces de conectarse y operar servicios de terceros. Es posible que para ello requieran nuestras credenciales de inicio de sesión; no obstante, otorgarles dicho acceso podría ser una mala praxis. Una vez que los datos se introducen en un chatbot público, el control sobre su destino es mínimo, y se han registrado incidentes donde datos personales ingresados por un usuario han sido expuestos en las respuestas proporcionadas a otros. Evidentemente, esto podría convertirse en una seria amenaza para la privacidad, por lo que, en la actualidad, es prudente evitar cualquier interacción con la IA que implique facilitar el acceso a nombres de usuario y cuentas, a menos que se tenga la certeza absoluta de estar utilizando un sistema de alta seguridad.

Información Financiera

Por motivos análogos, probablemente no sea una buena idea comenzar a introducir datos como números de cuentas bancarias o de tarjetas de crédito en chatbots de IA generativa. Esta información sensible solo debería ingresarse en sistemas seguros destinados al comercio electrónico o la banca en línea, los cuales disponen de medidas de protección incorporadas, como el cifrado y la eliminación automática de datos una vez procesados. Los chatbots carecen de estas salvaguardas. De hecho, una vez que los datos son ingresados, es imposible saber qué ocurrirá con ellos, y proporcionar esta información altamente delicada podría exponer al usuario a fraudes, robo de identidad, ataques de phishing y ransomware.

Información Confidencial

Toda persona tiene un deber de confidencialidad para salvaguardar la información sensible de la que es responsable. Muchas de estas obligaciones son inherentes, como la confidencialidad entre profesionales (por ejemplo, médicos, abogados y contables) y sus clientes. Sin embargo, muchos empleados también tienen un deber implícito de confidencialidad hacia sus empleadores. Compartir documentos corporativos, como notas y actas de reuniones o registros de transacciones, bien podría constituir una divulgación de secretos comerciales y una violación de la confidencialidad, como sucedió en el caso que involucró a empleados de Samsung en 2023. Por lo tanto, por muy atractivo que resulte introducir toda esta información en ChatGPT para ver qué tipo de análisis puede generar, no es recomendable a menos que se esté completamente seguro de que la información puede compartirse sin riesgo.

Información Médica

Es bien sabido que puede ser tentador solicitar a ChatGPT que actúe como un consultor médico y diagnostique problemas de salud. No obstante, esto debe hacerse siempre con extrema cautela, especialmente considerando que las actualizaciones recientes le permiten «recordar» e incluso integrar información de diferentes conversaciones para comprender mejor al usuario. Ninguna de estas funcionalidades viene acompañada de garantías de privacidad, por lo que es fundamental ser consciente de que realmente tenemos muy poco control sobre el destino de cualquier información que ingresemos. Por supuesto, esto es doblemente relevante para las empresas del sector sanitario que manejan información de pacientes, las cuales se exponen a multas cuantiosas y a un grave daño reputacional.

En Resumen

Al igual que con cualquier contenido que subimos a internet, es aconsejable partir de la base de que no existe garantía de que permanezca privado para siempre. Por ende, es preferible no divulgar nada que no estaríamos cómodos compartiendo con el público general. A medida que los chatbots y los agentes de IA adquieren un papel cada vez más relevante en nuestras vidas, esta preocupación se intensificará, y la educación de los usuarios sobre los riesgos asociados será una responsabilidad crucial para cualquier proveedor de este tipo de servicios. Sin embargo, debemos recordar que también recae sobre nosotros una responsabilidad personal: la de cuidar nuestros propios datos y comprender cómo mantenerlos seguros.

Insights de Evox News: Cómo la gestión de datos en IA puede impactar tu negocio

La creciente integración de herramientas de IA como ChatGPT en las operaciones empresariales presenta tanto oportunidades como riesgos significativos. Desde una perspectiva económica, una filtración de datos confidenciales (financieros, estratégicos, de clientes) introducidos en chatbots públicos puede acarrear costes devastadores: sanciones regulatorias, gastos legales, daño reputacional y pérdida de confianza del cliente. La gestión inadecuada de estos riesgos puede erosionar gravemente la valoración de la empresa.

En términos de ventaja competitiva, las organizaciones que implementen políticas claras sobre el uso de IA generativa y capaciten a sus empleados sobre qué información es segura compartir y cuál no, estarán mejor posicionadas. Establecer protocolos de seguridad y, potencialmente, invertir en soluciones de IA privadas o verificadas puede diferenciar a una empresa, permitiéndole aprovechar los beneficios de productividad de la IA sin exponerse a vulnerabilidades críticas. Las empresas que ignoren estos riesgos podrían sufrir brechas que sus competidores podrían explotar.

Desde el punto de vista de la innovación, esta situación impulsa la necesidad de desarrollar o adoptar soluciones de IA más seguras y centradas en la privacidad, ya sean sistemas internos o servicios de terceros con garantías robustas. Fomenta la innovación en áreas como la encriptación de datos para IA, las técnicas de anonimización y las plataformas de IA empresariales seguras. Las empresas deben equilibrar la agilidad que ofrece la IA con la diligencia debida en materia de seguridad, integrando la gobernanza de datos en sus estrategias de innovación tecnológica

Compartir este artículo