Países Bajos Restringe el Uso de la Aplicación China de IA DeepSeek entre Funcionarios por Riesgos de Espionaje
El ejecutivo neerlandés ha implementado una restricción para los empleados gubernamentales, prohibiéndoles utilizar la aplicación de inteligencia artificial de origen chino, DeepSeek, en sus tareas laborales. Esta medida se fundamenta en la preocupación por el posible espionaje, calificada como «sensible al espionaje»,. La Autoridad de Protección de Datos de Países Bajos (AP) también ha emitido una recomendación a la ciudadanía para que actúe con cautela al introducir información personal y confidencial en la plataforma.
La directiva, comunicada por el Secretario de Estado de Digitalización, Zsolt Szabó, a todos los trabajadores del gobierno neerlandés, enfatiza que DeepSeek es considerada una «aplicación sensible al espionaje» de quienes la utilizan, según ha informado la cadena pública NOS.
Preocupación por la Posible Transferencia de Información al Gobierno Chino
Existe una inquietud considerable de que los datos compartidos por los usuarios a través de esta aplicación puedan ser almacenados y, eventualmente, transferidos al gobierno chino. En este contexto, la AP alertó el viernes pasado acerca de los peligros inherentes al uso de esta plataforma. La autoridad instó a los usuarios a reflexionar seriamente sobre la conveniencia de ingresar datos personales y otra información delicada en la aplicación.

Adicionalmente, se hizo un llamado a la «prudencia» al introducir cualquier tipo de información privada, incluyendo la de terceros. La AP advirtió que al subir datos de otras personas, estos terminan en China, posiblemente sin el conocimiento ni el consentimiento de los afectados. Se enfatizó que esta práctica ilegal responsabiliza directamente a quien la realiza.
Desde el lanzamiento de su modelo R1 el 20 de enero, DeepSeek, la aplicación china reconocida por su código abierto y sus reducidos costos de desarrollo, ha dominado las listas de descargas de aplicaciones gratuitas. No obstante, la aplicación también ha sido objeto de críticas debido a su aparente censura, ya que se ha observado que evita responder a preguntas sobre temas polémicos en China, como la Masacre de Tiananmen de 1989 o incluso la identidad de su presidente, Xi Jinping.
Este comportamiento se ha observado de manera similar en otras IA conversacionales chinas, tal como se verificó en 2023. Ese mismo año, Pekín implementó regulaciones para estos servicios, exigiendo que se adhieran a los «valores socialistas fundamentales».
Insights de Evox News: Cómo la Prohibición de DeepSeek Puede Impactar tu Negocio
La decisión de Países Bajos de restringir el uso de DeepSeek entre sus funcionarios subraya una creciente preocupación global sobre la seguridad de los datos y la privacidad en el contexto de la inteligencia artificial. Este incidente puede tener varias implicaciones para las empresas:
Mayor EscRutinio de las Herramientas de IA: Las empresas deben anticipar un mayor escrutinio en la selección y uso de herramientas de IA, especialmente aquellas provenientes de países con regímenes de datos diferentes. La procedencia y las políticas de privacidad de las plataformas de IA serán factores críticos en la toma de decisiones.
Énfasis en la Ciberseguridad y la Protección de Datos: La noticia refuerza la necesidad de invertir en ciberseguridad y en robustas políticas de protección de datos. Las empresas deben asegurarse de que sus sistemas y procesos cumplan con las regulaciones locales e internacionales, minimizando el riesgo de filtraciones y accesos no autorizados.
Oportunidad para Proveedores de IA con Enfoque en la Privacidad: La situación podría crear una ventaja competitiva para los proveedores de soluciones de IA que priorizan la transparencia, la seguridad y el cumplimiento normativo. Aquellas empresas que puedan demostrar un compromiso sólido con la privacidad de los datos podrían ganar cuota de mercado.
Evaluación de Riesgos en la Cadena de Suministro Digital: Las organizaciones deben evaluar los riesgos asociados a su cadena de suministro digital, incluyendo las herramientas y plataformas de terceros que utilizan. Esto implica comprender cómo se gestionan los datos en cada etapa y asegurarse de que se cumplen los estándares de seguridad.
* Necesidad de Políticas Internas Claras: Es fundamental que las compañías establezcan políticas internas claras sobre el uso de herramientas de IA, incluyendo directrices sobre qué tipo de información puede ser procesada y en qué plataformas. La capacitación de los empleados en estas políticas es crucial