Granito para la IA empresarial: Construyendo confianza y seguridad

Por
11 min de lectura

Seguridad y Protección en la IA Empresarial

Si bien el costo de inferencia y el rendimiento son factores críticos en la IA empresarial, no son las únicas consideraciones. Las empresas también deben asegurarse de que sus modelos de IA puedan resistir rigurosos requisitos de seguridad, privacidad y cumplimiento normativo. En el corazón de una estrategia de IA robusta se encuentra la capacidad de desarrollar y mantener la confianza en los sistemas de IA que se implementan. Esto significa que, más allá de optimizar el costo y el rendimiento, las empresas deben priorizar la integridad y la seguridad de sus modelos. Es primordial garantizar que los sistemas de IA estén protegidos con las salvaguardas adecuadas, cumplan con las regulaciones de protección de datos y puedan asegurar la información confidencial.

Cuando las empresas evalúan qué modelos fundacionales deben usarse como parte de su implementación de IA, es este enfoque holístico el que debe aplicarse. Considere, por ejemplo, algunos modelos que se lanzaron recientemente con las últimas capacidades de razonamiento en cadena de pensamiento. Por un lado, están Qwen 2.5 7B y Llama 3.1 8B, dos modelos destilados por DeepSeek utilizando DeepSeek R1, y por el otro, IBM Granite 3.2. Dado que DeepSeek ha destilado los dos primeros modelos de su modelo R1, cualquier análisis de esos modelos en términos de seguridad y protección debe comenzar primero con una evaluación de DeepSeek R1.

DeepSeek sorprendió al mundo con el lanzamiento de su último modelo, DeepSeek R1, demostrando que es posible entrenar modelos de alto rendimiento a una fracción del costo tradicionalmente asociado con tales esfuerzos. Esta eficiencia de costos se extiende a su uso para la inferencia, lo que la convierte en una opción económicamente atractiva para las empresas que buscan aprovechar la IA.

Sin embargo, a pesar de sus notables avances en rendimiento y eficiencia de costos, se ha descubierto que DeepSeek R1 posee vulnerabilidades críticas. En un estudio realizado, se descubrió que DeepSeek R1 era susceptible a ataques de «jailbreak» en el 100% de los intentos realizados durante el estudio. También tiene un fuerte sesgo hacia China, con ciertos temas como levantamientos políticos anteriores siendo suprimidos.

Granite 3.2 es una familia de modelos desarrollada por IBM que consta de modelos de lenguaje, modelos de series temporales, modelos geoespaciales, modelos de incrustación, modelos de decodificación especulativa, modelos guardianes y, con esta última versión 3.2, modelos de visión.

Al igual que los modelos Qwen 2.5 7B y Llama 3.1 8B destilados de DeepSeek R1, Granite 3.2 incorpora capacidades de razonamiento en sus modelos de lenguaje. Sin embargo, a diferencia de los modelos basados en DeepSeek, IBM afirma que su enfoque de desarrollo de Granite 3.2 mantiene la seguridad y la solidez al tiempo que ofrece un rendimiento de razonamiento.

Las pruebas realizadas por IBM utilizando el benchmark AttaQ, muestran resultados interesantes. Este benchmark utiliza aproximadamente 1.400 preguntas en categorías como engaño, discriminación, información dañina, abuso de sustancias o contenido sexual, entre otras, para evaluar la tendencia de un modelo objetivo a generar respuestas dañinas, inexactas o indeseables. Los datos muestran que al utilizar DeepSeek R1 para impartir capacidades de razonamiento a modelos más pequeños como Qwen 2.5 7B y Llama 3.1 8B, la seguridad y la solidez se ven afectadas negativamente, mientras que la implementación de IBM del razonamiento en cadena de pensamiento mantuvo la integridad de sus resultados.

Además de este enfoque inherente para mantener la seguridad al implementar el razonamiento, como parte de su familia de modelos Granite, IBM también proporciona modelos de salvaguarda complementarios llamados Granite Guardian, para mejorar aún más el rendimiento incorporado y ayudar a las empresas a implementar salvaguardas junto con cualquier modelo de su elección, no solo los modelos Granite. Presentado por primera vez el año pasado como parte del lanzamiento inicial de Granite 3.0 de IBM, Granite Guardian evalúa tanto las indicaciones de entrada como las respuestas de salida en busca de sesgos, seguridad y alucinaciones. Más específicamente, los modelos están entrenados para detectar «jailbreaking», sesgos, violencia, blasfemias, contenido sexual, comportamiento poco ético y alucinaciones tanto de RAG como de llamadas a funciones. Si bien estas capacidades también estaban disponibles en las versiones anteriores, la última versión 3.2, según IBM, mantiene el mismo rendimiento pero lo hace utilizando hasta un 40% menos de parámetros activos. Esta reducción en los parámetros mejora significativamente tanto el costo como la latencia.

En cuanto a los costos, DeepSeek R1 cuesta aproximadamente $2.19 por millón de tokens de salida a través de su API, los modelos Granite que se ejecutan en watsonx.ai oscilan entre $0.10 y $0.20 por millón de tokens de salida, un orden de magnitud menos, al tiempo que ofrecen la naturaleza confiable de los modelos de IBM. Estos costos son para modelos implementados a través de un proveedor de nube. Cuando se implementan localmente, los costos variarán según la configuración local. Sin embargo, los costos de implementación del proveedor de nube pueden servir como un buen indicador para indicar relativamente cuánta inversión se requerirá para escalar las implementaciones locales.

Estos factores no significan necesariamente que no pueda o no deba usar DeepSeek si es la herramienta adecuada para el trabajo. Sin embargo, sí subrayan la necesidad de un marco integral de evaluación y gestión de riesgos que considere el costo, el rendimiento, la seguridad, la protección y el cumplimiento de los datos y el entrenamiento al seleccionar los modelos en los que basar los sistemas de IA empresariales. En la mayoría de las aplicaciones, las empresas deben priorizar medidas de seguridad sólidas, evaluaciones de cumplimiento periódicas y un monitoreo continuo para mitigar los riesgos inherentes asociados con la implementación de dichos sistemas. Evaluar el costo total de garantizar la integridad operativa debería ser el factor determinante en lugar de simplemente el costo por token.

Tirias Research realiza un seguimiento y asesora a empresas de todo el ecosistema electrónico, desde semiconductores hasta sistemas y sensores hasta la nube. Los miembros del equipo de Tirias Research han asesorado a IBM, Nvidia, AMD y otras empresas de los ecosistemas de servidores, IA y cuántica.

Insights de Evox News: Cómo la seguridad en la IA puede impactar tu negocio

Esta noticia destaca una cuestión fundamental para cualquier empresa que esté implementando o considerando implementar soluciones de Inteligencia Artificial: la seguridad y la confiabilidad de los modelos son tan importantes como su rendimiento y costo. El caso de DeepSeek R1, aunque atractivo por su eficiencia económica, ilustra cómo las vulnerabilidades de seguridad pueden representar un riesgo significativo. Esto puede tener varias implicaciones clave para las empresas:

  • Riesgo Reputacional y Financiero: Una brecha de seguridad en un sistema de IA, como un «jailbreak» exitoso, puede resultar en la exposición de datos confidenciales, la generación de contenido inapropiado o la manipulación de resultados. Esto puede dañar gravemente la reputación de una empresa y generar pérdidas financieras significativas, tanto directas (multas, costos de remediación) como indirectas (pérdida de clientes, caída del valor de las acciones).
  • Cumplimiento Normativo: Las regulaciones sobre protección de datos y privacidad, como el GDPR en Europa, son cada vez más estrictas. Utilizar modelos de IA que no cumplen con estos requisitos puede exponer a la empresa a sanciones severas. La elección de un modelo debe incluir una evaluación exhaustiva de su cumplimiento normativo.
  • Ventaja Competitiva a Largo Plazo: Las empresas que prioricen la seguridad y confiabilidad de sus sistemas de IA no solo mitigarán riesgos, sino que también construirán una ventaja competitiva a largo plazo. La confianza del cliente es un activo invaluable, y las empresas que puedan demostrar un compromiso con la seguridad de la IA estarán mejor posicionadas para ganarse y mantener esa confianza.
  • Innovación Responsable: La adopción de la IA debe ser un proceso responsable. Esto implica no solo buscar el máximo rendimiento, sino también considerar las implicaciones éticas y de seguridad. La elección de modelos como los de la familia Granite de IBM, que incorporan «guardianes» para detectar sesgos y alucinaciones, demuestra un enfoque en la innovación responsable que puede ser atractivo para clientes e inversores.
  • Costo Total de Propiedad: Si bien el costo por token puede ser un factor atractivo, es crucial considerar el costo total de propiedad (TCO) de una solución de IA. Esto incluye no solo el costo inicial del modelo, sino también los costos asociados con la implementación de medidas de seguridad, el monitoreo continuo, las auditorías y la posible remediación de incidentes. Un modelo más económico inicialmente podría resultar más costoso a largo plazo si carece de la seguridad y confiabilidad necesarias.

En resumen, la seguridad en la IA no es un lujo, sino una necesidad. Las empresas deben adoptar un enfoque holístico que considere no solo el rendimiento y el costo, sino también la seguridad, la confiabilidad y el cumplimiento normativo al elegir e implementar modelos de IA. Ignorar estos aspectos puede tener consecuencias devastadoras, mientras que priorizarlos puede generar una ventaja competitiva sostenible y una mayor confianza del cliente.

Compartir este artículo
Exit mobile version