Empresas e IA: ¿Límites necesarios o mordaza a la innovación?

Empresas e IA: ¿Límites necesarios o mordaza a la innovación?

Evox News
Por
10 min de lectura

¿Deben las Empresas Autolimitarse en el Uso de la Inteligencia Artificial?

La Unión Europea se encuentra en proceso de elaboración de la primera ley integral destinada a regular la inteligencia artificial. A nivel global, las diversas normativas de protección de datos personales ya contemplan el uso masivo de información y establecen directrices para su reglamentación, mientras que los códigos penales definen los límites legales y las sanciones correspondientes. Sin embargo, surge la interrogante: más allá del ámbito político y judicial, ¿es viable y necesario que las empresas se autorregulen e impongan límites en la aplicación de la IA?

Expertos en la materia sostienen que la inteligencia artificial se ha convertido en una tecnología indispensable y de avance irrefrenable. De hecho, gran parte de los desafíos futuros, como la optimización de la atención médica con tratamientos más personalizados, la transición hacia una energía más económica y limpia, o la consecución de un transporte y una movilidad más sostenibles, dependen en gran medida de esta tecnología.

La IA posee la capacidad de perfeccionar la navegación, la geolocalización y hasta de generar un «gemelo digital» de un paciente para simular el tratamiento óptimo. No obstante, también puede imitar la voz de un actor en cualquier idioma, «apropiarse» de su voz o manipular imágenes hasta el punto de hacer indistinguible una imagen real de una artificial.

Límites Autoimpuestos

En este contexto, algunas compañías han comenzado a elaborar sus propias guías internas y a establecer límites para que sus empleados estén al tanto del desarrollo de la inteligencia artificial, su implementación, sus posibilidades y restricciones de uso. Conceptos como ética, autorregulación y responsabilidad se asocian cada vez más a esta tecnología.

INTELIGENCIA ARTIFICIAL EMPRESAS

Un caso ilustrativo es el de la multinacional alemana SAP, especializada en el diseño de productos informáticos para la gestión empresarial. Esta empresa ha desarrollado un «manual» para todos sus trabajadores con el fin de garantizar el uso ético de la inteligencia artificial, reconociendo que esta tecnología puede abrir un abanico de posibilidades «ilimitadas» para empresas y gobiernos, pero también plantear desafíos económicos, políticos y sociales según su implementación.

Incluso, al consultar a un sistema de IA generativa (ChatGPT de OpenAI) sobre la misma cuestión, la respuesta fue: «Muchas empresas reconocen la importancia de establecer límites éticos en el uso de la IA. Esto incluye evitar aplicaciones que puedan causar daño a las personas, discriminación injusta, invasión de la privacidad o cualquier otra consecuencia negativa. Las empresas deben asumir la responsabilidad de cómo se utiliza su tecnología de IA».

La Democratización de la IA

«Para que la gente confíe en las soluciones de IA, el desarrollo, el uso y la venta de esos sistemas debe regirse por normas morales claras», declaró a Evox News Jesús Martínez, director de Soluciones e Innovación de SAP en España. Martínez señaló que el rápido crecimiento de la IA «generativa» ha elevado aún más los estándares éticos exigibles.

Esta empresa tecnológica, que forma parte del grupo de expertos de alto nivel de la Comisión Europea sobre IA, ha publicado sus «principios rectores de ética» en este campo. Martínez enfatizó que la IA es una tecnología imprescindible, pero también subrayó la importancia de que su desarrollo se base en normas fundamentadas en valores compartidos.

Jesús Martínez comparó el impacto de la Inteligencia Artificial «generativa» con el de la imprenta, que antes de su invención, limitaba la lectura a unos pocos privilegiados. Aseguró que, hasta ahora, la nueva tecnología estaba en manos de ingenieros altamente cualificados, pero esa brecha tecnológica se ha reducido y el acceso a la IA se ha «democratizado».

INTELIGENCIA ARTIFICIAL EMPRESAS

En su opinión, la clave reside en supervisar todo el proceso de desarrollo e integrar la supervisión humana en todas las etapas. «Ante la duda de que un desarrollo de IA pueda tener algún efecto negativo para el ser humano es necesario introducir los cambios para evitarlo, y cuando no sea posible, abandonar su desarrollo».

Una Tecnología Imparable

Desde hace más de una década, se celebra en España el congreso RootedCON, un evento especializado en ciberseguridad que congrega a miles de personas, incluyendo a responsables de seguridad informática de empresas, instituciones públicas y cuerpos de seguridad del Estado. En las últimas ediciones, el congreso ha puesto el foco en la inteligencia artificial.

Román Ramírez, cofundador del congreso, afirmó que es «cuestión de tiempo» que los contenidos «sintéticos» generados por la IA sean indistinguibles de los reales. Respecto a la posibilidad de que las empresas establezcan límites, observó que «el problema de fondo es encontrar cuáles son los criterios para esa autorregulación».

«Si mi robot de IA puede operar en bolsa en todos los mercados a la vez, en tiempo real, a corto y ganando márgenes del 6.000 por ciento, ¿debo limitarlo para no alterar el mercado de valores? ¿Por qué debería hacerlo si he visto una oportunidad y he sido más hábil que otros? ¿Lo van a hacer las agencias de inteligencia? ¿Países que puedan querer aplicar sus criterios hegemónicos?», se preguntó, concluyendo que «realmente esto es imparable».

Proyectos de Código Abierto

En declaraciones a Evox News, Román Ramírez aseguró que el principal problema no reside en lo que se percibe oficialmente, sino en los proyectos de «código abierto» (open source), que considera «totalmente incontrolables». Estos proyectos no están bajo el control de los gigantes tecnológicos u otras organizaciones, y citó como ejemplo a «Hugging Face», una empresa de tecnología estadounidense especializada en el desarrollo de herramientas para el procesamiento del lenguaje natural basadas en la IA.

La supervisión humana o la implementación de filtros más rigurosos solo son viables en los procesos de fabricación «controlables» o en las grandes empresas, sostiene el responsable de RootedCON. Además, señaló la existencia de diversos marcos reguladores y restricciones «éticas y morales» en el mundo.

Entonces, ¿cómo garantizar que las empresas utilicen la IA de manera correcta? «Hay que ser muy claros y directos con dónde se usa y para qué, con la posibilidad de que los clientes puedan auditar las decisiones tomadas por los algoritmos, e incluso con la capacidad de oponerse a ellas y desactivar esas mejoras si no las quieren», respondió.

Insights de Evox News: Cómo la Autorregulación de la IA Puede Impactar tu Negocio

La discusión sobre la autorregulación de la Inteligencia Artificial en las empresas plantea implicaciones cruciales para el entorno empresarial actual y futuro:

Ventaja Competitiva Ética: Las empresas que adopten proactivamente principios éticos en el desarrollo y uso de la IA pueden obtener una ventaja competitiva. La transparencia y la responsabilidad en el manejo de la IA pueden generar mayor confianza entre los consumidores y socios comerciales, diferenciando a la empresa en un mercado cada vez más consciente de la ética.

Innovación Responsable: La autorregulación no implica necesariamente un freno a la innovación. Por el contrario, puede fomentar una innovación más responsable y sostenible, orientada a resolver problemas reales y evitar consecuencias negativas no deseadas. Esto puede traducirse en soluciones más robustas y aceptadas a largo plazo.

Mitigación de Riesgos: Establecer límites internos claros en el uso de la IA puede ayudar a las empresas a mitigar riesgos legales, reputacionales y financieros. Anticiparse a posibles problemas derivados del uso indebido de la IA puede evitar costosas sanciones, daños a la imagen de la marca y pérdida de confianza de los inversores.

Atracción y Retención de Talento: Las empresas con una sólida ética en IA pueden atraer y retener a profesionales talentosos que buscan trabajar en entornos con valores alineados a los suyos. Esto es especialmente relevante en el campo de la tecnología, donde la demanda de expertos en IA es alta.

* Adaptación Proactiva a la Regulación: La autorregulación puede preparar a las empresas para futuras regulaciones gubernamentales sobre la IA. Al implementar prácticas éticas desde el principio, las empresas pueden adaptarse más fácilmente a los cambios normativos y evitar interrupciones en sus operaciones

Compartir este artículo