IA: ¿Seguridad, Eficacia y Ética? Lo que Debes Saber

Por
7 min de lectura

La Inteligencia Artificial debe ser Ética, Eficaz y Proteger los Datos Adecuadamente

La Inteligencia Artificial (IA) debe ser ética, eficaz, cumplir con su propósito, almacenar los datos de forma segura y fomentar la seguridad y privacidad en su uso.

Así lo afirmó el vicerrector de Proyectos Internacionales de la Universidad Internacional de La Rioja (UNIR), Daniel Burgos, quien enfatizó que «la IA tiene que estar al servicio de la sociedad y la comunidad educativa». Su utilidad debe regirse por el principio de contribución social, de lo contrario, «su valor es limitado».

Burgos, también catedrático de Informática, señaló que la personalización del aprendizaje, un ejemplo de aplicación de la IA, promueve la inclusión.

«Dado que todos aprendemos de manera diferente, la capacidad de la IA para mejorar los resultados del aprendizaje de forma sencilla, ya sea para un individuo o un grupo, representa un avance significativo que ya estamos observando y que se expandirá en el futuro», afirmó.

Estos conceptos forman parte de la declaración de UNIR para un uso ético de la IA en la educación superior, un decálogo presentado por el rector, José María Vázquez, y el propio Burgos.

El vicerrector subrayó la necesidad de alinear los intereses de los proyectos científicos y los desarrollos técnicos en IA con los de la sociedad en general y los sectores específicos donde se implementa, un aspecto clave del primer punto del decálogo.

El rector de UNIR José María Vázquez (d) y el vicerrector de Proyectos Internacionales de UNIR, Daniel Burgos(i) en la presentación de la ‘Declaración UNIR para un uso ético de la Inteligencia Artificial en Educación Superior’.

Trazabilidad y Ausencia de Sesgos: Pilares Fundamentales

La IA debe estar libre de sesgos por «raza, religión u otros motivos», y ser trazable, permitiendo identificar la fuente original de los contenidos generados para prevenir el plagio, detalló Burgos.

Asimismo, debe regirse por el principio de equidad, evitando cualquier tipo de discriminación hacia usuarios o público objetivo.

El decálogo establece que «todo sistema de IA generativa desarrollado o utilizado por Proeduca (grupo al que pertenece UNIR) indicará claramente su origen artificial y su trazabilidad asociada de manera inequívoca, ya sean imágenes, vídeos o textos».

También se promueve la capacitación en el uso de sistemas de IA para empleados, estudiantes, profesores y otros profesionales, fomentando prácticas responsables en el uso, distribución, divulgación y producción de tecnologías y servicios basados en IA.

Burgos explicó que este decálogo refleja el «firme compromiso» de UNIR para que la IA sea una herramienta de apoyo, que mejore y guíe la acción de todos los miembros de UNIR y las entidades y universidades del Grupo Proeduca.

La IA: Un Desafío Estratégico para UNIR

El rector de UNIR, José María Vázquez, afirmó que el uso responsable de la IA es un desafío para la universidad, y su aplicación al aprendizaje y la investigación es una preocupación central para las instituciones de educación superior y los centros de investigación.

Vázquez resaltó la preocupación existente en el ámbito universitario sobre el alcance de la IA y anunció que la Conferencia de Rectores tiene programada una reunión a mediados de marzo en Santiago de Compostela para abordar, entre otros temas, esta cuestión.

Desde UNIR, se considera que es responsabilidad (y voluntad) de cada institución, grupo de interés, colectivo e individuo definir el marco de influencia de las tecnologías de IA en su ámbito específico y, si lo desea, auditar su aplicación y cumplimiento.

Este marco puede adoptar la forma de un código de conducta, un decálogo de directrices o un manifiesto. Proeduca, como grupo centrado en el estudiante, ha optado por este último formato, concebido como un manual principalmente para las siete universidades del grupo, así como para sus entidades y empresas.

Insights de Evox News: Cómo la Declaración de UNIR sobre la IA puede Impactar tu Negocio

La declaración de UNIR sobre el uso ético de la Inteligencia Artificial presenta varias implicaciones clave para las empresas, independientemente de su sector:

  1. Ventaja Competitiva a través de la Ética: Adoptar principios similares a los de UNIR, como la transparencia, la trazabilidad y la ausencia de sesgos en la IA, puede diferenciar a una empresa en el mercado. Los consumidores y clientes valoran cada vez más la ética y la responsabilidad en la tecnología, lo que puede traducirse en una mayor confianza y lealtad hacia la marca.
  1. Innovación Responsable: El enfoque en la capacitación y el uso responsable de la IA fomenta una cultura de innovación responsable dentro de la empresa. Esto no solo minimiza los riesgos asociados con el mal uso de la IA, sino que también puede impulsar el desarrollo de soluciones más creativas y efectivas que aborden las necesidades reales de los usuarios.
  1. Eficiencia y Personalización: El énfasis en la eficacia y la personalización a través de la IA, como se destaca en el ejemplo del aprendizaje personalizado, puede aplicarse a diversos ámbitos empresariales. Las empresas pueden utilizar la IA para optimizar procesos, mejorar la atención al cliente y ofrecer productos y servicios más adaptados a las necesidades individuales, aumentando la satisfacción y la fidelización.
  1. Cumplimiento Normativo y Reputación: Anticiparse a las regulaciones sobre IA, adoptando un marco ético sólido, prepara a las empresas para futuros requisitos legales y reduce el riesgo de sanciones. Además, una postura proactiva en la ética de la IA fortalece la reputación de la empresa, atrayendo talento y generando confianza entre inversores y stakeholders.
  1. Colaboración y Ecosistema. El llamado que hace UNIR a sus universidades, entidades y empresas a adoptar este decálogo, implica la creación de un ecosistema empresarial que se rige bajo los mismos principios. Esto puede generar lazos de valor entre las empresas, aumentando la innovación, la competitividad y la reputación del grupo.
Compartir este artículo
Exit mobile version