El desafío de construir una Inteligencia Artificial fiable y ética
La inteligencia artificial (IA) se perfila como una de las transformaciones más significativas del presente siglo, con una presencia creciente en ámbitos como la industria, el sector automotriz, la sanidad y el marketing. No obstante, su evolución futura depende críticamente de que logre ser fiable, transparente, explicable y operar dentro de marcos éticos.
Para que esta disciplina, dotada de un enorme potencial, continúe progresando en beneficio de la calidad de vida ciudadana y la protección de los derechos fundamentales y la privacidad individual, es fundamental priorizar un enfoque antropocéntrico, sin descuidar la regulación y las consideraciones éticas.
Estas perspectivas fueron compartidas por Francisco Damián Lara, profesor titular de Filosofía especializado en ética tecnológica, y Francisco Herrera, catedrático de Ciencias de la Computación e Inteligencia Artificial.
Herrera, reconocido como uno de los científicos españoles de mayor influencia global en informática e ingeniería, detalló que una IA ‘fiable’ requiere sustentarse en tres fundamentos esenciales: el desarrollo de sistemas acordes a la legislación vigente, el cumplimiento de principios éticos y un funcionamiento robusto que incluya salvaguardas frente a posibles efectos negativos.
Cuarta revolución
A estos tres pilares se añaden siete requisitos adicionales exigidos a los sistemas inteligentes: supervisión humana, solidez técnica, gestión de la privacidad de los datos, transparencia operativa, diversidad y equidad, contribución al bienestar social y ambiental, y mecanismos de rendición de cuentas.
«Junto a esos siete requisitos y los tres pilares, que variarán según el contexto, el gran desafío de la IA es la transparencia. Es crucial que los usuarios comprendan el proceso de toma de decisiones para que puedan entenderla y depositar su confianza en ella», indicó Herrera. Él aboga por avanzar en esta dirección de fiabilidad en un campo con un vasto potencial aún por explorar, donde «apenas estamos vislumbrando la superficie».
En línea similar, Lara señala que los especialistas en ética se sienten «desbordados» ante la magnitud de lo que se avecina: «La humanidad nunca ha encarado retos tecnológicos de esta envergadura; se trata de una cuarta revolución industrial que impacta en nuestros valores fundamentales», afirmó.
«¿Hasta qué nivel la inteligencia artificial podría generar discriminaciones por motivos técnicos? Si se entrena un sistema con datos históricos que ya contienen sesgos, ¿terminará replicándolos?», cuestionó el experto, defendiendo la necesidad de diseñar sistemas de IA que no comprometan principios como la igualdad.
Una regulación necesaria
Ejemplos como los sistemas de vigilancia con reconocimiento facial mediante IA en China, o su sistema de crédito social para evaluar la fiabilidad ciudadana, demuestran cómo la tecnología puede ser utilizada para coartar a los individuos o limitar sus libertades.
Existen también formas de manipulación más sutiles, como las que buscan influir en comportamientos específicos, utilizar las redes sociales para orientar el voto o incrementar la dependencia digital de la población, según explicó Lara, quien subraya que esta realidad pone en jaque «numerosos valores esenciales».
«Hay dilemas éticos a largo plazo, como la cuestión de hasta qué punto la inteligencia artificial podría transformar la propia naturaleza humana», concluyó respecto al desafío inherente a la IA.
En este escenario, tanto China como Estados Unidos están observando atentamente a Europa, según Herrera, en la búsqueda de un modelo regulatorio para la IA que integre principios éticos en su implementación.
«En Europa, probablemente hay una defensa más sólida de la democracia y el Estado de Derecho; se prioriza la no discriminación y la solidaridad entre los ciudadanos».
Una Agencia Española de Supervisión
«Poseemos unos principios de respeto a la persona que nos guiarán hacia una regulación», detalló el catedrático, miembro del Consejo Asesor de Inteligencia Artificial de España y concejal de Ciencia e Innovación en Granada.
Herrera recordó que, en este contexto, el Gobierno español acordó con la Unión Europea actuar como país piloto en esta materia. España ya cuenta con una Secretaría de Estado dedicada a la IA y planea establecer la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), para la cual Granada ha presentado su candidatura como sede.
De este modo, España se posicionará como el primer país de la UE en contar con una agencia estatal de supervisión, adelantándose a la aplicación del futuro Reglamento Europeo de Inteligencia Artificial.
«No hablamos de una inteligencia artificial que reemplace al ser humano, sino que colabore con él. Y para generar confianza, debe ofrecer garantías éticas y técnicas», recalcó Herrera. Lara coincidió en que la confianza es el elemento clave, el «aglutinante» social en todos los ámbitos.
«El desafío de la inteligencia artificial es, fundamentalmente, un desafío de confianza. Es vital tomarse en serio la explicación de cómo aprende una máquina, asegurar su transparencia, determinar su autonomía y establecer cómo se respondería ante un posible daño, quién asume la responsabilidad», apuntó el experto en ética tecnológica, concluyendo que investigar y alcanzar conclusiones sobre estos temas es «urgente».
Insights de Evox News: Cómo la necesidad de una IA fiable puede impactar tu negocio
La creciente demanda de una Inteligencia Artificial (IA) que sea fiable, ética y transparente no es solo un debate académico o regulatorio, sino un factor estratégico con implicaciones directas para las empresas.
Impacto Económico: Desarrollar e implementar sistemas de IA que cumplan con los estándares de fiabilidad y ética requiere inversión en talento especializado, procesos de validación rigurosos y posible rediseño de sistemas existentes. Sin embargo, esta inversión puede mitigar riesgos económicos significativos a largo plazo, como multas por incumplimiento normativo, pérdida de clientes por fallos o sesgos de la IA, y daños reputacionales. A su vez, la IA fiable puede optimizar operaciones y reducir costes en diversas áreas.
Ventaja Competitiva: Las empresas que adopten proactivamente marcos de IA ética y transparente pueden diferenciarse en el mercado. La confianza del cliente es un activo cada vez más valioso; demostrar un uso responsable de la IA puede fortalecer la lealtad de marca y atraer a consumidores y socios comerciales que priorizan la ética. Ser pionero en la implementación de IA fiable puede posicionar a la empresa como líder en su sector.
* Innovación y Desarrollo: El requisito de transparencia y explicabilidad (XAI – Explainable AI) está impulsando la innovación dentro del propio campo de la IA. Las empresas que inviertan en estas áreas no solo cumplirán con futuras regulaciones, sino que también desarrollarán capacidades tecnológicas más avanzadas. Además, un enfoque ético desde el diseño puede abrir nuevas oportunidades de negocio al crear soluciones de IA que aborden necesidades sociales genuinas y generen un impacto positivo, mejorando la percepción pública de la empresa. La regulación, lejos de ser solo una barrera, puede actuar como un catalizador para la innovación responsable