ChatGPT, Nuevamente Bajo la Lupa por Resultados Inexactos: Acusaciones de Difamación
El conocido chatbot de OpenAI, ChatGPT, enfrenta una nueva controversia por generar información incorrecta. En esta ocasión, se le acusa de difamar a un padre de familia al atribuirle falsamente el asesinato de sus hijos.
La organización austriaca sin fines de lucro, «None Of Your Business» (Noyb), especializada en la defensa de la privacidad, ha presentado una queja formal ante la autoridad de protección de datos de Noruega. La denuncia alega que OpenAI permitió conscientemente que ChatGPT produjera resultados difamatorios, violando así el principio de exactitud de los datos establecido en el Reglamento General de Protección de Datos (RGPD) de la Unión Europea.
Arve Hjalmar Holmen, el afectado, buscó información sobre sí mismo en ChatGPT y se sorprendió al encontrar una biografía que, si bien incluía detalles reales de su vida personal, como el número y género de sus hijos y su ciudad natal, también lo presentaba como un criminal convicto que había asesinado a dos de sus hijos e intentado asesinar al tercero, añadiendo una supuesta condena de 21 años de prisión.
«La idea de que alguien pueda leer esto y creerlo es lo que más me asusta», declaró Holmen.
No es la primera vez que Noyb presenta una queja contra OpenAI por «alucinaciones» de su chatbot. El año pasado, solicitó la corrección o eliminación de la fecha de nacimiento incorrecta de una figura pública. Sin embargo, según Kleanthi Sardeli, abogada de protección de datos de Noyb, la compañía argumentó que no podía corregir los datos, solo bloquearlos, lo que implicaba que la información falsa seguía presente en el sistema.
«Añadir una advertencia de que no se cumple con la ley no hace que la ley desaparezca. Las empresas de IA tampoco pueden simplemente ‘ocultar’ la información falsa a los usuarios mientras internamente siguen procesando información falsa», afirmó Sardeli.
«Las empresas de IA deberían dejar de actuar como si el RGPD no se aplicara a ellas, cuando claramente lo hace. Si no se detienen las alucinaciones, las personas pueden sufrir fácilmente daños a su reputación».
Noyb solicita a la autoridad noruega que ordene a OpenAI eliminar la información falsa y mejorar su modelo para evitar resultados inexactos, aunque no especifica cómo. También pide que se imponga una multa a OpenAI.
Las «alucinaciones» son un problema recurrente en la IA generativa, y este no es el primer caso en el que se alega difamación. Por ejemplo, el periodista alemán Martin Bernklau descubrió a principios de este año que Microsoft Copilot lo describía como un abusador de menores, traficante de drogas y fugitivo de una institución psiquiátrica, aparentemente basándose en noticias que él mismo había escrito.
Asimismo, el alcalde regional australiano Brian Hood fue supuestamente asociado erróneamente con un escándalo de soborno por ChatGPT, y el residente de Georgia, Mark Walters, ha afirmado que ChatGPT declaró falsamente que había sido acusado de malversar fondos de un grupo de defensa de los derechos de armas.
«El RGPD es claro. Los datos personales deben ser exactos. Y si no lo son, los usuarios tienen derecho a que se modifiquen para reflejar la verdad», señaló Joakim Söderberg, abogado de protección de datos de Noyb.
«Mostrar a los usuarios de ChatGPT una pequeña advertencia de que el chatbot puede cometer errores claramente no es suficiente. No se puede simplemente difundir información falsa y al final añadir una pequeña advertencia diciendo que todo lo que se dijo puede no ser cierto».
OpenAI afirma que está haciendo todo lo posible a través de sistemas de seguridad, políticas de uso y filtros, y que está mejorando la forma en que sus modelos responden a las consultas sobre personas reales y conocidas.
“Continuamos investigando nuevas formas de mejorar la precisión de nuestros modelos y reducir las alucinaciones”, dijo un portavoz, y agregó: “Si bien todavía estamos revisando esta queja, se relaciona con una versión de ChatGPT que desde entonces se ha mejorado con capacidades de búsqueda en línea que mejoran la precisión”.
Insights de Evox News: Cómo esta Noticia Puede Impactar tu Negocio
Esta noticia subraya varios riesgos y oportunidades clave para las empresas en la era de la IA generativa:
Riesgos Reputacionales y Legales
La capacidad de las herramientas de IA para generar información falsa y potencialmente difamatoria presenta un riesgo significativo para las empresas. No solo las empresas que desarrollan estas tecnologías, como OpenAI, están expuestas, sino también aquellas que las utilizan. La difusión de información inexacta a través de chatbots o herramientas de IA integradas en los servicios de una empresa podría derivar en demandas por difamación, daños a la reputación y sanciones regulatorias. Es crucial que las empresas implementen mecanismos de verificación y supervisión rigurosos, que elijan proveedores de IA que cumplan con las normativas de privacidad y exactitud de datos (como el RGPD), y que se establezcan políticas claras sobre el uso de IA generativa.
Ventaja Competitiva a través de la Transparencia y la Precisión
Las empresas que puedan demostrar un compromiso con la precisión y la transparencia en el uso de la IA generativa pueden obtener una ventaja competitiva. Los consumidores y clientes valoran cada vez más la confiabilidad y la ética en la tecnología. Comunicar de forma proactiva las medidas que se toman para garantizar la exactitud de la información generada por IA, y ofrecer mecanismos claros para corregir errores, puede construir confianza y lealtad. Las empresas pueden diferenciarse destacando su enfoque responsable en el uso de la IA.
Innovación en la Verificación y el Control de la IA
Esta noticia también resalta la necesidad de innovación en el campo de la verificación y el control de la IA. Las empresas que desarrollen herramientas y procesos para detectar y corregir «alucinaciones» de la IA, o para mejorar la precisión de los modelos de lenguaje, estarán en una posición privilegiada. Esto podría incluir el desarrollo de sistemas de «verificación de hechos» automatizados, la implementación de técnicas de «aprendizaje supervisado» más robustas, o la creación de interfaces que permitan a los usuarios señalar y corregir fácilmente la información incorrecta. La inversión en esta área puede generar nuevas oportunidades de negocio y mejorar la calidad de los servicios basados en IA.