Un grupo europeo de defensa de la protección de datos, noyb, ha presentado una queja contra OpenAI debido a la incapacidad de la empresa para corregir información inexacta generada por ChatGPT. Según el grupo, el fallo de OpenAI para asegurar la precisión de los datos personales procesados por el servicio viola el Reglamento General de Protección de Datos (GDPR) de la Unión Europea.

“Crear información falsa es problemático de por sí. Pero cuando se trata de información falsa sobre individuos, las consecuencias pueden ser graves,” dijo Maartje de Graaf, abogada de Protección de Datos en noyb.

“Está claro que las empresas actualmente no pueden hacer que chatbots como ChatGPT cumplan con la ley de la UE cuando procesan datos sobre individuos. Si un sistema no puede producir resultados precisos y transparentes, no se puede utilizar para generar datos sobre personas. La tecnología debe seguir los requisitos legales, y no al revés,” agregó de Graaf.

El GDPR exige que los datos personales sean precisos y los individuos tienen derecho a la rectificación si los datos son inexactos, además del derecho a acceder a información sobre los datos procesados y sus fuentes. Sin embargo, OpenAI ha admitido abiertamente que no puede corregir la información incorrecta generada por ChatGPT ni divulgar las fuentes de los datos utilizados para entrenar el modelo.

“La exactitud factual en los modelos de lenguaje de gran escala sigue siendo un área de investigación activa,” argumentó OpenAI.

El grupo de defensa destaca un informe del New York Times que encontró que los chatbots como ChatGPT «inventan información al menos el 3 por ciento de las veces – y hasta el 27 por ciento.” En la queja contra OpenAI, noyb cita un ejemplo donde ChatGPT proporcionó repetidamente una fecha de nacimiento incorrecta para el demandante, una figura pública, a pesar de las solicitudes de rectificación.

“A pesar de que la fecha de nacimiento proporcionada por ChatGPT es incorrecta, OpenAI rechazó su solicitud de rectificar o borrar los datos, argumentando que no era posible corregir los datos,” afirmó noyb.

OpenAI afirmó que podría filtrar o bloquear datos sobre ciertos indicativos, como el nombre del demandante, pero no sin impedir que ChatGPT filtre toda la información sobre el individuo. La compañía también falló en responder adecuadamente a la solicitud de acceso del demandante, lo cual el GDPR exige que las empresas cumplan.

“La obligación de cumplir con las solicitudes de acceso se aplica a todas las empresas. Es claramente posible mantener registros de los datos de entrenamiento que se utilizaron para tener al menos una idea sobre las fuentes de información,” dijo de Graaf. “Parece que con cada ‘innovación,’ otro grupo de empresas piensa que sus productos no tienen que cumplir con la ley.”

Los reguladores de privacidad europeos ya han escrutado las inexactitudes de ChatGPT, con la Autoridad de Protección de Datos de Italia imponiendo una restricción temporal sobre el procesamiento de datos de OpenAI en marzo de 2023 y el Consejo Europeo de Protección de Datos estableciendo un grupo de trabajo sobre ChatGPT.

En su queja, noyb solicita a la Autoridad Austriaca de Protección de Datos que investigue el procesamiento de datos de OpenAI y las medidas para asegurar la precisión de los datos personales procesados por sus modelos de lenguaje de gran escala. El grupo de defensa también pide que la autoridad ordene a OpenAI cumplir con la solicitud de acceso del demandante, alinear su procesamiento con el GDPR, e imponer una multa para garantizar el cumplimiento futuro.