La aplicación de escritorio de ChatGPT para Mac almacenaba las conversaciones de los usuarios sin cifrar y en una ubicación poco segura del ordenador. Esto hacía posible que cualquier persona malintencionada, a través de un virus, pudiera acceder a las interacciones de los usuarios con el chatbot.
Esta falla mundial fue revelada por el ingeniero de datos y electrónico Pedro José Pereira Vieito en Threads, quien señaló que los chats se almacenaban en la siguiente ubicación de Mac: ubicación no protegida:~/Library/Application\Soporte/ com.openai.chat/conve… {uuid}/
“Básicamente, cualquier otra aplicación, proceso o malware en ejecución puede leer todas tus conversaciones de ChatGPT sin necesidad de solicitar permiso”, explicó el ingeniero en esta red social.
Por otro lado, Pereira explicó que descubrió este error de privacidad porque le causaba curiosidad que la aplicación de ChatGPT para Mac no se encontrara en la tienda de aplicaciones para el ordenador, únicamente en la página de OpenAI.
Cuando la compañía de inteligencia artificial se enteró de la falla, actualizó la aplicación al agregar cifrado a las conversaciones.
Andreas Müller indicó que esta falla era “un problema de macOS” por que un” sistema operativo debería evitar este tipo de situaciones”. Pereira le respondió que desde macOS Mojave 10.14, los usuarios debían rechazar o aceptar explícitamente el tratamiento de datos personales en las aplicaciones.
“OpenAI decidió prescindir del sandbox y almacenar las conversaciones en texto simple en una ubicación no protegida, deshabilitando todas estas defensas integradas”, dijo.
“Sandbox” se refiere a un entorno de seguridad aislado y controlado donde las aplicaciones pueden ejecutarse de manera segura y limitada. Este entorno restringe el acceso de las aplicaciones a recursos críticos del sistema, como archivos sensibles o configuraciones del sistema operativo.
Cuando se dice que un chat no está cifrado, significa que las conversaciones enviadas y recibidas a través de esa plataforma o aplicación no están protegidas mediante un proceso de cifrado.
El cifrado es un método de seguridad que convierte los datos en un formato ilegible o encriptado mientras viajan por la red, de manera que solo el emisor y el receptor autorizados pueden entender el contenido utilizando una clave de descifrado.
Por esta razón, cualquier persona tenía la capacidad de leer las conversaciones que un usuario entabla en ChatGPT.
OpenAI, la entidad detrás de ChatGPT, emplea la información proporcionada por los usuarios para alimentar su sistema de inteligencia artificial. Según la empresa, esta estrategia contribuye a “perfeccionar el modelo”, dejando a decisión de cada usuario determinar si desea colaborar en este proceso.
“Conservamos ciertos datos de sus interacciones con nosotros, pero tomamos medidas para reducir la cantidad de información personal en nuestros conjuntos de datos de entrenamiento antes de que se utilicen para mejorar y entrenar nuestros modelos”, explica la compañía en página de políticas y privacidad, sin embargo, el texto no especifica qué información concreta guarda para su sistema.
Agregan que el contenido enviado por los usuarios no es utilizado en sus ofertas comerciales como su API, ChatGPT Team y ChatGPT Enterprise.
A través de unos simples pasos, los usuarios tienen la oportunidad de gestionar esta configuración para mantener privados sus datos.
1. Ingresar a ChatGPT con la sesión iniciada.
2. Ir a la esquina superior derecha, seleccionar la foto del usuario y dirigirse a Configuración.
3. Seleccionar ‘Controles de datos’.
4. Ir al apartado de ‘Mejora el modelo para todos’ y desactivar esta opción.
5. Pulsar ‘Listo’.
OpenAI explica que la opción ‘Mejora el modelo para todos’ permite utilizar el contenido de los usuarios para entrenar sus modelos. Sin embargo, la decisión de contribuir con datos personales para el desarrollo de la inteligencia artificial es individual y depende de la elección de cada usuario.