100.000 conversaciones de ChatGPT fueron filtradas en Agosto
A menudo depositamos nuestra confianza en plataformas como ChatGPT con tal de aportar nuestra información personal para optimizar diversos ámbitos, o incluso solicitar consejo. Y quizá no somos conscientes de la vulneración de la privacidad a la que podemos vernos expuestos.
En esta ocasión, el pasado mes de Agosto, se filtraron 100.000 conversaciones de usuarios con ChatGPT. El fallo de seguridad vino por el botón de compartir en Chat GPT, donde hasta hace unas semanas cualquier usuario podía crear un enlace para compartir la conversación. Y por su estructura, eran indexables en Google.
El alcance del fallo de seguridad supuso una filtración en Google de conversaciones con información sensible, a través de las que algunos curiosos e investigadores empezaron a recopilar información de los chats.
OpenAI tras ser conocedor de este fallo de seguridad, eliminó la función de compartir además solicitar la desindexación de las conversaciones del buscador.
Las conversaciones filtradas ponen de manifiesto que tipo de información confían los usuarios a la inteligencia artificial, desde consultas emocionales, a contratos, copias de supuestos acuerdos de confidencialidad de OpenAI y otras empresas, así como las peticiones más frecuentes como redacciones seo o publicaciones en las redes sociales.
¿Cómo afecta esta filtración a la privacidad de los usuarios en OpenAI?
Muchos de los usuarios no comprendieron que al seleccionar compartir conversación, era un enlace sin restricciones. Este tipo de sucesos pone en valor la sensibilidad de los datos que compartimos con este tipo de plataformas y la falta de protección que existe en algunos casos.
Cabe recordar que la política de privacidad de OpenAI, tampoco aplica para muchos usos que se le da a su sistema de inteligencia artificial, como el supuesto de confidencialidad médico paciente, o abogado cliente. Si se diese el caso, nuestras conversaciones podrían ser requeridas por las autoridades competentes si fuera necesario, y OpenAI las tendría que ceder.
Recomendaciones de seguridad al usar ChatGPT
Con tal de reducir los riesgos al interactuar con IA es recomendable no compartir datos personales o sensibles, así como leer la política de privacidad. También otra de las prácticas frecuentes a evitar es subir documentación con información privada que en caso de que un tercero pueda acceder a ella nos pueda causar problemas. Siendo consciente de la posible cesión de datos si fuera solicitado a OpenAI.
¿Qué tipo de información nunca debería compartirse en ChatGPT?
Nunca es recomendable introducir datos financieros, contraseñas, información médica, documentos legales o datos identificativos como DNI, dirección o número de teléfono. Compartir este tipo de información expone a riesgos de seguridad y a posibles vulneraciones de la privacidad.
¿Cómo puedo saber si una plataforma de inteligencia artificial cumple con la normativa de protección de datos?
Antes de usar una herramienta de IA conviene revisar su política de privacidad, comprobar si menciona el RGPD (en Europa) o normativas locales de protección de datos, y verificar qué tipo de datos almacena, por cuánto tiempo y con qué finalidad.
¿Qué medidas de seguridad pueden implementar las empresas que usan ChatGPT?
Las empresas deberían anonimizar los datos antes de introducirlos en la IA, limitar su uso solo a información no sensible, firmar acuerdos de confidencialidad con empleados y proveedores, y establecer protocolos de ciberseguridad que reduzcan la exposición a filtraciones.
Desde Forlopd nos interesamos por ayudar a nuestros clientes a salvaguardar la información, es por ello que asesoramos en materia de protección de datos para que adapten sus procesos a las normativas vigentes y evitar incurrir en costosas sanciones de la Agencia Española de Protección de Datos. Puedes solicitarnos más información a través de nuestro formulario de contacto.