La Inteligencia Artificial DeepSeek frente al RGPD

El nuevo sistema de Inteligencia Artificial DeepSeek ha sido tendencia las últimas semanas por tener un rendimiento superior a los modelos de inteligencia artificial actuales y provenir de China.

Sin embargo, ha creado mucha controversia y actualmente se encuentra sometido a inspecciones sobre la privacidad de los usuarios que utilizan el chatbot. La Comisión de Protección de Datos de Irlanda, destinada a garantizar el cumplimiento RGPD ha solicitado información sobre como procesa los datos de los usuarios.

El organismo de Italia equivalente ha tomado una decisión similar. Con ello se pretende saber la finalidad de los datos recopilados y almacenados en servidores de China.

¿Cómo trata DeepSeek los datos de los usuarios?

En las políticas de privacidad de la plataforma DeepSeek indica que los datos de todos los usuarios incluidos los europeos, se tratan y almacenan en China. También da cuenta de una enorme recopilación de datos, que incluye desde patrones de pulsación hasta las conversaciones.

El organismo regulador Italiano Garante solicita saber que tipo de información utiliza DeepSeek para entrenar sus modelos de lenguaje, enfocándose en la técnica de web scraping (sacar información de páginas web) y determinar si se ha informado a los usuarios registrados y los no registrados sobre el tratamiento de los datos personales.

La compañía permite utilizar sus modelos de forma local y completamente gratuita, abriendo la puerta a acceder a esta tecnología sin usar internet.

Fuente: Xataka

Inteligencia artificial en el marco regulatorio RGPD

Es esencial que los marcos regulatorios no solo protejan la privacidad de los usuarios, sino que también fomenten el desarrollo ético y responsable de las tecnologías. DeepSeek, al igual que otros actores de la industria, enfrenta la necesidad de alinearse con el Reglamento General de Protección de Datos (RGPD) de la Unión Europea, que establece pautas claras sobre el procesamiento y almacenamiento de datos personales.

De cara al futuro, las respuestas de la empresa a los requerimientos de los reguladores europeos podrían sentar un precedente para el resto de las compañías de IA que operan a nivel global, en cuanto a cómo manejar las implicaciones legales y éticas relacionadas con la protección de datos.

La privacidad en el tratamiento de datos es esencial para asegurar la confianza depositada por los usuarios así como evitar vulneraciones o filtraciones de información sensible. Mientras que estas plataformas de Inteligencia Artificial son un elemento de uso común, en la mayoría de casos ponen trabas al dar explicaciones de cómo entrenan sus modelos y que información de los usuarios utilizan o con qué fines.