Hay que cumplir la ley de IA al usar ChatGPT?

Cumplir con la ley de IA Europea es esencial al tratar con datos personales, al automatizar decisiones o cuando se ven los derechos afectados. En este artículo vamos a tratar algunos puntos clave a tener en cuenta a la hora de utilizar ChatGPT en conjunto con las herramientas de la empresa.

La ley de IA tiene en consideración los sistemas que procesan o generan contenido cómo potencialmente de alto riesgo, ya sea para fines comerciales, de vigilancia o si afectan a derechos fundamentales. Es por ello que se debe cumplir la ley cuando se utilice ChatGPT para generar contenidos que incluyan imágenes o vídeos.

¿Qué medidas debo aplicar si la uso ChatGPT para la toma de decisiones automatizadas en finanzas?

Estos sistemas suelen ser considerados de alto riesgo por influir en derechos y oportunidades financieras de personas. En este caso la ley obliga a realizar una evaluación de impacto, asegurando la supervisión humana.

¿Es necesaria una evaluación de impacto al usar ChatGPT?

En los sistemas de alto riesgo como los sistemas de salud o seguridad se debe realizar una evaluación de impacto ya que manejan datos sensibles y pueden afectar la vida y bienestar de las personas. Además hay que implementar medidas de mitigación para reducir o eliminar riesgos, así como estar bajo una supervisión continua.

Cuando tratamos de personalizar campañas de marketing con Inteligencia Artificial también es esencial cumplir con la ley de IA garantizando la transparencia, así como informando a los usuarios sobre el uso de la inteligencia artificial.

Del mismo modo en el caso de que utilice ChatGPT para monitorizar las redes sociales, aún siendo considerado de bajo riesgo, hay que tener en cuenta que se debe garantizar la transparencia sobre el uso de IA sobre lo usuarios a los que repercuta, así como proteger su privacidad.

¿ChatGPT está considerado “IA de alto riesgo” bajo la Ley de IA?

Depende del uso específico:

Si se usa ChatGPT como un sistema de asistencia general para tareas comunes (redacción, codificación, aprendizaje), no es de alto riesgo.

Pero si se integra en aplicaciones como procesos de contratación laboral, diagnóstico médico, o decisiones legales automatizadas, podría considerarse de alto riesgo y requerir obligaciones adicionales de cumplimiento, evaluación de riesgos y supervisión humana.

¿Qué datos se pueden compartir con ChatGPT? ¿Qué dice el RGPD?

El Reglamento General de Protección de Datos (RGPD) sigue aplicándose plenamente:

Evita introducir datos personales personales (nombres, direcciones, información de salud, etc.), especialmente si no tienes el consentimiento explícito del titular.

Si eres una empresa que usa ChatGPT con fines comerciales, debes garantizar medidas técnicas y contractuales para proteger los datos introducidos.

En Forlopd ayudamos a empresas y profesionales a adaptar sus procesos para que cumplan con las exigencias y normativas relacionadas con la privacidad de la información. Puedes solicitarnos un análisis de cumplimiento a través de nuestro formulario.