Sanciones disuasorias e inteligencia artificial

/ en Protección Datos

Imagen de Freepik

La regulación de la inteligencia artificial (IA) se ha convertido en uno de los mayores desafíos legislativos y tecnológicos de nuestro tiempo. En España, este debate ha llegado a un punto clave con la presentación del Anteproyecto de Ley para el buen uso y la gobernanza de la IA, que incorpora no solo obligaciones expresas para empresas y desarrolladores, sino también un régimen sancionador ambicioso para asegurar el cumplimiento de los principios éticos y de derechos fundamentales.

Las multas elevadas (que pueden alcanzar hasta 35 millones de euros o el 7 % del volumen de negocio mundial de una empresa) responden al marco establecido por el Reglamento Europeo de Inteligencia Artificial (RIA) y buscan, sobre todo, disuadir usos dañinos o ilegales de estas tecnologías.

El razonamiento detrás de sanciones tan contundentes no es solamente punitivo, sino preventivo. Los daños potenciales derivados de un uso irresponsable de la IA (como la manipulación de decisiones humanas, discriminación automatizada o la difusión de contenidos falsos sin marcar como generados por IA) pueden afectar directamente a derechos fundamentales como la privacidad, la libertad de expresión o la no discriminación.

Qué prácticas pueden ser sancionadas

La normativa distingue entre infracciones leves, graves y muy graves, dependiendo del impacto en derechos y riesgos asociados. Entre las conductas que pueden desencadenar sanciones se incluyen:

  • No identificar correctamente contenidos generados o manipulados por IA, como imágenes o vídeos falsos (deepfakes).
  • Sistemas de IA que utilicen técnicas para manipular decisiones, explotar vulnerabilidades o discriminar por raza, orientación o ideología.
  • Clasificación biométrica prohibida de personas en función de datos sensibles.

Estas prohibiciones responden a la voluntad de proteger al ciudadano frente a usos malintencionados de la tecnología, especialmente en un entorno en el que la IA ya influye en ámbitos clave como la información pública, los servicios sociales y el empleo.

Autoridades implicadas en la supervisión

España ha diseñado un esquema institucional que combina varios supervisores especializados:

  • La Agencia Española de Supervisión de la Inteligencia Artificial (AESIA) es el principal organismo encargado de imponer sanciones conforme al RIA europeo.
  • La Agencia Española de Protección de Datos (AEPD) se encarga de casos relacionados con el uso indebido de IA en sistemas biométricos o que afecten a datos personales.
  • Otras autoridades, como el Consejo General del Poder Judicial o la Junta Electoral Central, intervienen en ámbitos específicos como justicia o procesos electorales.

Este enfoque multidisciplinar busca una coordinación efectiva entre distintos marcos regulatorios (protección de datos, derechos fundamentales y regulación tecnológica) para que la aplicación de sanciones sea proporcional y justa.

Una crítica recurrente (compartida tanto en foros técnicos como entre expertos jurídicos) es la del riesgo de sobrerregulación. Algunos opinan que un régimen sancionador demasiado estricto podría frenar la innovación y la competitividad tecnológica, especialmente para pymes y startups que no disponen de los mismos recursos que las grandes corporaciones.

Sin embargo, otros expertos sostienen que no establecer barreras normativas claras equivaldría a permitir externalidades negativas que, a largo plazo, erosionan la confianza en las tecnologías emergentes y socavan su adopción ética y segura.

Marco europeo y español

Con esta ley, España no solo implementa directamente las obligaciones del RIA, sino que también se posiciona como uno de los países más activos en Europa en términos de vigilancia, sanción y desarrollo de IA responsable. La apuesta española por sanciones disuasorias y un sistema institucional sólido pone de relieve la importancia de incorporar la ética y el respeto a derechos fundamentales en el corazón de la regulación tecnológica.

Fuente: democrata.es Francisco Perez Bes (persona adjunta. Agencia Española de Protección de Datos)

En Forlopd velamos por la privacidad de la información ayudando a profesionales, empresas y entidades a mejorar sus procesos adaptándolos a las normativas vigentes y evitar así costosas sanciones administrativas. Para ello guiamos para la implementación de la norma ISO27001 o el Esquema Nacional de Seguridad (ENS). Puedes solicitarnos más información a través de info@forlopd.es