Cómo evitar que Meta use tus datos para entrenar su IA
Al ser usuario de Facebook, Instagram o Whatsapp, es muy probable que hayas recibido en los últimos días un mensaje en tu correo electrónico indicando que Meta utilizará el contenido público de mayores de 18 años para entrenar su Inteligencia Artificial. Incluyendo publicaciones, fotos y muchos otros datos más como comentarios.
Esta función no se había desplegado en Europa con tal de evitar incumplimientos en normativa de privacidad. Tras el visto bueno de la Junta Europea de Protección de Datos indicando que se cumplen las obligaciones legales, Meta ha incluido a los usuarios europeos.
Meta indica que estos datos servirán para que su asistente entienda mejor los diversos idiomas de Europa, así cómo el uso del sentido del humor y el sarcasmo.
¿Cómo evitar que incluyan los datos para entrenar la IA de Meta?
Los usuarios pueden oponerse a tal práctica a través del email recibido, que facilita un acceso a un formulario que permite rechazar el uso de tus datos. Solamente hay que hacer clic en el enlace te lleva a la sección correspondiente donde se puede conceder acceso o rechazarlo, con un mensaje tipo «tu solicitud se aplicará al desarrollo y la mejora de la IA en Meta. Te enviaremos un mensaje de correo electrónico con toda la información» y en el segundo correo se confirma la objeción.
Realizando esta acción anterior evitaremos que los datos de nuestros perfiles sean utilizados para entrenar la IA de Meta. Otro modo es acceder a la sección de configuración de privacidad en Facebook e Instagram: Ve a Configuración > Privacidad > Reconocimiento de IA / Experiencias de IA y podrás restringir el uso que se hace de tus datos personales.
Meta también anunció recientemente que quiere eliminar el sesgo de su Inteligencia Artificial. Ya que, es conocido que todos los modelos LLM tienen problemas de sesgo, generalmente tienden a la izquierda en temas políticos y sociales, aunque la IA de Meta es la que está más a la derecha sesgada según la Universidad de Washington, la Universidad de Carnegie Mellon y la Universidad Xi’an Jiaotong en el año 2023.
Protección de Datos y entrenamiento de IA
Ceder los datos con el objetivo de entrenar una Inteligencia Artificial puede tener consecuencias inciertas a día de hoy ya que no se puede prever el alcance futuro de estas actividades de las grandes corporaciones como Meta o similares.
En Forlopd alentamos siempre a hacer un uso responsable sobre como se comparte nuestra información personal, así como la finalidad para la que se recaba. En esta ocasión, la finalidad de entrenar un modelo de Inteligencia Artificial puede conllevar múltiples usos posteriores difíciles de pronosticar.
Nuestra consultora de protección de datos ayuda a empresas de diferente índole a gestionar el uso de los datos personales que se utilizan dentro de la organización, asegurando el cumplimiento normativo según los criterios de España y la Unión Europea. Puedes solicitarnos más información a través de nuestro formulario de contacto.