Meta ha comenzado a notificar a las personas usuarias que residen en la Unión Europea sobre el uso de imágenes y vídeos publicados para entrenar sus sistemas de inteligencia artificial. Para ello, su política de privacidad será modificada el 26 de junio de 2024, informó Fast Company.
El anuncio ha tomado por sorpresa a usuarios de otras latitudes, especialmente en Estados Unidos, quienes se percataron que Meta ya está usando sus contenidos públicos para entrenar a su chatbot, Meta A.I. La diferencia es que, debido a las legislaciones de protección de datos personales en la Unión Europea, la compañía debe notificar y solicitar el consentimiento a sus usuarios en la región.
Esto no quiere decir que Meta le esté facilitando las cosas. Según las leyes de la Unión Europea, las personas usuarias tienen derecho a pedir su exclusión para que no se utilice su contenido, pero la compañía está haciendo bastante difícil el proceso, como señala PCWorld. La empresa dispuso de un formulario que no es intuitivo, pidiendo datos innecesarios y con un lenguaje tendencioso y confuso.
El anuncio de Meta se encontró inmediatamente con la oposición de la sociedad civil. El grupo NOYB (None of your business) interpuso demandas en 11 países europeos para pedirle a las autoridades que inicien un procedimiento urgente que detenga el cambio en la política de privacidad de Meta. NOYB argumenta que, en lugar de pedir a las personas usuarias su consentimiento, la empresa sostiene que tiene un “interés legítimo” como fundamento legal.
En respuesta, el 10 de junio, Meta lanzó un comunicado donde argumenta que quiere necesita usar las publicaciones de las personas usuarias de la Unión Europea porque “el modelo que impulsa la inteligencia artificial en Meta requiere ser entrenado con información relevante que refleje la diversidad de lenguajes y referencias geográficas y culturales de las personas en Europa”.
Así mismo, Meta se justifica diciendo que no son la primera compañía en usar las publicaciones de sus usuarios para entrenar sus modelos de inteligencia artificial, citando que tanto Google como OpenAI han usado información públicamente disponible de personas de la Unión Europea.
Debido a la presión, Meta también ha recalcado que no usará los mensajes privados de los usuarios. Así mismo, la empresa rediseñó su formulario de objeción y descartó que las cuentas de personas menores de 18 años sean utilizadas. Aún así, la compañía no ha aclarado los propósitos de su “tecnología de inteligencia artificial”, señaló NOYB, lo que es contrario al Reglamento de Protección de Datos de la Unión Europea.
NOYB cita al activista Max Schrems, conocido por desafiar las políticas de privacidad de Meta, quien señala que el Tribunal de Justicia de la Unión Europea ya determinó en 2023 que las prácticas de recolección de datos que hacía Meta con fines publicitarios eran contrarias al Reglamento de Protección de Datos de la Unión Europea, y que ahora la empresa intenta usar los mismos argumentos para el entrenamiento de una inteligencia artificial indefinida.
Imagen: (CC-BY) Gibrán Aquino