Meta promociona sus gafas inteligentes Ray-Ban en su sitio web como un producto desarrollado “pensando en tu privacidad”, asegurando que los usuarios mantienen el control sobre qué se comparte y cuándo. Sin embargo, los términos de uso de los servicios de IA de las gafas otorgan a la empresa amplios derechos. Aunque las grabaciones de voz solo se almacenan para mejorar el producto con el consentimiento activo del usuario, el asistente de IA procesa automáticamente voz, texto, imágenes y, en algunos casos, video para poder funcionar, y esos datos pueden compartirse posteriormente. Este procesamiento no se puede desactivar.
Según una investigación de Svenska Dagbladet y Göteborgs-Posten, los datos de video de las gafas con IA están siendo revisados por anotadores de datos que trabajan para Sama, un contratista de Meta con sede en Nairobi, Kenia. Estos empleados ayudan a entrenar los sistemas de IA de Meta identificando, etiquetando y clasificando objetos en imágenes y videos.
Cuerpos desnudos, tarjetas bancarias y escenas sexuales
Lo que aparece en sus pantallas, según los reportes, va mucho más allá de reels de Instagram o videos familiares. Varios trabajadores dijeron a los periódicos que habían visto clips en los que personas salían desnudas del baño, se vestían o mantenían relaciones sexuales mientras las gafas estaban grabando. “Vemos todo, desde salas de estar hasta cuerpos desnudos. Meta tiene este tipo de contenido en sus bases de datos”, afirmó un trabajador.
Otras grabaciones muestran tarjetas bancarias filmadas accidentalmente o usuarios consumiendo pornografía mientras llevaban las gafas. Las transcripciones también forman parte del trabajo: los anotadores verifican si el asistente de IA respondió correctamente. En el proceso, aseguran encontrarse con chats sobre delitos, protestas y contenido sexual. “No son solo saludos, pueden ser cosas muy oscuras”, citó la investigación a un empleado.
Los trabajadores han firmado estrictos acuerdos de confidencialidad. Según los testimonios, hay cámaras instaladas en las oficinas y están prohibidos los teléfonos personales o dispositivos de grabación. De acuerdo con los empleados, hacer demasiadas preguntas puede poner en riesgo el empleo y, para muchos, significaría volver a la pobreza.
El entrenamiento de la IA necesita ojos humanos — y eso se está convirtiendo en un problema
Para que las gafas de Meta reconozcan objetos, comprendan el habla e interpreten escenas, los humanos aún deben preparar los datos brutos de entrenamiento.
Exempleados de Meta en Estados Unidos dijeron a los periodistas suecos que los datos sensibles no deberían utilizarse para entrenar la IA. Según explicaron, los rostros en los conjuntos de anotación deberían difuminarse automáticamente. Sin embargo, los anotadores en Kenia afirmaron que la anonimización no siempre funciona. A veces, los rostros que deberían estar ocultos permanecen visibles. “Los algoritmos fallan a veces. Especialmente en condiciones de iluminación difíciles, ciertos rostros y cuerpos se vuelven visibles”, señaló un ex empleado de Meta.
Kleanthi Sardeli, abogada especializada en privacidad de la organización vienesa None Of Your Business (NOYB), que ya ha presentado varias denuncias contra Meta, afirmó que el caso revela un claro problema de transparencia. Es posible que los usuarios no sepan que la cámara está grabando cuando activan el asistente de IA. El tipo de videos procesados por Sama es, en su opinión, una fuerte señal de ello.
“Si esto está ocurriendo en Europa, faltan tanto transparencia como base legal para el tratamiento”, declaró. Para el entrenamiento de IA debería requerirse un consentimiento explícito. “Una vez que el material ha sido incorporado a los modelos, el usuario prácticamente pierde el control sobre cómo se utiliza”.
Kenia no cuenta actualmente con una decisión de adecuación por parte de la Unión Europea. Un diálogo formal entre la UE y Kenia comenzó recién en mayo de 2024. Meta afirma en su política de privacidad que los datos de los usuarios pueden transferirse, almacenarse y procesarse globalmente, ya que la empresa “opera a nivel mundial”. Petra Wierup, abogada de la autoridad sueca de protección de datos IMY, señaló que si Meta actúa como responsable del tratamiento bajo el RGPD, el mismo nivel de protección debe garantizarse incluso cuando intervienen subcontratistas en terceros países.
Sama: un nombre conocido con antecedentes controvertidos
Sama no es ajena a la controversia. En 2021, la empresa etiquetó decenas de miles de fragmentos de texto con descripciones de abuso sexual, violencia y discurso de odio para OpenAI. Según una investigación de TIME, los trabajadores kenianos recibían entre 1,32 y 2 dólares por hora. Un trabajador describió la experiencia como “tortura”. Sama también participó en el etiquetado de datos para vehículos autónomos y estuvo involucrada previamente en la moderación de contenido para Facebook.
Después de que nuevos reportes revelaran traumas y presuntas prácticas antisindicales en la oficina de Sama en Nairobi, la empresa puso fin en 2023 a la moderación de contenido para Meta y se centró en la anotación de datos de visión por computadora, precisamente el tipo de trabajo relevante ahora para las gafas de IA.
Este trabajo de anotación está siendo cada vez más asistido por la propia IA. Para entrenar su modelo de visión por computadora SAM 3, Meta desarrolló una “Data Engine” en la que los modelos de IA generan primero sugerencias de segmentación que luego son revisadas y corregidas por anotadores humanos y sistemas de IA. Según la compañía, este proceso acelera significativamente la anotación.
ES
EN