Los lentes Ray-Ban Meta, creadas para reconocer objetos y responder preguntas mediante inteligencia artificial, se encuentran bajo la lupa luego de una investigación periodística que reveló que existe un flujo constante de datos personales que terminan siendo revisados por trabajadores humanos en países de bajos ingresos.
La información llegó gracias a una larga investigación del medio sueco Svenska Dagbladet, que descubrió que estas personas tienen acceso obligatorio a contenido privado derivado directamente de las gafas, como fotos íntimas, videos de personas teniendo sexo, mensajes que incluyen confesiones de delitos o datos financieros y de seguridad.
Contenido IA de lentes Ray-Ban Meta es analizado por humanos
Pues resulta que para que los lentes Meta y la inteligencia artificial funcionen correctamente, grandes cantidades de imágenes, videos y conversaciones deben ser analizadas. ¿Y quiénes hacen este trabajo? Parte de ello recae en personas conocidas como “data annotators”, quienes etiquetan manualmente contenido para entrenar a los algoritmos, un proceso esencial para el desarrollo del aprendizaje automático.
El medio logró rastrear que uno de los centros de este trabajo se encuentra en Nairobi, Kenia, donde miles de empleados trabajan para una empresa llamada Sama, que está subcontratada por Meta para entrenar distintos sistemas de inteligencia artificial.
De acuerdo con testimonios recogidos en la investigación, estos trabajadores revisan videos, imágenes y transcripciones provenientes del uso de dispositivos y servicios de la empresa. En el caso de las gafas inteligentes, algunos empleados aseguran haber visto material extremadamente sensible captado por las cámaras de los usuarios.
Entre los relatos se describen escenas de la vida cotidiana grabadas de forma aparentemente involuntaria: personas en baños, desnudas o en situaciones íntimas captadas mientras alguien llevaba puestos los lentes. En ocasiones, también se observan objetos personales como tarjetas bancarias o documentos privados.
Según varios empleados, muchos de los videos parecen haber sido grabados sin que las personas fueran conscientes de que estaban siendo registradas.
La IA de Meta
En concreto, estas personas tienen el trabajo de etiquetar lo que aparece en las imágenes (personas, objetos o acciones) para entrenar a la inteligencia artificial o verificar que responda correctamente a las preguntas de los usuarios.
Se supone que existen sistemas automatizados que intentan anonimizar los datos, por ejemplo, difuminando rostros, pero los trabajadores aseguran que estos no siempre funcionan correctamente.
En el reportaje se consultó a varios expertos, que advirtieron que muchos usuarios probablemente no comprenden hasta qué punto sus interacciones con las gafas de Meta u otros aparatos similares pueden ser almacenadas y analizadas.
La abogada especializada en protección de datos Kleanthi Sardeli, de la organización None Of Your Business (NOYB), sostuvo que el uso de datos para entrenar inteligencia artificial debería requerir un consentimiento claro y explícito. Según ella, una vez que la información entra en los modelos de IA, el control por parte del usuario se vuelve prácticamente imposible.
¿Y los términos de privacidad?
Desde Meta, la respuesta oficial fue que el contenido generado al usar sus sistemas de inteligencia artificial se procesa de acuerdo con sus términos de servicio y políticas de privacidad, las cuales contemplan revisiones automáticas o manuales de las interacciones.
A pesar de aquello, la investigación reveló también que existe una importante brecha entre la información de sus políticas de privacidad que reciben los usuarios y cómo funciona realmente el sistema.
Por ejemplo, según las entrevistas realizadas en tiendas que venden los lentes Meta, los vendedores aseguraron que los datos permanecen en el dispositivo o en la aplicación del usuario, lo que contradice lo descubierto por el medio sueco, que gran parte de los datos se procesa y analiza en servidores de la empresa, pero a miles de kilómetros de distancia.