Las gafas de Meta resultaron "demasiado escrutadoras": los revisores de IA supieron más sobre los usuarios de lo que hubieran querido.

Las gafas de Meta resultaron "demasiado escrutadoras": los revisores de IA supieron más sobre los usuarios de lo que hubieran querido.

Un avance tecnológico requiere la participación de cientos de espectadores involuntarios

image

La empresa Meta volvió a enfrentarse a preguntas incómodas sobre quién y cómo entrena su IA. Esta vez el escándalo surgió en torno a las gafas inteligentes: empleados de un contratista en Kenia afirmaron que, al etiquetar datos, vieron vídeos demasiado personales de usuarios, y poco después de la publicación de esos relatos Meta rescindió un contrato importante con su empleador.

Se trata de la empresa Sama, cuyos empleados en Kenia etiquetaban datos para Meta. En febrero los diarios suecos Svenska Dagbladet y Goteborgs-Posten publicaron una investigación conjunta con testimonios de trabajadores. Según ellos, entre los materiales de las gafas inteligentes había grabaciones desde el baño, escenas con personas desnudas e incluso episodios íntimos. Esos vídeos podían llegar a revisión después de que los usuarios compartieran contenido con Meta AI.

Meta reconoció que los contratistas a veces revisan materiales de las gafas si los usuarios dieron su consentimiento para la transferencia de datos para mejorar el producto. Tras las publicaciones, el regulador británico de protección de datos envió a la empresa una solicitud, y la Oficina del Comisionado de Protección de Datos de Kenia inició una investigación sobre posibles violaciones de la privacidad.

Menos de dos meses después de la investigación Meta puso fin a la colaboración con Sama. Según el contratista, por ello perderán el empleo 1108 personas. Meta explicó la decisión diciendo que Sama supuestamente no cumplía sus estándares. Sama no estuvo de acuerdo con esa valoración y afirmó que había cumplido los requisitos de los clientes en materia de seguridad, calidad y operación.

Africa Tech Workers Movement opina que el contrato pudo cerrarse por las quejas públicas de empleados. Un representante de la organización, Naftali Wambalo, que participa en un proceso judicial por el trabajo anterior de Sama en la moderación de Facebook, relacionó la decisión de Meta con la falta de voluntad de la empresa para revelar la participación de personas en la revisión de datos de las gafas inteligentes. Meta no respondió a esa acusación.

Las gafas de Meta se fabrican junto con Ray-Ban y Oakley. Los dispositivos traducen texto, responden preguntas sobre lo que ve el usuario y pueden ayudar a personas con discapacidad visual. Al grabar, se enciende un indicador en la montura, pero persisten las preocupaciones por grabaciones ocultas. En Kenia esas gafas ya se asociaron con grabaciones no consentidas de mujeres.

El caso de Sama recordó la disputa anterior sobre la moderación de Facebook. Ex empleados del contratista se quejaron del contenido traumático y presentaron demandas. La abogada Mercy Mutemi, que representa a los demandantes, considera que el nuevo escándalo muestra la debilidad del modelo sobre el que Kenia intenta construir su participación en la industria de la IA.