Para disfrutar los contenidos de Clarín es necesario que actives JavaScript en tu navegador.
A Milagros Miceli, socióloga y doctora en Ingeniería Informática que vive en Alemania, no le sorprendió tanto haber sido elegida por la revista Time como una de las 100 personalidades más influyentes del mundo de la IA, junto a Mark Zuckerberg, Sam Altman, Larry Ellison y Jensen Huang. Lo que sí le sorprendió es el nivel de repercusión que esto tuvo en su país de origen. Y es que no solo es la primera vez que un argentino o argentina aparece en esta lista, sino que además, los motivos que llevaron a esta investigadora parecen ser antagónicos a los intereses de muchos de sus compañeros de lista.
Su trabajo se basa en echar luz en una zona que por lo general permanece oculta: quiénes, cómo y en qué condiciones trabajan para que la IA funcione. Ni apocalíptica ni ingenuamente entusiasta, explicó a Clarín en qué se basan sus investigaciones.
— Suele primar la idea de que la IA viene a terminar con muchos puestos de trabajo, pero vos problematizas esa hipótesis ¿Cómo describirías la relación entre trabajo e IA?
— No me gusta dar diagnósticos definitivos, ni tampoco hacer futurología, pero lo cierto es que sobrevuela esa pregunta, que actúa como una amenaza, de si en algún momento nos va a reemplazar a todos. Y creo que hay que tener cuidado de que esa fantasía no se convierta en un factor disciplinador, para que vivamos y trabajemos con miedo, y que todo el tiempo estemos pensando en cómo aumentar nuestra productividad, porque si no, nos va a reemplazar esta máquina.
— ¿La disputa se da en torno a quien termina teniendo la capacidad de aprovechar ese tiempo que se ahorra?
— Es que la fantasía de la IA, y el mundo que se que se imaginan los CEOS que crean estas tecnologías, es que en un futuro no vamos a necesitar trabajar, que la IA va a hacer todo por nosotros, y nosotros nos vamos a poder dedicar a la creatividad, al arte, al ocio y a la buena vida. La pregunta es quiénes. Probablemente ellos lo puedan disfrutar de esa manera, pero lo que pasa con los y las trabajadoras de a pie es que sí sean más productivos, pero para trabajar más y vivir peor.
— Tu investigación visibiliza el trabajo oculto detrás de la IA. ¿Cómo lo describirías, qué perfiles se buscan?
—Lejos de reemplazarnos, la IA está creando un montón de puestos de trabajo que no están bien remunerados. Se necesita un montón de gente para sostener la IA y cuando nos hablan de estas tecnologías milagrosas, superpoderosas, autónomas, neutrales y objetivas; no se dice que hay manos, cuerpos, mentes que están sosteniendo esto. En nuestra investigación, trabajamos con trabajadores/as de datos, que son quienes sostienen a la IA. Lo que hacen concretamente es recolectar datos, por ejemplo, fotos de gatitos. Pero también, en instancias mucho más complicadas, deben reconocer, interpretar y clasificar esos datos: les adjuntan etiquetas a esas imágenes, que también pueden ser audios, o pueden ellos tener que leer o escribir un texto. En otras instancias, lo que hacen es supervisar que el sistema funcione de acuerdo al plan y en otras, mucho menos conocidas, lo que hacen es reemplazar a la lA cuando esta falla, como seguir contestándole al usuario cuando se cae el chatbot, o controlar, o marcar errores cuando una cámara no sabe reconocer lo que está viendo.Todo ese trabajo, que es fundamental para la lA y sin el cual no existiría, lo hacen estas personas, que no son pocas: el Banco Mundial estima que se trata de alrededor de 400 millones de personas alrededor del mundo. Respecto a los perfiles, es común que sean personas vulnerables, como por ejemplo refugiados, que en sus países de origen trabajaban como profesionales, hasta doctorados. En el último tiempo las empresas empezaron a pedir gente con títulos específicos, como periodistas, por el revuelo que hay respecto a la propiedad intelectual de los contenidos. Respecto a los países, son varios: el filtro de toxicidad de Chat Gpt se entrenó en Kenya, en el mismo lugar donde se hacía moderación de contenido para Meta; Nairobi es un gran hub de este tipo de trabajo; en Filipinas; India; en América Latina, Venezuela, Colombia, Brasil.
— Estas personas trabajan de forma tercerizada, en su mayoría a través de plataformas, sin una relación de empleo constante, ni seguridad, protección, obra social, con sueldos bajísimos, con contratos precarios, cortos, y también con un montón de presión, unos targets imposibles, inhumanos de alcanzar, y en muchos casos también con daño psicológico por el contenido con el que trabajan. Algo que es fundamental para la IA son los filtros de toxicidades, para filtrar outputs dañinos, y que Chat Gpt no te enseñe por ejemplo a construir una bomba casera, por lo cual, hay que trabajar con datos para enseñarle lo que no se debe hacer. Y esos datos se filtran y se seleccionan manualmente, lo hacen las personas. Imagínate estar todo el tiempo en contacto con imágenes o textos que tienen que ver con lo peor del ser humano: con abusos sexuales, con pedofilia, con matanzas, con tortura. Estas personas que trabajan con nosotros, que realizan sus propias investigaciones en sus lugares de trabajo, y un poco rompen con estos acuerdos de confidencialidad que rodea a la industria; nos cuentan de qué se tratan estos datos, y también lo afectados que quedan. Hay un gran secretismo en torno a todo esto. La prohibición es muy estricta, y no solamente los pueden echar sino que les puede caer una demanda judicial de uno de estos gigantes tecnológicos. También hay cámaras para monitorearlos, no pueden dejar el lugar de trabajo, con métricas de producción en donde se les miden los tiempos, entonces, si van mucho al baño o se alejan mucho de su escritorio, porque necesitan tomarse un respiro, el salario baja porque no son lo suficientemente productivos.
— A mí no me gusta hablar de sesgos, porque pareciera que no es intencional, yo prefiero hablar de lineamientos ideológicos con respecto a estas tecnologías, porque quienes tienen el poderío para crearlas, también tienen el poder de imponer sus propias visiones del mundo. Una investigación del Washington Post mostraba qué clases de imágenes crean estos generadores a partir de un prompt. Si vos le das el input o el prompt es “crear una persona limpiando la casa” te va a crear una mayoría de mujeres, si vos le ponías “crear una persona que reciba planes sociales”, te crea una persona de color, con rasgos latinoamericanos o una persona negra. Y esto lo digo sin hacer juicios de valor, no es que nos están vendiendo un mundo que está mal, lo piense o no, estas máquinas crean realidades a partir de cosas que son totalmente arbitrarias. O mejor dicho, nos venden arbitrariedades como realidades, que quieren que percibamos como sentido común. Y esto se vincula con realidades geopolíticas muy específicas.
Milagros Miceli es socióloga y doctora en Ingeniería Informática. Como investigadora en el Instituto DAIR y el Instituto Weizenbaum, indaga en los modos en los que se generan datos para el aprendizaje automático, centrándose en las condiciones laborales y las dinámicas de poder. Además, es investigadora principal del proyecto Data Workers’ Inquiry, y profesora en la Universidad Técnica de Berlín, donde reside. Elegida por la revista Time como una de las 100 personalidades más influyentes del mundo de la IA.
Recibí en tu mail todas las noticias, historias y análisis de los periodistas de Clarín