Uma legião de precarizados ensina a IA das Big Techs a eliminar conteúdo abjeto das redes sociais. Convivem com o trauma e insalubridade, no Sul Global. Ganham pouquíssimo. Não podem organizar-se. Seu mundo permanece oculto

Por Adio Dinika, no Noema | Tradução: Glauco Faria
https://outraspalavras.net

Uma tela embaçada aparece diante de nossos olhos, acompanhada de uma mensagem enganosamente inócua de “conteúdo sensível” com um emoji de olho riscado. O design suave e o ícone lúdico do aviso desmentem a gravidade do que está por trás. Com um movimento casual de nossos dedos, passamos por ele, nossos feeds são atualizados com vídeos de gatos e fotos de férias. Mas nas sombras de nossa utopia digital, uma realidade diferente se desenrola.

Em armazéns apertados e mal iluminados em todo o mundo, um exército de trabalhadores invisíveis se debruça sobre telas que piscam. Seus olhos se esforçam, com os dedos pairando sobre os teclados, enquanto confrontam os impulsos mais obscuros da humanidade – alguns mais obscuros do que seus pesadelos mais loucos. Eles não conseguem desviar o olhar. Não podem rolar a tela. Para esses trabalhadores, não há aviso de gatilho.

Os gigantes da tecnologia alardeiam o poder da IA na moderação de conteúdo, pintando imagens de algoritmos oniscientes que mantêm nossos espaços digitais seguros. Eles sugerem uma visão utópica de máquinas que vasculham incansavelmente os detritos digitais, protegendo-nos do pior da Web.

Mas essa é uma mentira reconfortante.

A realidade é muito mais humana e muito mais preocupante. Essa narrativa serve a vários propósitos: ameniza as preocupações dos usuários com relação à segurança on-line, justifica os enormes lucros que essas empresas obtêm e desvia a responsabilidade – afinal, como você pode culpar um algoritmo?

No entanto, os sistemas de IA atuais não são nem de longe capazes de entender as nuances da comunicação humana, muito menos de fazer julgamentos éticos complexos sobre o conteúdo. O sarcasmo, o contexto cultural e as formas sutis de discurso de ódio muitas vezes passam despercebidos até mesmo pelos algoritmos mais sofisticados.

E, embora a moderação automatizada de conteúdo possa, até certo ponto, ser implementada para idiomas mais comuns, o conteúdo em idiomas com poucos recursos normalmente exige o recrutamento de moderadores de conteúdo dos países em que o idioma é falado, devido às suas habilidades linguísticas.

Por trás de quase todas as decisões de IA, um ser humano tem a tarefa de fazer a chamada final e arcar com o ônus do julgamento – não um salvador baseado em silício. A IA geralmente é um primeiro filtro bruto. Veja as lojas supostamente automatizadas da Amazon, por exemplo: Foi relatado pelo The Information que, em vez de sistemas avançados de IA, a Amazon contava com cerca de 1.000 funcionários, principalmente na Índia, para rastrear manualmente os clientes e registrar suas compras.

A Amazon disse à AP e a outros que contratou trabalhadores para assistir a vídeos para validar as pessoas que faziam compras, mas negou que tivesse contratado 1.000 pessoas ou a implicação de que os trabalhadores monitoravam os compradores ao vivo. Da mesma forma, o assistente M “alimentado por IA” do Facebook é mais humano do que software. E assim, a ilusão da capacidade da IA é frequentemente mantida à custa de trabalho humano oculto.

“Éramos os zeladores da Internet”, disse-me Botlhokwa Ranta, 29 anos, uma ex-moderadora de conteúdo da África do Sul que agora mora em Nairóbi, no Quênia, dois anos depois que seu contrato com a Sama foi rescindido. Falando de sua casa, sua voz estava pesada quando ela continuou. “Nós limpamos a bagunça para que todos os outros possam desfrutar de um mundo on-line higienizado.”

E assim, enquanto dormimos, muitos trabalham. Enquanto compartilhamos, esses trabalhadores protegem. Enquanto nos conectamos, eles enfrentam a desconexão entre nossa experiência on-line com curadoria e a realidade da natureza humana crua e sem filtros.

O verniz brilhante do setor de tecnologia esconde uma realidade humana crua que se estende por todo o mundo. Dos arredores de Nairóbi aos apartamentos lotados de Manila, das comunidades de refugiados sírios no Líbano às comunidades de imigrantes na Alemanha e aos call centers de Casablanca, uma vasta rede de trabalhadores invisíveis alimenta nosso mundo digital. As histórias desses trabalhadores geralmente são uma tapeçaria de trauma, exploração e resiliência, que revelam o verdadeiro custo de nosso futuro impulsionado pela IA.

Podemos ficar maravilhados com os chatbots e os sistemas automatizados que Sam Altman e sua turma exaltam, mas isso esconde as questões urgentes que estão abaixo da superfície: Será que nossos sistemas de IA divinos servirão apenas como uma cortina de fumaça, ocultando uma realidade humana angustiante?

Em nossa busca incessante pelo avanço tecnológico, devemos nos perguntar: qual é o preço que estamos dispostos a pagar por nossa conveniência digital? E nessa corrida rumo a um futuro automatizado, será que estamos deixando nossa humanidade na poeira?

A história de Abrha

Em fevereiro de 2021, o mundo de Abrha se despedaçou quando sua cidade em Tigray ficou sob fogo das forças de defesa da Etiópia e da Eritreia no conflito de Tigray, o conflito mais mortal dos dias atuais, que foi corretamente chamado de genocídio, de acordo com um relatório do New Lines Institute, com sede nos EUA.

Com apenas uma pequena mochila e todo o dinheiro que conseguiu pegar, Abrha, então com 26 anos, fugiu para Nairóbi, no Quênia, deixando para trás um negócio próspero, uma família e amigos que não conseguiram escapar. Enquanto Tigray sofria com ofechamento da internet por mais de dois anos imposto pelo governo da Etiópia, ele passou meses em uma agonizante incerteza sobre o destino de sua família.

Então, em uma cruel ironia, Abrha foi recrutado pela filial queniana da Sama, uma empresa sediada em São Francisco que se apresenta como um provedor ético de dados de treinamento de IA, porque a empresa precisava de pessoas fluentes em tigrínia e amárico, idiomas do conflito do qual ele acabara de fugir, para moderar o conteúdo originado principalmente desse mesmo conflito.

Cinco dias por semana, oito horas por dia, Abrha ficava sentado no depósito da Sama em Nairóbi, moderando conteúdo do mesmo conflito do qual ele havia escapado – às vezes até mesmo um bombardeio em sua cidade natal. Cada dia trazia uma enxurrada de discursos de ódio dirigidos aos Tigrayans e o medo de que o próximo cadáver fosse o de seu pai, a próxima vítima de estupro fosse sua irmã.

Um dilema ético também pesava sobre ele: Como ele poderia permanecer neutro em um conflito em que ele e seu povo eram as vítimas? Como ele poderia rotular o conteúdo de retaliação gerado por seu povo como discurso de ódio? A pressão se tornou insuportável.

Embora Abrha detestasse fumar, ele se tornou um fumante inveterado que sempre tinha um cigarro na mão enquanto navegava nesse campo minado digital de trauma – cada tragada era uma tentativa inútil de aliviar a dor do sofrimento de seu povo.

O horror de seu trabalho atingiu um pico devastador quando Abrha se deparou com o corpo de seu primo enquanto moderava o conteúdo. Foi um lembrete brutal dos riscos muito reais e pessoais do conflito que ele estava sendo forçado a testemunhar diariamente por meio de uma tela de computador.

Depois que ele e outros moderadores de conteúdo tiveram seus contratos rescindidos pela Sama, Abrha se viu em uma situação terrível. Incapaz de conseguir outro emprego em Nairóbi, ele teve que lidar com seu trauma sozinho, sem o apoio ou os recursos de que precisava desesperadamente. O peso de suas experiências como moderador de conteúdo, juntamente com os efeitos persistentes da fuga do conflito, afetou muito sua saúde mental e sua estabilidade financeira.

Apesar de a situação em Tigray continuar precária após a guerra, Abrha sentiu que não tinha outra opção a não ser voltar para sua terra natal. Ele fez a difícil jornada de volta há alguns meses, na esperança de reconstruir sua vida a partir das cinzas do conflito e da exploração. Sua história serve como um forte lembrete do impacto duradouro do trabalho de moderação de conteúdo e da vulnerabilidade daqueles que o realizam, muitas vezes longe de casa e dos sistemas de apoio.

A realidade de pesadelo de Kings

Tendo crescido em Kibera, uma das maiores favelas do mundo, Kings, 34 anos, que insistiu que Noema usasse apenas seu primeiro nome para discutir livremente assuntos pessoais de saúde, sonhava com uma vida melhor para sua jovem família. Como muitos jovens criados na favela de Nairóbi, ele estava desempregado.

Quando a Sama o chamou, Kings viu nisso a sua chance de entrar no mundo da tecnologia. Começando como anotador de dados, que os rotulava e os categorizava para treinar sistemas de IA, ele ficou entusiasmado, apesar do salário baixo. Quando a empresa ofereceu promovê-lo a moderador de conteúdo com um pequeno aumento de salário, ele aproveitou a oportunidade, sem saber das implicações da decisão.

Kings logo se viu confrontado com um conteúdo que o assombrava dia e noite. O pior era o que eles codificavam como CSAM, ou material de abuso sexual infantil. Dia após dia, ele examinava textos, fotos e vídeos que retratavam vividamente a violação de crianças. “Vi vídeos de vaginas de crianças se rasgando por causa do abuso”, contou ele, com a voz vazia. “Toda vez que eu fechava os olhos em casa, era só isso que eu via.”

O trauma infectou todos os aspectos da vida de Kings. Aos 32 anos, ele tinha dificuldade de ter intimidade com sua esposa; imagens de crianças abusadas atormentavam sua mente. O suporte à saúde mental da empresa era extremamente inadequado, disse Kings. Os conselheiros pareciam não estar preparados para lidar com a profundidade de seu trauma.

Por fim, a tensão se tornou excessiva. A esposa de Kings, incapaz de lidar com a privação sexual e as mudanças em seu comportamento, o deixou. Quando Kings deixou a Sama, ele era uma casca de seu antigo eu – quebrado mental e financeiramente – e seus sonhos de uma vida melhor foram destruídos por um trabalho que ele achava que seria sua salvação.

Perdendo a fé na humanidade

A história de Ranta começa na pequena cidade sul-africana de Diepkloof, onde a vida se move em ciclos previsíveis. Mãe aos 21 anos, ela tinha 27 quando conversamos e refletiu sobre a dura realidade enfrentada por muitas mulheres jovens em sua comunidade: seis em cada dez meninas já tinham engravidado aos 21 anos, entrando em um mundo onde as perspectivas de emprego já são escassas e a maternidade solteira as torna ainda mais esquivas.

Quando a Sama começou a recrutar, prometendo uma vida melhor para ela e seu filho, Ranta viu isso como sua passagem para um futuro melhor. Ela se candidatou e logo se viu em Nairóbi, longe de tudo o que lhe era familiar. As promessas se desfizeram rapidamente após sua chegada. O apoio para reencontrar seu filho, que ela havia deixado na África do Sul, nunca se concretizou como prometido.

Quando ela perguntou sobre isso, os representantes da empresa lhe disseram que não poderiam mais cobrir o custo total, como prometido inicialmente, e ofereceram apenas um apoio parcial, a ser deduzido de seu salário. As tentativas de conseguir uma audiência oficial com a Sama não tiveram êxito, e fontes não oficiais citaram como motivo os processos judiciais em andamento com os trabalhadores.

Quando a irmã de Ranta faleceu, ela disse que seu chefe lhe deu alguns dias de folga, mas não a deixou mudar para fluxos de conteúdo menos traumáticos quando ela voltou a moderar o conteúdo, mesmo havendo uma vaga. Era como se esperassem que ela e outros funcionários operassem como máquinas, capazes de desligar um programa e iniciar outro à vontade.

As coisas chegaram a um ponto crítico durante uma gravidez complicada. Ela não teve permissão para ficar em repouso na cama, conforme ordenado por seu médico, e apenas quatro meses depois de dar à luz sua segunda filha, a criança foi hospitalizada.

Ela então ficou sabendo que a empresa havia parado de fazer contribuições para o plano de saúde logo depois que ela começou a trabalhar, apesar de ter continuado a deduzir o valor de seu salário. Agora, ela estava sobrecarregada, com contas que não tinha condições de pagar.

A função de Ranta envolvia a moderação de conteúdo relacionado a abuso sexual feminino, xenofobia, discurso de ódio, racismo e violência doméstica, principalmente de sua terra natal, a África do Sul e a Nigéria. Embora reconhecesse a importância de seu trabalho, ela lamentava a falta de aconselhamento psicológico, treinamento e apoio adequados.

Ranta se viu perdendo a fé na humanidade. “Vi coisas que nunca pensei que fossem possíveis”, ela me disse. “Como os seres humanos podem afirmar que são a espécie inteligente depois do que vi?”

O CEO da Sama expressou arrependimento por ter assinado o contrato de moderação de conteúdo com a Meta.

O representante também disse que a companhia oferecia “’soluções técnicas para limitar ao máximo a exposição a material gráfico”. No entanto, as experiências compartilhadas por trabalhadores como Abrha, Kings e Ranta pintam um quadro totalmente diferente, sugerindo uma lacuna significativa entre as políticas declaradas da Meta e as realidades vividas pelos moderadores de conteúdo.

Perspectivas globais: Lutas semelhantes entre fronteiras

As experiências de Abrha, Kings e Ranta não são incidentes isolados. Somente no Quênia, conversei com mais de 20 trabalhadores que compartilharam histórias semelhantes. Em todo o mundo, em países como Alemanha, Venezuela, Colômbia, Síria e Líbano, os trabalhadores de dados com quem conversamos como parte de nosso projeto Data Workers Inquiry nos disseram que enfrentaram desafios semelhantes.

Na Alemanha, apesar de todos os seus programas para ajudar os recém-chegados, os imigrantes com status incerto ainda acabam em funções como a de Abrha, revisando o conteúdo de seus países de origem. A situação precária dos vistos desses trabalhadores acrescentou uma camada de vulnerabilidade. Muitos nos disseram que, apesar de enfrentarem a exploração, sentiam-se incapazes de se manifestar publicamente. Como o emprego deles está vinculado ao visto, há o risco de serem demitidos e deportados.

Na Venezuela e na Colômbia, a instabilidade econômica leva muitos a procurar trabalho no setor de dados. Embora nem sempre estejam diretamente envolvidos na moderação de conteúdo, muitos anotadores de dados costumam trabalhar com conjuntos de dados desafiadores que podem afetar negativamente seu bem-estar mental.

A realidade geralmente não corresponde ao que foi anunciado. Mesmo que os trabalhadores de dados na Síria e os refugiados sírios no Líbano não estejam moderando o conteúdo, o trabalho deles muitas vezes se cruza com resquícios digitais do conflito que vivenciaram ou do qual fugiram, acrescentando uma camada de tensão emocional aos seus trabalhos já exigentes.

O uso generalizado de acordos de não divulgação (NDAs) é mais uma camada na dinâmica de poder desigual que envolve esses indivíduos vulneráveis. Esses acordos, exigidos como parte dos contratos de trabalho dos trabalhadores, silenciam os trabalhadores e mantêm suas lutas ocultas da opinião pública.

A ameaça implícita desses NDAs geralmente se estende além do período de emprego, lançando uma longa sombra sobre a vida dos trabalhadores mesmo depois que eles deixam seus empregos. Muitos trabalhadores que falaram conosco insistiram no anonimato por medo de repercussões legais.

Esses trabalhadores, em lugares como Bogotá, Berlim, Caracas e Damasco, relataram que se sentiam abandonados pelas empresas que lucravam com seu trabalho. Os chamados “programas de bem-estar” oferecidos pela Sama muitas vezes não estavam preparados para lidar com o trauma profundo que esses trabalhadores estavam sofrendo, disseram-me os funcionários.

Suas histórias deixam claro que, por trás da fachada elegante de nosso mundo digital, há uma força de trabalho oculta que carrega fardos emocionais imensos, para que não precisemos fazer isso. Suas experiências levantam questões urgentes sobre as implicações éticas do trabalho com dados e o custo humano da manutenção de nossa infraestrutura digital. A natureza global desse problema ressalta uma verdade preocupante: a exploração dos trabalhadores de dados não é um bug, é uma característica sistêmica do setor.

É uma teia global de luta, tecida pelos gigantes da tecnologia e mantida pelo silêncio daqueles que estão presos nela, conforme documentado por Mophat Okinyi e Richard Mathenge, ex-moderadores de conteúdo e agora co-pesquisadores em nosso projeto Data Workers’ Inquiry. Os dois viram esses padrões se repetirem em uma série de empresas diferentes em vários países. Suas experiências, tanto como trabalhadores quanto agora como defensores, ressaltam a natureza global dessa exploração.

O trauma por trás da tela

Antes de viajar para o Quênia, eu achava que entendia os desafios enfrentados pelos profissionais de dados por meio de minhas conversas on-line com alguns deles. Entretanto, ao chegar, me deparei com histórias de depravação individual e institucional que me deixaram com traumas secundários e pesadelos por semanas. Mas para os próprios trabalhadores de dados, o trauma se manifesta de duas formas principais: trauma direto do próprio trabalho e problemas sistêmicos que agravam o trauma.

Para o resto do artigo, ver:
https://outraspalavras.net/trabalhoeprecariado/viagem-aosporoes-da-inteligencia-artificial/