Reportagem aponta uso de dados pessoais, conteúdo protegido e material sensível no treinamento de inteligência artificial, além de questionar condições de trabalho no setor

Treinamento de IA – Uma investigação realizada pelo jornal britânico The Guardian trouxe à tona detalhes sobre os bastidores do treinamento de sistemas de inteligência artificial conduzido por uma empresa parcialmente controlada pela Meta. Segundo a reportagem, milhares de trabalhadores foram contratados para alimentar modelos de IA com dados provenientes de redes sociais e outros materiais, incluindo conteúdos sensíveis.

De acordo com a apuração, a Scale AI, companhia da qual a Meta detém 49%, recruta profissionais por meio da plataforma Outlier. As vagas são oferecidas como oportunidades de trabalho remoto e flexível, direcionadas a pessoas com formação em áreas como medicina, física e economia. No site, a proposta é apresentada com o slogan: “Torne-se o especialista de quem a IA aprende”.

LEIA: Instagram reforça filtros de conteúdo para menores após pressão judicial

Relatos de trabalhadores, no entanto, indicam que as atividades vão além do treinamento técnico de sistemas. Parte das tarefas envolvia a coleta e organização de dados de usuários em plataformas como Facebook e Instagram, incluindo imagens, conexões sociais e informações pessoais, até de menores de idade. Para alguns participantes, o processo gerou desconforto ético.

“Acho que as pessoas não entenderam muito bem que haveria alguém em uma mesa, em um estado qualquer, olhando para o seu perfil e usando-o para gerar dados de IA”, afirmou um dos consultores ouvidos pela reportagem.

O Guardian entrevistou dez pessoas que atuaram na plataforma, muitas delas conciliando a atividade com outras ocupações, como jornalismo, ensino e pesquisa acadêmica. Segundo os relatos, a principal motivação era complementar a renda.

Além da coleta de dados, os chamados “taskers” também relataram exposição frequente a conteúdos considerados perturbadores. Entre as tarefas descritas estão a transcrição de áudios pornográficos, a rotulagem de imagens de animais mortos e a análise de cenários violentos. Um estudante de doutorado afirmou ter sido instruído a classificar um diagrama da genitália de um bebê, apesar de garantias iniciais de que não haveria material sensível.

“Já nos tinham dito antes que não haveria nudez nesta missão. Comportamento apropriado, nada de violência gráfica, nada de sangue”, afirmou. “Mas depois aparecia uma transcrição de áudio de pornografia ou simplesmente trechos aleatórios de pessoas vomitando sem motivo aparente”.

Outro ponto levantado pela investigação envolve o uso de obras protegidas por direitos autorais no treinamento de modelos de geração de imagem. Trabalhadores disseram que precisavam buscar conteúdos originais, muitas vezes nas próprias redes sociais de artistas, para alimentar os sistemas. Em alguns casos, havia instruções explícitas para evitar imagens geradas por IA, priorizando produções humanas.

Os colaboradores também relataram condições de trabalho consideradas instáveis, com remuneração variável, monitoramento constante e processos seletivos não remunerados. Segundo os depoimentos, a plataforma utilizaria ferramentas de rastreamento de atividade, como captura de tela, durante a execução das tarefas.

Para Glenn Danas, advogado que representa trabalhadores do setor, centenas de milhares de pessoas atuam em plataformas semelhantes ao redor do mundo. Parte desses profissionais, segundo ele, percebe que está contribuindo para o desenvolvimento de tecnologias que podem substituir suas próprias funções. Um artista ouvido pela reportagem afirmou sentir “vergonha e culpa internalizadas” por “contribuir diretamente para a automação de minhas esperanças e sonhos”.

Em resposta ao The Guardian, a Scale AI afirmou, por meio de um porta-voz, que a Outlier oferece trabalho sob demanda com “remuneração transparente” e liberdade para escolha de projetos e horários. A empresa declarou ainda que tarefas com conteúdo inadequado podem ser interrompidas e que não aceita projetos envolvendo abuso sexual infantil ou pornografia.

Apesar das explicações, a investigação levanta questionamentos sobre a forma como dados são coletados e utilizados no treinamento de modelos de inteligência artificial, além das condições de trabalho em um setor em rápida expansão, impulsionado pela crescente demanda por tecnologias mais avançadas.

(Com informações de Olhar Digital)

(Foto: Reprodução/Freepik/DC Studio)