MArk Zuckerberg pode ser feito de fatos, mas não pode escapar da verdade. O terceiro homem mais rico do mundo anunciou que a meta irá substituir Sua detecção independente de fatos com anotações da comunidade. Nesta semana, fui ao topo da ação da IA ​​em Paris para informar diretores técnicos e tomadores de decisão Por que é ruim.

Em vez de reduzir o número de programas que tornam a mídia social e a inteligência artificial mais confiáveis, as empresas devem investir e respeitar as pessoas que filtram as mídias sociais e significam dados nos quais a IA se baseia. Eu sei porque eu fui um deles uma vez.

Mamãe de duas crianças pequenas, fui recrutado da minha África do Sul natal com a promessa de ingressar no setor de tecnologia em desenvolvimento no Quênia Na Facebook O subcontratado, sozinho, como um moderador de conteúdo. Por dois anos, passei até 10 horas por dia, olhando para o uso de crianças, mutilação humana, ataques racistas e as partes mais sombrias da Internet, então você não precisava.

Este não é apenas um tipo de conteúdo que eu tive que assistir, me deu insônia, ansiedade e enxaqueca, também é uma quantidade. Tínhamos algo chamado AHT ou serviço de tempo. Foi uma quantidade de tempo que recebemos para analisar e avaliar um fragmento do conteúdo. Tivemos tempo e a empresa mediu nosso sucesso em alguns segundos. Ainda estávamos sob pressão para fazer isso.

Você não pode parar se vir algo traumático. Você não pode parar a saúde mental. Você não pode parar de ir ao banheiro. Você simplesmente não conseguia parar. Fomos informados ao cliente, no nosso caso, o Facebook exigia que continuássemos.

Não era uma vida que eu imaginei quando me mudei para Nairobi. Isolados da minha família, minha única comunidade real era meus colegas de apenas empresas de terceirização. Quando nos reunimos, nossas conversas sempre retornavam ao mesmo: nosso trabalho e a maneira como ele nos quebrou.

Quanto mais conversávamos, mais percebemos que algo estava acontecendo que era maior do que nossas histórias pessoais. Cada moderador de conteúdo, infantaria de dados e funcionário da IA ​​que conhecemos tinham as mesmas histórias: quantidades impossíveis, trauma profundo e desconsiderando nosso poço.

Não era apenas um problema sozinho. Não era apenas um problema no Facebook. Dessa forma, toda a indústria de tecnologia operou – terceirização da força de trabalho digital mais brutal e lucro com nossa dor.

Atualmente, essas questões são objeto de um processo coletivo no Quênia, apresentado por 185 antigos moderadores de conteúdo contra ele e o proprietário do Facebook, Meta como Relatado pelo Guardian. Quando ele pediu um comentário, ela disse que, a partir de março de 2023, eles não estavam mais envolvidos na moderação do conteúdo e não usavam mais moderadores de conteúdo. Eles acrescentaram que, em relação à atual disputa do tribunal, ele pediu às partes que não conversassem com a mídia no caso.

Eu me deixei há dois anos. Desde então, os problemas pioraram. Eu sei disso ajudando os funcionários da rede de suprimentos de dados trabalhando para outras empresas de terceirização que se organizam em Nairobi via Os funcionários de tecnologia africana são criados. Os funcionários ainda são traumáticos e o trabalho é mais intenso. Os moderadores de conteúdo devem assistir filmes a uma velocidade de 2x ou 3x em várias telas ao mesmo tempo. Pagamento e condições não são melhores e os salários de alguns funcionários de dados são tão baixos quanto 0,89 USD (70 pence), e os moderadores de conteúdo recebem US $ 2.

As coisas não podem durar como são, mas a abordagem de Zuckerberg em relação ao enfraquecimento da proteção é um curso impróprio. Este trabalho deve ser profissionalizado. Precisamos de padrões para funcionários, como moderadores de conteúdo que reconhecem dificuldades de trabalho e respeitem nossos direitos. Isso significa treinamento e protocolos reais de saúde e segurança, como em qualquer outra profissão. Isso significa garantir pagamento ao vivo e determinar quantidades razoáveis ​​de trabalho. Isso significa criar uma estrutura que respeite nossa humanidade e dignidade. Isso significa ter um relacionamento.

A meta se recusou a comentar reivindicações específicas durante disputas judiciais, mas afirmou que exigia que as empresas de terceirização oferecessem consultoria e assistência médica e pagassem acima dos padrões locais da indústria – e disse que forneceu soluções técnicas para limitar a exposição a materiais gráficos, como borracha e demissão A partir da função automática, na qual filmes ou fotos são reproduzidos no fluxo sem interrupção.

Mal podemos esperar que as empresas de tecnologia resolvam esse problema. Os funcionários de tecnologia africana que crescem por melhores salários, proteção à saúde mental e padrões profissionais no Quênia e além. Fazemos isso porque a inteligência artificial não é mágica. Cada algoritmo existem milhares de funcionários ocultos rotulando, treinamento e moderação de dados em condições incertas. AI, a força de trabalho permanece invisível, porque muitos preferem se concentrar em inovações tecnológicas e não em manter suas cadeias de suprimentos.

Se você acredita em uma Internet mais segura e ética, permanecendo conosco: apoie nossos esforços organizacionais, incentive os fabricantes de decisões a regular a grande tecnologia e exigir que as empresas de inteligência artificial e mídia social respeitem todos os seus funcionários. A mudança não vem de cima – vem de nós. Isto é verdade.

  • Sonia Kgomo é a organizadora da African Tech Workers Rising, um projeto apoiado pelos trabalhadores da União e Comunicações da União da União no Quênia

  • Você tem uma opinião sobre as questões levantadas neste artigo? Se você deseja enviar uma resposta a um máximo de 300 palavras de acordo com o e -mail a ser considerado para publicação em nossas ficção Seção, por favor Clique aqui.

Source link