No último ano, os investimentos de empresas da Big Tech em projetos de inteligência artificial atingiram bilhões de dólares, como foi o caso da parceria entre Microsoft e a startup OpenAI, de Sam Altman. Esse extremo interesse de empresas que dependem da monetização dos dados de seus usuários, segundo a presidente do mensageiro focado em privacidade Signal, tem explicação lógica.
Para Meredith Whittaker, a resposta é simples: “a IA é uma tecnologia de vigilância”. Na perspectiva dela, a tecnologia é, em grande parte, inseparável do setor das empresas da Big Tech e da segmentação perpetuada por empresas como Google e Meta, bem como corporações de defesa e àquelas focadas menos no consumidor, porém igualmente notáveis.
“Ela exige o modelo de negócios de vigilância; é uma exacerbação do que temos visto desde o final dos anos 90 e o desenvolvimento da publicidade de vigilância. Acho que a IA é uma forma de consolidar e expandir o modelo de negócios de vigilância”, disse ela durante o TechCrunch Disrupt 2023. “O diagrama de Venn é um círculo”.
“E o uso da IA também é vigilante, certo?”, continuou ela. “Você sabe, você passa por uma câmera de reconhecimento facial que é instrumentada com reconhecimento pseudocientífico de emoções e produz dados sobre você, certos ou errados, que dizem ‘você está feliz, você está triste, você tem má índole, você é um mentiroso, o que quer que seja’. Em última análise, esses são sistemas de vigilância que estão sendo comercializados para aqueles que têm poder sobre nós em geral: nossos empregadores, governos, controle de fronteiras etc., para fazer determinações e previsões que moldarão nosso acesso a recursos e oportunidades”.
Ela ressaltou que os dados subjacentes a esses sistemas são frequentemente organizados e anotados — etapa necessária no processo de montagem do conjunto de dados de IA —, ironicamente, pelos próprios funcionários a quem eles podem ser direcionados.
“Não há como criar esses sistemas sem trabalho humano no nível de informação da verdade básica dos dados — aprendizado por reforço com feedback humano, o que, mais uma vez, é apenas um tipo de trabalho humano precário de lavagem tecnológica. São milhares e milhares de trabalhadores que recebem muito pouco, embora em massa seja muito caro, e não há outra maneira de criar esses sistemas, ponto final”, explicou Whittaker. “De certa forma, o que estamos vendo é uma espécie de fenômeno do Mágico de Oz: quando abrimos a cortina, não há muita coisa inteligente”.
Todos os sistemas de inteligência artificial e machine learning são igualmente exploradores?
Quando questionada sobre se o Signal faz uso de alguma ferramenta ou processo de IA em seu aplicativo ou no trabalho de desenvolvimento, Whittaker confirmou que o mensageiro tem um “pequeno modelo no dispositivo que não desenvolvemos, nós o usamos como parte do recurso de desfoque de rosto em nosso conjunto de ferramentas de edição de mídia. Na verdade, ele não é tão bom assim… mas ajuda a detectar rostos em fotos de multidões e a desfocá-las para que, ao compartilhá-las nas mídias sociais, você não revele os dados biométricos íntimos das pessoas para, digamos, a Clearview”.
“Mas o problema é o seguinte. Tipo… sim, esse é um ótimo uso da IA, e isso não nos livra de toda essa negatividade que tenho jogado no palco?”, acrescentou. “Claro, se esse fosse o único mercado para o reconhecimento facial… mas vamos ser claros. Os incentivos econômicos que impulsionam o processo muito caro de desenvolvimento e implantação da tecnologia de reconhecimento facial nunca permitiriam que esse fosse o único uso.”
Créditos: TecMasters