Geek

Jornalismo e tecnologia: ‘Jornalista’ com inteligencia artificial está reescrevendo as notícias para torná-las imparciais

Uma ferramenta para a imparcialidade no jornalismo?

Quer que suas notícias sejam entregues com a fria indiferença de um robô literal? Você pode querer ver o site recém-lançado Knowhere News. A Knowhere é uma startup que combina tecnologias de aprendizado artificial de máquinas e jornalistas humanos para transmitir os fatos sobre notícias populares.

Veja como isso funciona

Primeiro, a inteligência artificial (AI) do site escolhe uma história baseada no que é popular na internet agora. Depois de escolher um tópico, ele analisa mais de mil fontes de notícias para coletar detalhes. Sites de esquerda, sites de direita – a IA olha para todos.

Então, a IA escreve sua própria versão como “imparcialidade” sobre determinada história com base no que encontra (às vezes em apenas 60 segundos). Esta notícia contém os fatos mais básicos, com a AI se esforçando para remover qualquer possível viés. A IA também leva em conta a “confiabilidade” de cada fonte, algo que os co-fundadores da Knowhere determinaram preventivamente. Isso garante que um site com uma reputação estelar de precisão não seja ofuscado por um site que se apresente um pouco mais rápido com os fatos.

Veja como seria o título de uma matéria imparcial produzida pela IA e veja, também, a comparação entre matérias que tendem para um lado ou outro:

Notícia com imparcialidade: “EUA adicionam questão de cidadania ao censo de 2020”Para algumas das histórias mais políticas, a IA produz duas versões adicionais chamadas “Esquerda” e “Direita”. Essas distorcem exatamente como você esperaria de suas manchetes:

  • À esquerda : “Califórnia processa administração Trump sobre questão de cidadania censitária”
  • Direita : “Os liberais objetam a inclusão da questão da cidadania no censo de 2020”

Algumas histórias controversas, mas não necessariamente políticas, recebem rodadas “Positivas” e “Negativas”:

  • Imparcial: “O Facebook escaneia as coisas que você envia no messenger, Mark Zuckerberg admite”
  • Positivo: “O Facebook revela que verifica o Messenger por conteúdo impróprio”
  • Negativo: “O Facebook admite espionar o Messenger, ‘digitalizar’ imagens e links privados”

Mesmo as imagens usadas com as histórias ocasionalmente refletem o viés do conteúdo. A história “Positiva” do Facebook apresenta o CEO Mark Zuckerberg sorrindo, enquanto o “Negativo” o faz parecer que seu cachorro acabou de morrer.

A IA de Knowhere também não está colocando os jornalistas fora do trabalho.

O editor-chefe e co-fundador Nathaniel Barling disse ao Motherboard  que dois jornalistas revisam cada história. Isso garante que você sinta que está lendo algo escrito por um jornalista de verdade, e não um chatbot do Twitter. Essas edições são então inseridas no AI, ajudando-o a melhorar com o tempo. O próprio Barling, em seguida, aprova cada história antes de ir ao vivo. “O fanfarrão pára comigo”, disse ele à Motherboard .

Este elemento humano pode ser a maior falha da tecnologia. Como vimos com outros AIs, eles tendem a assumir os preconceitos de seus criadores, então Barling e seus editores precisarão ser tão imparciais quanto humanamente possível – literalmente – para garantir que a IA retenha sua imparcialidade.