Tecnologia

Guerra Israel-Hamas: como as redes sociais estão blindando conteúdos durante o conflito

As divergências entre Israel e a Palestina não são novas e há anos acompanhamos o conflito que se estende principalmente pela Faixa de Gaza. Infelizmente, no início de outubro deste ano, os desdobramentos da guerra Israel-Hamas ganharam um novo capítulo na história e ainda seguem sem resolução.  Sabemos que a situação está longe de ser algo simples de ser solucionada e, para além dos conflitos no mundo físico, não é incomum que a Internet acabe sendo palco para conflitos derivados e que redes sociais populares são, por vezes, usadas como ferramenta de guerra.

Por isso, em casos delicados como este, as plataformas do mundo virtual não apenas são requisitadas judicialmente a responderem sobre como estão atuando durante o período conflituoso.

Elas, como plataformas usadas globalmente por milhões de pessoas e justamente por terem a essência de compartilhar (sem necessariamente verificar informações antes do apertar de botões), precisam estar preparadas para implementar mecanismos de proteção e segurança que possam, por exemplo, evitar a disseminação rápida de fake news — que são comumente confeccionadas com intuito de agravar ainda mais as situações já tão delicadas vividas no mundo físico.

Seja também para mitigar o compartilhamento de imagens que, em vez de servirem com o propósito de alertar e/ou informar, servem apenas para espalhar medo e/ou contribuir com a desinformação, com o crescimento de discurso de ódio, com a disseminação de conteúdos violentos ou de atos terroristas, além de outras infrações graves previstas em lei.

Imagem: Freepik

Instagram, Facebook, TikTok, X: como as redes sociais atuam diante da guerra Israel-Hamas

Antes de começarmos a explicar um pouco sobre como as mídias sociais estão respondendo neste conflito específico, vale lembrar: a guerra Israel-Hamas não é um caso isolado. Outros momentos, como o caso de guerra entre Rússia e Ucrânia, bem como outros conflitos político-ideológicos que já vivenciamos ao longos dos anos e desde que as redes sociais ganharam um papel importante na Internet, necessitam de uma atenção especial por parte das grandes empresas de tecnologia.

Agora, sem mais delongas, a seguir separamos um compiladão sobre a ações que mídias como Instagram, Facebook, TikTok e X (ex-Twitter), e outras plataformas populares estão realizando durante a guerra Israel-Hamas. Você pode navegar pelo menu abaixo para ir diretamente no assunto sobre o qual deseja ver mais detalhes, ou apenas rolar a barra lateral para baixo.

Vamos nessa?


Navegue por aqui~*


Em 13 de outubro, a Meta liberou um post em seu blog para divulgar os esforços da empresa frente à guerra Israel-Hamas. De acordo com a publicação, a companhia de Mark Zuckerberg afirma ter reunido uma equipe de especialistas para “introduzir uma série de medidas para endereças o aumento de conteúdos danosos e potencialmente danosos disseminados em nossas plataformas”.

A empresa tem salientado esforços de moderação de conteúdo, tendo removido ou marcado como “perturbador” quase 800 mil postagens em apenas três dias após o conflito mais recente ter se iniciado, em 7 de outubro. Ainda de acordo com a Meta, os conteúdos barrados violavam as diretrizes de uso da empresa e, especificamente, as regras abraçaram conteúdos em hebraico e árabe.

As contas responsáveis pelos compartilhamentos da maioria dos conteúdos publicados nas plataformas, no entanto, não foram bloqueadas. Isso porque, segundo a Meta, são altas as chances de terem contas bloqueadas de forma inadequada (ou seja, contas que estavam compartilhando conteúdos informativos e não que de fato violaram as políticas de uso da empresa) quando há um volume muito alto de conteúdos sobre um determinado assunto sendo barrados em massa — como acontece em casos de guerras.

Por isso também, a empresa disse ter estabelecido um Grupo Especial de Operações, especificamente para o Instagram e para o Facebook, para cuidar desses conteúdos de forma mais “manual”.

O grupo em questão é composto por especialistas, muitos deles nativos ou fluentes em hebraico e árabe, para analisar de forma apropriada as publicações que circulam nas plataformas.

A Meta também realizou bloqueios temporários de hashtags, bem como priorizou conteúdos ao vivo do Instagram e do Facebook que pudessem estar relacionados ao conflito.

Logos das redes sociais controladas pela Meta: Facebook, Messenger, Instagram, WhatsApp

Imagem: Facebook, Inc., Public domain, via Wikimedia Commons/Shuttertsock.com

Além disso, a companhia afirma que o grupo Hamas foi banido das plataformas controladas pela empresa.

Uma pausa estratégica aqui para uma explicação sobre o Hamas: o grupo é considerado um movimento islamista situado na Palestina e é atualmente um dos mais influentes dentro do território. Não vamos entrar aqui em detalhes sobre motivações ou ideologias por trás dele, porque não é o intuito do nosso compilado, mas vale dizer que o Hamas é considerado por alguns países no mundo como uma organização terrorista.

Nos Estados Unidos, onde também é a sede da Meta, o grupo é incluído pelo Departamento de Estado na lista de Organização Terrorista Estrangeira (FTOs). A empresa de Zuckerberg segue essa premissa e prevê o Hamas dentro da sua política de “Organizações e Indivíduos Perigosos“.

Por isso também, a Meta chegou a ser acusada por diversos usuários de estar moderando os conteúdos publicados nos aplicativos para, propositalmente, deixar que um dos grupos do conflito se sobressaísse sobre o outro. Sobre isso, a big tech ressaltou que:

“Nossas políticas foram projetadas para manter as pessoas seguras em nossos aplicativos e, ao mesmo tempo, dar voz a todos. Aplicamos essas políticas igualmente em todo o mundo e não há verdade na sugestão de que estamos deliberadamente suprimindo vozes. No entanto, conteúdos que contenham elogios ao Hamas, que é designado pela Meta como Organização Perigosa, ou conteúdos violentos e explícitos, por exemplo, não são permitidos nas nossas plataformas”.

A empresa também convida usuários a contribuírem com a analise dos conteúdos que ocasionalmente aparecem nos feeds das plataformas controladas pela empresa — entre elas Facebook, Instagram, Threads e WhatsApp — para auxiliá-los. “Podemos cometer erros e é por isso que oferecemos um processo de recurso para que as pessoas nos informem quando acharem que tomamos a decisão errada, para que possamos analisar o assunto.”

Lembrando que “analisar o assunto” não significa necessariamente que a empresa irá concordar com o posicionamento do usuário que relatou alguma incongruência (e isso vale para todas as plataformas, não apenas para as controladas pela Meta).


O TikTok e as ações implementadas na plataforma

Um dia após a publicação d


Créditos: TecMasters