...

Logo Pasino du Havre - Casino-Hôtel - Spa
in partnership with
Logo Nextory

YouTube e X não atuaram contra a desinformação antes da votação na UE, diz relatório

• Jun 12, 2024, 12:02 AM
5 min de lecture
1

Muitas vezes, o canal Youtube e a rede social X não tomaram medidas em relação à desinformação antes das eleições europeias de junho, segundo uma análise de mais de 1300 publicações nas plataformas de 26 países da UE.

O relatório, publicado na terça-feira pela Maldita.es, uma organização espanhola de verificação de factos fundada em 2018, analisa a forma como cinco grandes plataformas em linha - Facebook, Instagram, TikTok, X e Youtube - lidam com a desinformação em todo o continente antes das eleições europeias.

As publicações analisadas foram recolhidas por organizações de verificação de factos envolvidas no projeto Elections24Check durante os quatro meses que antecederam as eleições, incluindo o dia 6 de junho, o primeiro dia de votação na UE.

Youtube com o pior desempenho

A plataforma de partilha de vídeos YouTube foi a que teve pior desempenho, de acordo com os dados. Não tomou qualquer medida visível em relação a 75% do conteúdo de desinformação e, em 80% dos casos em que tomou medidas, o conteúdo registou um painel de informação genérico ou rotulou a fonte do vídeo como sendo um meio de comunicação social estatal, não oferecendo qualquer explicação sobre a falsidade do conteúdo em si. Alguns desses vídeos atingiram 500 mil visualizações, segundo o relatório.

Um porta-voz do canal YouTube disse à Euronews que a empresa tem "políticas rigorosas sobre desinformação prejudicial, que as nossas equipas trabalham 24 horas por dia para as aplicar rigorosamente, incluindo durante o período eleitoral da UE".

"Também ligámos os eleitores de toda a UE a fontes fidedignas de notícias e informações através do nosso sistema de recomendações", acrescentou o porta-voz da empresa.

Plataformas já objeto de inquéritos da Comissão

Da mesma forma, a plataforma de redes sociais X não tomou medidas visíveis em 70% dos casos e as notas explicativas da comunidade foram visíveis em apenas 15% das publicações já marcadas por verificadores de factos independentes europeus.

Entre as 20 publicações mais virais que não receberam qualquer ação por parte das plataformas, 18 estavam alojadas na plataforma X, com mais de 1,5 milhões de visualizações cada.

De um modo geral, as plataformas foram as que menos atuaram em relação às mensagens de desinformação dirigidas aos migrantes (57% dos casos não receberam qualquer ação), seguidas da desinformação sobre a integridade das eleições (56%). Tanto o YouTube como o TikTok registaram uma taxa de resposta de 0% para a desinformação dirigida aos migrantes.

As grandes plataformas em linha são legalmente obrigadas a tomar medidas para combater a desinformação ao abrigo da Lei dos Serviços Digitais da UE (DSA) através da rotulagem ou da remoção de conteúdos, por exemplo.

Em dezembro de 2023, a Comissão Europeia iniciou uma investigação ao abrigo da DSA sobre a gestão de riscos, a moderação de conteúdos, os padrões obscuros, a transparência da publicidade e o acesso dos investigadores aos dados por parte da X.

Facebook e Instagram: desempenho ligeiramente melhor

De acordo com o relatório, a plataforma chinesa de partilha de vídeos TikTok conseguiu tomar medidas visíveis em 40% das publicações que continham desinformação.

No Instagram, propriedade da Meta, este número é de 70% e no Facebook de 88%. Enquanto a maioria das ações do Facebook em relação à desinformação foram etiquetas de verificação de factos que mantiveram o conteúdo original em linha e se concentraram em acrescentar contexto (77%), a ação mais comum do TikTok contra esses conteúdos foi a sua remoção (32%).

As plataformas da Meta estão também a ser objeto de uma investigação em curso ao abrigo do DSA. Em abril, a Comissão afirmou recear que estas plataformas sejam vulneráveis às redes russas e que não disponham dos instrumentos adequados para lidar com a publicidade enganosa e os conteúdos políticos nos seus serviços.

A empresa-mãe do TikTok, a Bytedance, também está a ser investigada: em fevereiro, a Comissão começou a investigar a proteção de menores, a transparência da publicidade, o acesso dos investigadores aos dados, bem como a gestão do risco de conceção viciante e de conteúdos nocivos.

Um porta-voz da Comissão afirmou, em declarações à Euronews, que na sequência das suas orientações para as eleições nas plataformas ao abrigo do DSA, bem como de um teste de esforço com grandes plataformas, as empresas "estavam muito bem preparadas" e que "não se registaram incidentes de maior" durante o fim de semana das eleições.

Este artigo foi atualizado com os comentários da Comissão e do YouTube.