YouTube lucra com anúncios da Disney e Vodafone em vídeos associados a desinformação

A desinformação é, hoje, uma palavra comum e amplamente utilizada, que se refere a conteúdo que não corresponde à verdade e que leva as pessoas a acreditar em algo que pode não ser exactamente assim. Na era digital, as redes sociais e as plataformas têm um papel quase fundamental em garantir que muita dessa desinformação não é disseminada facilmente, mas a tarefa nem sempre é fácil e as variáveis em jogo ainda são algumas. O YouTube, por exemplo, a maior plataforma de vídeo do mundo, gerou 7,2 mil milhões de dólares no terceiro trimestre de 2021 só em vendas publicitárias e é aqui que as águas se começam a turvar.

Uma investigação do The Times revela que a plataforma pertencente à Google tem lucrado com anúncios exibidos antes da visualização de vídeos relativos a teorias da conspiração, desinformação sobre a pandemia, sobre a rede 5G ou temas como a misoginia. As marcas que, inadvertidamente, acabaram por surgir associadas a este tipo de conteúdo foram, entre outras, a Amnistia Internacional, a Vodafone e a Disney – sem saberem, os seus anúncios ou campanhas foram divulgados junto a vídeos que propagam desinformação.

Quando questionado pelo órgão de comunicação social norte-americano, um porta-voz do YouTube afirmou que «as equipas da empresa trabalham sem parar para remover rapidamente conteúdo violento», além de garantirem que «ligam as pessoas a informação oficial» sobre os temas abordados nos vídeos. «Não permitimos que os anúncios sejam incluídos ao lado de afirmações pouco fiáveis ou perigosas e agimos quando as nossas políticas são violadas», afirma o representante.

Embora o tema tenha voltado à superfície com a reportagem do The Times, a verdade é que nada disto é novidade. Já em 2017, muito antes de a pandemia dominar o dia-a-dia, marcas como a Audi, a Heinz, a L’Oréal, a McDonald’s, a PepsiCo ou a Starbucks congelavam os seus investimentos publicitários na plataforma da Google, exactamente pela mesma razão que agora é apontada: conteúdos que não estão em linha com as respectivas filosofias e posicionamentos. No total, mais de 250 marcas, de acordo com a Business Insider, tomaram esta decisão há cinco anos, cortando a entrada de centenas de milhões de dólares nas contas do YouTube.

Agora, a plataforma reitera que tem tomado as devidas medidas para garantir a segurança dos seus utilizadores face a diversas queixas feitas sobre tópicos que circulam nos vídeos disponíveis, como terrorismo, pedofilia e desinformação sobre a crise climática. Para ajudar a resolver o problema, os representantes revelam que a empresa recorre a inteligência artificial e a mudanças no algoritmo, a par de uma aposta na moderação por parte de humanos como forma de garantir que ‘casos-limite’ não são penalizados pela tecnologia.

Ainda assim, e de acordo com um estudo de 2021 feito pela Mozilla, o algoritmo do YouTube pode recomendar vídeos que vão contra as suas próprias políticas. “Hoje, o YouTube não fornece qualquer tipo de transparência sobre a forma como define e trata os ‘casos-limite’. Precisa de melhorar e abordar o seu défice de transparência”, indicam as conclusões do estudo, citado pelo The Drum.

“O YouTube devia expandir os seus relatórios de transparência, de forma a incluir informação sobre como define especificamente ‘casos-limite’, as metodologias de moderação de conteúdo que são aplicadas e aglomerar dados que possam ajuda a abordar os problemas associados a esta categoria de conteúdos disponíveis na plataforma (por exemplo, quantas vezes é que o YouTube recomenda conteúdos de ‘casos-limite’ e, de forma geral, o total deste conteúdo presente na plataforma).”

Artigos relacionados