O Facebook e a segurança para as marcas

Por Irene Cano, directora-geral do Facebook na Península Ibérica

É minha profunda convicção de que o Facebook é positivo para a sociedade. Mas não podemos ligar as pessoas se elas não se sentirem seguras ao usar os nossos serviços. Os avós que conseguem ver os primeiros passos dos seus netos, ou os membros do grupo de uma comunidade que se organizam em torno de causas, todos eles, não voltarão ao Facebook se não se sentirem bem ao usá-lo.

É importante para a comunidade publicitária entender os esforços que o Facebook está a fazer para manter as pessoas seguras. E é, por isso mesmo, importante explicar como estamos a abordar a segurança de forma mais ampla nas nossas plataformas – algo muitas vezes complexo, mas essencial.

Em primeiro lugar falemos da segurança das marcas no feed de notícias. Por dia há mais de dois mil milhões de feeds de notícias exclusivos gerados no Facebook – o feed de notícias de cada utilizador é único e diferente de todos os outros. O que as pessoas vêem no feed de notícias depende de vários factores, incluindo com quem eles interagiram, o tipo de conteúdo que visualizaram e as acções que realizaram – como “gostos” e partilhas.

Um estudo da Kantar mostra que 90% das pessoas não associa anúncios com os conteúdos adjacentes no seu feed de notícias. E como o feed de notícias de todos os utilizadores é diferente, não segmentamos anúncios para os conteúdos, mas para as pessoas. Mesmo quando elas têm opiniões negativas sobre a nossa plataforma, isso não afecta sua afinidade com as marcas e os anúncios que estão a ver.

Por outro lado, na parte onde permitimos anúncios vinculados ao conteúdo – por exemplo no Watch e na Audience Network – fornecemos aos anunciantes um grande controlo sobre os espaços em que os seus anúncios vão ser exibidos. Eles podem desactivar os canais ao lado de determinados tipos de conteúdo no Audience Network, em vídeos in-stream ou nos Instant Articles. Recentemente anunciámos novos controlos mais intuitivos, oferecendo aos anunciantes as ferramentas para definir o perfil de segurança da marca mais alinhado com os padrões do sector. Além disso temos directrizes de elegibilidade de monetização que os editores e anunciantes deverão cumprir, sob pena de correrem o risco de perderem a sua capacidade de gerar receita.

Nada disto nos torna complacentes – o nosso Relatório de Transparência, divulgado duas vezes por ano, reflecte exactamente os esforços contínuos para reduzir os conteúdos inapropriados nas nossas plataformas. O relatório é baseado nos nossos Padrões da Comunidade, que definem quais os conteúdos permitidos e os não permitidos. Esses padrões incluem as nossas políticas contra a nudez e a actividade sexual de adultos, contas falsas, discurso de ódio, spam, propaganda terrorista e violência, bem como conteúdo gráfico.

Estes padrões são aplicados para detectar, rever e impor sanções sempre que existem violações de conteúdo. E estamos a investir recursos significativos em tecnologia, como é o caso da machine learning, que pode ajudar a detectar proactivamente fotos extremamente semelhantes às que violem os conteúdos já existentes na nossa base de dados. Também aumentamos o número de pessoas focadas na protecção e segurança para 30.000, das quais cerca de metade são revisores de conteúdo que analisam mais de dois milhões de conteúdos todos os dias.

Como resultado dos nossos esforços, mais de 95% das contas falsas, spam de conteúdos de cariz terrorista, nudez adulta, actividade sexual e conteúdo violento que removemos são detectados pelos nossos sistemas de IA antes que alguém os denuncie. Estamos a assistir aos progressos da IA até em temas como o discurso de ódio, onde o contexto linguístico dificulta muitas vezes a percepção correcta – como perceber quando alguém está a fazer um insulto racial ou um outro tipo de insulto a terceiros. No terceiro trimestre do ano passado retirámos 2,9 milhões de mensagens por violarem as nossas regras sobre incitação ao ódio – mais de metade das quais identificadas por nós de forma proactiva – e o dobro da taxa no mesmo período do ano anterior.

Recorremos a especialistas para garantir que os nossos padrões da comunidade são definidos no lugar e no momento certos. Por exemplo, ao regulamentar conteúdo sobre autoflagelação e relacionado com suicídio, a nossa abordagem foi centrada no fornecimento de suporte e recursos para ajudar o indivíduo que publica esse tipo de conteúdos. No entanto, percebemos recentemente que era necessário fazer mais para evitar os danos que podem ser causados a outras pessoas que procuram esse tipo de conteúdos, seja como inspiração, seja para validação. Assim, anunciámos recentemente que não permitimos mais imagens gráficas de autoflagelação nas nossas plataformas, e que deixará de ser possível pesquisar conteúdo não gráfico com autoflagelações.

Há também o risco de ameaças novas e emergentes que nos fazem reciclar a nossa tecnologia e repensar as nossas políticas actuais. Depois da tragédia na Nova Zelândia, a primeira prioridade do Facebook foi apoiar a polícia local que estava a dar respostas ao ataque. O desafio de longo prazo foi entender como os nossos sistemas e outras plataformas online estavam a ser usados para partilhar o vídeo do tiroteio. Apesar de usar a tecnologia hash (que cria uma impressão digital de conteúdo prejudicial para que possamos removê-la imediatamente se for partilhada), encontrámos 900 variações distintas do vídeo que pessoas mal-intencionadas ainda estavam a distribuir. Dado esse desenvolvimento, estamos agora a explorar as restrições sobre quem pode usar as nossas ferramentas de vídeo ao vivo. Também tomámos a decisão política de proibir qualquer elogio, apoio e representação do nacionalismo e do separatismo branco no Facebook e no Instagram.

Essas são questões realmente complexas que nenhuma empresa individual pode resolver sozinha. Sabemos que para sermos verdadeiramente eficazes em contrariar pessoas mal-intencionadas precisamos também de uma maior colaboração de toda a indústria e dos reguladores.

É por isso que estamos a criar um Conselho de Supervisão para permitir que as pessoas recorram às decisões que tomamos. Partilhamos também o compromisso do governo do Reino Unido de abordar conteúdo nocivo on-line e saudar a consulta proposta como uma importante oportunidade de trabalhar em conjunto. E estamos a colaborar com a Google, Microsoft e empresas de brand safety – como a Double Verify e Integral Ad Science – para desenvolver em conjunto ferramentas e recursos e expandir a nossa colaboração no sector, por meio do Fórum Global da Internet para o Combate ao Terrorismo (GIFCT).

Em termos práticos, o Facebook está a fazer tudo o que está ao seu alcance para manter os seus clientes e os clientes dos anunciantes seguros. Embora seja impossível garantir que pessoas com más intenções podem ser totalmente afastadas das nossas plataformas, continuamos a trabalhar arduamente para minimizar os riscos. Manter-se à frente destes desafios é a principal prioridade do Facebook e algo fundamental para aumentar o valor fornecido às pessoas, às comunidades e aos clientes.