31% dos portugueses permitiria ao Governo monitorizar as redes sociais
Cerca de 30% dos portugueses estariam dispostos a partilhar os seus dados pessoais e que o Governo supervisionasse a sua actividade nas redes sociais, por razões de segurança.
Os dados resultado de um inquérito da Kaspersky “Social credits and Security: embracing the world of rating”. De realçar que Portugal, com 31%, está muito distante da média de 51% dos utilizadores, a nível global, dispostos a partilhar os seus dados.
O estudo da Kaspersky demonstra ainda que 52% dos portugueses partilharia informação privada sensível para aceder a oportunidades de emprego. 36% fá-lo-ia para obter melhores tarifários e descontos e 35% para aceder a serviços especiais (35%).
A Kaspersky afirma que, com a crescente popularidade de plataformas como redes sociais e serviços online, verifica-se um aumento dos sistemas de pontuação social (ratings sociais). Tratam-se de algoritmos automatizados baseados no comportamento dos utilizadores e na sua influência na Internet.
“Inicialmente, estes algoritmos de avaliação foram introduzidos por instituições financeiras e de comércio electrónico. Hoje em dia, são sistemas que se aplicam a muitas outras esferas e sectores – governos e organizações podem ser capazes de avaliar quem tem direito a uma ampla gama de serviços com base nestas pontuações. Recentemente, com o surto de Covid-19, também assistimos à implementação de sistemas automatizados para controlar o movimento das pessoas, a sua capacidade para comprar bens e aceder a serviços sociais”, informa a empresa em comunicado.
De acordo com o relatório da Kaspersky, apenas 19% dos portugueses que participaram nesta investigação estavam cientes do conceito de sistemas de qualificação social, uma percentagem bastante inferior à média mundial de 46%.
Mais de um terço dos consumidores portugueses (36%) reconheceu ter problemas em compreender como funciona um sistema de pontuação social. “Desconhecem, por exemplo, como é calculada uma pontuação e como pode ser consultada, além de como será corrigida caso se verifiquem imprecisões. Além disso, uma vez que estes sistemas são baseados em aprendizagem automática (machine learning), torna-se mais difícil saber que escolhas fazem e se são confiáveis, especialmente ao nível da segurança”, explica a empresa.