IA, privacidade e confiança: o que esperam os consumidores das marcas?

Notícias
Marketeer
05/08/2025
11:09
Notícias
Marketeer
05/08/2025
11:09


Partilhar

Num mundo em que os avanços em inteligência artificial (IA) fazem parte das notícias do dia a dia, as experiências potenciadas por ela estão a tornar-se cada vez mais intuitivas e omnipresentes. No entanto, à medida que estas tecnologias evoluem, também crescem as preocupações dos consumidores relativamente à forma como os seus dados são recolhidos, utilizados e protegidos.

No centro destas preocupações está uma questão fundamental: a privacidade. Quando as marcas recorrem a dados sem o consentimento claro dos utilizadores, correm o risco de comprometer a confiança e prejudicar relações a longo prazo.

Um novo relatório da equipa Profiles da Kantar, “Connecting with the AI Consumer”, analisa precisamente este equilíbrio delicado entre inovação e invasão. Com base nas respostas de mais de 10.000 consumidores de 10 países, o estudo revela como os cidadãos estão a lidar com os desafios da partilha de dados em contextos potenciados por IA e o que as marcas devem considerar para conquistar (e manter) a sua confiança.

Definição de gerações neste estudo:
Geração Z: 18-27 anos
Millennials: 28-43 anos
Geração X: 44-59 anos
Boomers: 60 anos ou mais

A IA depende de dados e, muitas vezes, trata-se de dados que os consumidores consideram sensíveis.

Quando questionados sobre que tipo de dados pessoais acreditam estar a ser recolhidos por ferramentas de IA, os consumidores globais indicaram:

  • Dados de localização (60%)

  • Histórico de navegação (58%)

  • Pesquisas realizadas (52%)

  • Hábitos de consumo de media (52%)

  • Reconhecimento facial (48%)

  • Gravações de voz (40%)

  • Acesso ao calendário pessoal (35%)

Esta perceção generalizada varia consoante o país. Por exemplo, na África do Sul, há uma tendência superior para acreditar que todos os tipos de dados estão a ser recolhidos por IA.

Os dados de localização são os mais apontados por todas as faixas etárias, com destaque para os Boomers (67%) e para a Geração X (63%).

Contudo, há uma divergência entre perceção e realidade. Por exemplo, ferramentas como o ChatGPT da OpenAI recolhem apenas:

  • Conteúdos fornecidos pelo utilizador (como perguntas ou ficheiros carregados)

  • Dados de registo (como endereço IP e tipo de navegador)

  • Dados de utilização (como conteúdos visualizados)

  • Informações sobre dispositivo e localização, além de cookies

Não são recolhidos dados de reconhecimento facial, gravações de voz ou dados de calendário, a menos que o utilizador ative essas funcionalidades de forma explícita.

Para as marcas, esta realidade reforça a importância da transparência. Mesmo que determinados dados não sejam recolhidos, se os consumidores acreditarem que são, isso poderá minar a confiança. A comunicação clara sobre que dados são recolhidos, para que fins e como serão utilizados é essencial para evitar o medo e a desconfiança.

Embora muitos consumidores reconheçam os benefícios da IA, também há preocupações de ordem mais ampla, nomeadamente:

  • Substituição de postos de trabalho: Esta foi a principal preocupação global (22%), com valores mais elevados na África do Sul (33%), Reino Unido (26%) e França (26%).

  • Mau uso de dados pessoais: A segunda maior preocupação (20%), com especial destaque no Brasil (24%), Singapura (23%) e China (22%).

  • Temor de que a IA se torne “demasiado poderosa”: Notório na Alemanha (25%) e Índia (22%).

Estas preocupações revelam que os consumidores querem sentir que têm controlo sobre as ferramentas que utilizam. As marcas devem, portanto, apostar em experiências que aumentem a autonomia dos utilizadores, através de:

  • Controlo sobre as opções de partilha de dados

  • Definições personalizáveis

  • Explicações claras sobre o funcionamento da IA

Outro fator fundamental na construção da confiança é a precisão das respostas geradas por IA. Quando questionados sobre a frequência com que se deparam com informações incorretas:

  • 47% afirmam que raramente (ou nunca) encontram erros. Esta confiança é particularmente alta na China (69%), Brasil (55%) e África do Sul (60%).

  • 30% dizem encontrar erros frequentemente ou quase sempre, com destaque para a Índia (41%), Singapura (35%) e Austrália (33%).

  • 23% não sabem dizer se os outputs estão certos ou errados — um indicador de que muitos consumidores ainda não sabem como avaliar a informação gerada.

Isto reforça a necessidade de tornar a IA não só mais precisa, mas também mais compreensível. Explicar como são geradas as respostas e fornecer contexto pode ser tão importante quanto a tecnologia em si.

Os consumidores estão cada vez mais atentos e exigentes. Estão a usar ferramentas de IA, mas esperam mais transparência, mais controlo e mais responsabilidade.

Para as marcas que pretendem criar experiências potenciadas por IA de forma responsável e eficaz, aqui ficam algumas recomendações práticas:

  • Comunicar de forma clara e transparente os dados que são recolhidos e porquê

  • Oferecer controlo ao utilizador, com definições que possam ser personalizadas

  • Desenhar experiências centradas na transparência, especialmente em processos automáticos

  • Apoiar o utilizador na avaliação da informação, explicando como são gerados os outputs da IA




Notícias Relacionadas

Ver Mais