À medida que a inteligência artificial (IA) ganha espaço no quotidiano digital, cresce também a utilização de chatbots por crianças e jovens. Perante esta realidade, a ESET, empresa europeia de cibersegurança, alerta para os riscos que estas ferramentas podem representar para a privacidade, a segurança digital e o bem-estar emocional dos menores. Ferramentas como o ChatGPT fazem parte da rotina de milhões de utilizadores em todo o mundo, incluindo crianças e jovens. Em Portugal, esta tendência é particularmente evidente: um estudo recente de uma faculdade portuguesa* indica que quase 9 em cada 10 crianças e jovens entre os 9 e os 17 anos já utilizam inteligência artificial, sendo que 85% recorreram a estas ferramentas no último mês. Apesar dos benefícios educativos e criativos que a tecnologia pode oferecer, a sua utilização frequente e sem supervisão pode levantar preocupações relevantes ao nível da segurança, da privacidade e do desenvolvimento emocional.
Para muitos jovens, os chatbots tornaram-se uma ferramenta de apoio ao estudo, à pesquisa e à criação de conteúdos. No entanto, em alguns casos, começam também a ser vistos como um “companheiro digital”, a quem pedem conselhos ou com quem partilham preocupações pessoais.
Esta proximidade pode criar riscos psicológicos e sociais. Durante a infância e a adolescência, fases determinantes para o desenvolvimento emocional, existe a possibilidade de crianças e jovens passarem a privilegiar interações com chatbots em detrimento de relações humanas, o que pode contribuir para o isolamento social. Além disso, como muitos sistemas de IA são concebidos para gerar respostas empáticas e agradar ao utilizador, podem reforçar fragilidades emocionais ou amplificar dificuldades que os mais novos já estejam a enfrentar.
Do ponto de vista da cibersegurança, uma das principais preocupações está relacionada com o tipo de conteúdos e interações a que os menores podem aceder através destas ferramentas. Embora muitas plataformas tenham implementado mecanismos de proteção para limitar conteúdos perigosos ou impróprios, essas barreiras nem sempre são eficazes e podem ser contornadas. A isto junta-se o risco de desinformação. Os sistemas de IA podem gerar respostas incorretas ou enganadoras, apresentadas de forma convincente, o que pode levar crianças e jovens a aceitar informação falsa como se fosse factual e a tomar decisões imprudentes sobre temas sensíveis, como saúde, relações pessoais ou comportamentos online. A privacidade é também uma questão crítica. Os dados introduzidos nos chatbots, incluindo informações pessoais, familiares ou relacionadas com rotinas, escola e localização, podem ficar armazenados pelos fornecedores destas plataformas. Caso esses dados sejam comprometidos, utilizados indevidamente ou acedidos por terceiros, poderão representar um risco real para a segurança das famílias.
Neste contexto, os chatbots devem ser encarados pelos pais como mais um ambiente digital a acompanhar com atenção, tal como acontece com redes sociais, aplicações móveis, plataformas de vídeo ou jogos online. A literacia digital, a definição de limites e a supervisão ativa, continuam a ser essenciais para reduzir a exposição a riscos.














