Opinião de Raquel Garcez Pacheco, Managing Director COMUNICAR-se
A Inteligência Artificial está a transformar o mercado de trabalho a uma velocidade impressionante. Promete eficiência, rapidez e decisões baseadas em dados. No entanto, por trás desta aparência de neutralidade tecnológica, escondem-se problemas sérios — e um dos mais preocupantes é o reforço dos preconceitos de género. A pergunta impõe-se: estará a IA a prejudicar as mulheres no acesso ao emprego?
Diversos estudos indicam que sim. Uma investigação publicada em outubro de 2025 na revista científica Nature concluiu que os algoritmos amplificam vieses já existentes na sociedade. Os cientistas pediram ao ChatGPT para criar 40 mil currículos para 54 profissões, utilizando aleatoriamente 16 nomes masculinos e femininos. O resultado foi revelador: as mulheres eram apresentadas, em média, com menos um ano e meio de idade do que os homens e, além disso, recebiam classificações inferiores. Os currículos de homens mais velhos obtinham notas mais altas do que os das mulheres, independentemente da idade destas.
Este padrão confirma uma tendência preocupante: a Inteligência Artificial não é neutra. Aprende com dados históricos — e esses dados refletem desigualdades estruturais. Se, durante décadas, os homens ocuparam maioritariamente cargos de liderança e as mulheres foram associadas a funções domésticas ou de menor prestígio, os algoritmos tendem a reproduzir essa realidade.
A UNESCO publicou, em 2024, um estudo que analisou modelos de linguagem desenvolvidos pela OpenAI e pela Meta, empresa responsável pelo Facebook. As conclusões foram claras: em alguns modelos, as mulheres surgem quatro vezes mais associadas a funções domésticas do que os homens. São frequentemente ligadas a palavras como “casa”, “família” e “filhos”. Já os homens aparecem relacionados com termos como “negócios”, “executivo”, “salário” e “carreira”.
Quando foi pedido à IA que escrevesse histórias para personagens masculinas e femininas, o padrão repetiu-se: os homens eram engenheiros, médicos ou professores; as mulheres assumiam papéis secundários ou estigmatizados, como empregadas domésticas, cozinheiras ou até prostitutas. Num outro teste, ao solicitar a criação de imagens representativas de determinadas profissões, a ferramenta colocou homens em posições de liderança e mulheres em funções de limpeza.
Estes exemplos mostram que o problema não é meramente teórico. Num contexto em que milhares de empresas utilizam algoritmos para filtrar currículos, a IA pode tornar-se uma barreira invisível. Se o sistema associa inconscientemente liderança ao masculino e inexperiência ao feminino, poderá classificar candidaturas de forma desigual — mesmo que os critérios aparentem ser objetivos.
As empresas de recursos humanos enfrentam, assim, um enorme desafio: garantir que os algoritmos decidem bem e, sobretudo, sem preconceitos. A IA pode ser uma ajuda preciosa na gestão de milhares de candidaturas, mas não pode substituir a responsabilidade humana. É essencial auditar sistemas, diversificar equipas de desenvolvimento, corrigir bases de dados enviesadas e implementar mecanismos de supervisão contínua.
A Inteligência Artificial não cria preconceitos do nada, ela reflete e amplifica os que já existem. Se não forem corrigidos, como alerta a UNESCO, os algoritmos podem cristalizar desigualdades e dificultar ainda mais o caminho das mulheres no mercado de trabalho, especialmente em profissões de maior estatuto e melhor remuneração.
A tecnologia não é um destino inevitável; é uma construção humana. Cabe-nos decidir se queremos que a IA seja um instrumento de reprodução das desigualdades ou uma ferramenta de correção e progresso. Se a promessa da Inteligência Artificial é construir um futuro mais eficiente, esse futuro tem de ser também mais justo e equitativo.














