Quando a IA decide e falha, quem assume a responsabilidade do erro? O líder ou o algoritmo?

LinkedinNotícias
Marketeer
03/02/2026
15:10
LinkedinNotícias
Marketeer
03/02/2026
15:10


Partilhar

A inteligência artificial deixou de ser apenas uma ferramenta de apoio para passar a influenciar decisões com impacto real na vida das pessoas. Da saúde às finanças, da gestão de recursos humanos à administração pública, os algoritmos já participam em escolhas que antes pertenciam exclusivamente ao julgamento humano. O problema surge quando algo falha: quem assume a responsabilidade? A pergunta chega através do business insider.

Durante décadas, a cadeia de decisão era clara. Um erro tinha um autor identificável. Com a entrada da IA, esse percurso tornou-se mais difuso. As decisões passam por sistemas treinados com grandes volumes de dados, desenvolvidos por equipas técnicas, implementados por organizações e validados ou não por líderes. Quando o resultado é negativo, a responsabilidade deixa de ser óbvia.

Os riscos não são teóricos. Algoritmos mal treinados podem reproduzir preconceitos, ignorar contextos sociais ou interpretar dados de forma errada. Um erro num sistema de triagem médica, na concessão de crédito ou na seleção de candidatos pode ter consequências graves, tanto a nível individual como institucional.

Apesar da crescente autonomia tecnológica, a lei é clara num ponto essencial: a inteligência artificial não tem personalidade jurídica. Não pode ser responsabilizada, sancionada ou obrigada a indemnizar. A responsabilidade recai, inevitavelmente, sobre pessoas e organizações.

As empresas que utilizam sistemas de decisão automatizada têm o dever de garantir supervisão humana, avaliar riscos e assegurar transparência. No contexto europeu, a legislação existente impede que a tecnologia seja usada como desculpa para decisões opacas ou injustas. Dizer que “foi o algoritmo” não basta.

 

 




Notícias Relacionadas

Ver Mais