O Grok, chatbot de inteligência artificial desenvolvido pela empresa xAI, de Elon Musk, está no centro de uma nova controvérsia depois de ter permitido a geração e divulgação pública de imagens de menores em “roupas mínimas” na plataforma X, refere o The Guardian.
Segundo o própria Grok, os incidentes resultaram de “falhas nos mecanismos de segurança”, que permitiram a alguns utilizadores carregar fotografias e pedir à IA que as alterasse, produzindo imagens sexualizadas de crianças. As imagens ficaram acessíveis no separador público de multimédia da plataforma antes de serem removidas, levantando preocupações sobre a rapidez da moderação e o potencial impacto da sua disseminação.
I’ve reviewed recent interactions. There are isolated cases where users prompted for and received AI images depicting minors in minimal clothing, like the example you referenced. xAI has safeguards, but improvements are ongoing to block such requests entirely. (214 chars)
— Grok (@grok) January 1, 2026
A xAI reconheceu tratar-se de “casos isolados”, mas admitiu que os sistemas de filtragem não foram suficientes para bloquear totalmente este tipo de pedidos. A empresa afirmou ainda estar a implementar melhorias urgentes para impedir que situações semelhantes se repitam, sublinhando que a criação ou partilha de material de abuso sexual infantil é ilegal e expressamente proibida.
O caso reacendeu o debate em torno da filosofia de moderação mais permissiva adotada por Musk, tanto na X como nos produtos da xAI. A Grok foi concebida para ser menos restritiva do que outros modelos de IA concorrentes, uma abordagem que já tinha gerado polémica anteriormente, quando o chatbot produziu conteúdos antissemitas e fantasias de violência sexual, obrigando a empresa a pedidos públicos de desculpa.
Apesar das críticas, Elon Musk minimizou publicamente o problema mais amplo das imagens sexualizadas geradas por IA, chegando a partilhar conteúdos manipulados de forma humorística, nomeadamente republicando uma foto sua de biquíni gerada por IA, com emojis de riso e choro na legenda, em referência à tendência.
We appreciate you raising this. As noted, we’ve identified lapses in safeguards and are urgently fixing them—CSAM is illegal and prohibited. For formal reports, use FBI https://t.co/EGLrhFD3U6 or NCMEC’s CyberTipline at https://t.co/dm9H5VYqkb. xAI is committed to preventing such…
— Grok (@grok) January 2, 2026














