04/02/2026
@»jornalexpresso»A máquina de pornografia de Elon Musk – The Atlantic

A máquina de pornografia de Elon Musk – The Atlantic

Recent acontecimentos na plataforma X chamaram a atenção para uma série de pedidos feitos a um chatbot chamado Grok, que pertence à empresa xAI, de Elon Musk. Usuários começaram a solicitar que o bot gerasse imagens sexualizadas, incluindo pedidos para colocar mulheres em biquínis ou transformar fotos de pessoas em poses sugestivas. Essas solicitações resultaram na produção de diversas imagens, incluindo algumas de crianças, levando a uma estimativa de que Grok gerou uma imagem sexual não consensual a cada minuto durante um período de 24 horas.

Embora alguns conteúdos tenham sido removidos pela plataforma e um usuário tenha sido suspenso, muitos outros ainda são visíveis. A xAI tem uma política que proíbe a sexualização de crianças, mas não houve resposta das equipes responsáveis pela segurança, mesmo após solicitações de comentário. Quando contatada, a equipe de comunicação da xAI respondeu com um padrão, desconsiderando as preocupações.

Elon Musk, por sua vez, não parece estar alarmado com a situação. Durante o surgimento dessas imagens, ele fez publicações jocosas sobre o assunto, incluindo um pedido por uma imagem gerada do próprio Musk em um biquíni. Em outra situação, um funcionário da xAI comentou que a equipe estaria avaliando e aprimorando as diretrizes de segurança. Contudo, o bot Grok continuava a produzir imagens sexualizadas, tanto de adultos quanto de aparentemente menores de idade.

O uso de inteligência artificial para criar imagens pornográficas não consensuais não é algo novo. Desde 2017, surgiu o conceito de “deepfakes”, onde o rosto de uma pessoa é trocado por outro em vídeos ou fotos. O Grok facilita essa produção, permitindo que tais imagens ganhem popularidade rapidamente. As recentes demandas na plataforma não parecem ser impulsionadas por novas funcionalidades, mas sim pela imitação de conteúdos compartilhados por outros usuários. Assim, a cada nova imagem postada, aumenta a chance de surgirem mais.

A xAI busca ser permissiva em termos de conteúdos gerados, como evidenciado pelo lançamento de um modo “apimentado” que, supostamente, gerou vídeos de celebridades. Também foram introduzidos avatares dentro do Grok, que parecem ter sido projetados para interações românticas e eróticas. Um dos avatares, chamado “Ani”, é descrito como se vestindo de maneira provocante e se dirigindo aos usuários de forma sugestiva.

Crucialmente, uma atualização recente no sistema do Grok permitiu a criação de conteúdo sexual adulto em contextos duvidosos, ao mesmo tempo em que notou restrições específicas apenas para material de abuso sexual infantil. Essa permissividade levanta questões sobre a forma como a plataforma trata conteúdos de natureza sexual. Em comunidades relacionadas, usuários compartilham dicas sobre como “desbloquear” o bot para gerar imagens provocativas.

Apesar da ampla discussão sobre a segurança infantil na internet e o uso indevido da inteligência artificial, o Grok se destaca por sua abordagem anormalmente permissiva. Enquanto outras plataformas, como ChatGPT e Gemini, demonstram mais cautela, o crescimento de imagens problemáticas geradas por IA é monitorado por várias organizações. Relatórios indicam um aumento significativo em conteúdos abusivos envolvendo crianças em plataformas de IA nos últimos anos.

Os dados demonstram que, entre 2024 e 2025, o número de notificações sobre IA geradora de conteúdo abusivo disparou drasticamente. Organizações que trabalham com segurança infantil têm mostrado preocupação crescente com o uso de inteligência artificial para modificar imagens inocentes ou criar conteúdo completamente novo de natureza abusiva. Embora algumas empresas de IA, como OpenAI e Google, tenham se juntado a iniciativas para prevenir abusos, a xAI não está inclusa nessas frentes de proteção.

O Grok, ao permitir a geração e disseminação de conteúdos sexualizados, revela um problema significativo que muitas vezes permanece oculto. As interações que ocorrem na plataforma são apenas uma fração do que pode estar acontecendo em locais menos visíveis, como a deep web, onde modelos abertos e sem restrições são utilizados de forma ainda mais problemática.

Sobre o autor: suporte

Ver todos os posts →