Entidades Exigem Ação Rápida da Plataforma X
Recentemente, o Ministério Público Federal (MPF), a Agência Nacional de Proteção de Dados (ANPD) e a Secretaria Nacional do Consumidor (Senacon) chegaram a uma conclusão alarmante: as respostas apresentadas pela plataforma X em relação à sua ferramenta de inteligência artificial (IA), conhecida como Grok, são insuficientes. Essa ferramenta vem sendo utilizada de forma inadequada para gerar e disseminar imagens de indivíduos em contextos de sexualização, sem a devida autorização.
No mês anterior, as três entidades já haviam emitido uma série de recomendações à plataforma X. Dentre as orientações, estavam a implementação de processos técnicos e operacionais para identificar, revisar e eliminar conteúdos gerados pelo Grok que estejam disponíveis na rede e que violem as diretrizes de segurança e ética. A expectativa era que a empresa atuasse proativamente na proteção de usuários e no combate à produção de conteúdo nocivo.
Entretanto, a resposta da plataforma X foi considerada insatisfatória. Em sua defesa, a empresa informou que havia removido milhares de publicações e suspendido várias contas por violação de suas políticas. Além disso, garantiu ter adotado novas medidas de segurança. Contudo, as instituições constataram que essas informações não foram acompanhadas de evidências concretas, como relatórios técnicos ou mecanismos de monitoramento que comprovassem a efetividade das ações.
Recentes testes preliminares realizados pelas equipes técnicas do MPF, ANPD e Senacon apontaram que as falhas persistem. A continuidade da geração e circulação de conteúdos em desacordo com as recomendações alerta para a urgência de ações mais eficazes. “Em nossa nota, destacamos a necessidade de a plataforma X implementar, imediatamente, medidas efetivas para impedir a criação de conteúdos sexualizados ou erotizados envolvendo crianças e adolescentes, assim como adultos que não tenham dado consentimento”, afirmaram os representantes das entidades.
Medidas e Consequências Potenciais
Além das recomendações, as instituições também exigiram esclarecimentos sobre as providências já adotadas pela plataforma para solucionar os problemas detectados anteriormente. O MPF, por sua vez, determinou que a empresa forneça relatórios mensais sobre suas ações para combater o problema e enfatizou a falta de transparência da plataforma em suas respostas.
A ANPD, o MPF e a Senacon estão atuando de forma coordenada na investigação do uso indevido da ferramenta Grok. Cada uma dessas instituições possui um procedimento administrativo aberto contra a plataforma, respeitando suas áreas de competência. A ANPD, por exemplo, exige que as medidas preventivas abrangem todas as versões e modalidades do Grok, garantindo que todos os usuários estejam protegidos.
Do lado do MPF, a exigência de relatórios mensais, a partir de fevereiro, é uma estratégia para monitorar como a plataforma está combatendo a produção de deepfakes, especialmente aqueles que envolvem crianças e adolescentes, além de adultos que não consentiram. As instituições querem saber quantas postagens nocivas foram removidas e quantas contas foram suspensas em cada período reportado.
Se a plataforma X não cumprir com as solicitações, poderá enfrentar penalidades financeiras diárias. Além disso, os responsáveis podem ser acusados de desobediência, e a empresa pode sofrer consequências legais mais severas, incluindo ações judiciais, conforme alertou o MPF.
Relatórios e Acompanhamento Rigoroso
Em um esforço para garantir a transparência e a responsabilidade, a Senacon também requisitou a comprovação das ações já tomadas pela plataforma para mitigar os riscos identificados. Será preciso apresentar um relatório detalhado, contendo dados quantitativos sobre a identificação, a moderação e a remoção de conteúdos sexualizados que estão ligados à operação do Grok, incluindo métricas sobre o número de conteúdos removidos, tempos de resposta e critérios técnicos utilizados. Tal acompanhamento é fundamental para assegurar que as ações corretivas sejam efetivas e que a proteção dos usuários seja realmente implementada.
Este cenário ressalta a importância de um monitoramento constante das ferramentas de inteligência artificial e das responsabilidades das plataformas na proteção de seus usuários. O apelo por ações imediatas e efetivas é um reflexo da crescente preocupação com a segurança e a privacidade na era digital.


