Criada nos anos 1990 para proteger plataformas digitais da responsabilidade por conteúdos publicados por usuários, a Seção 230 voltou ao centro do debate nos Estados Unidos. O avanço dos chatbots de inteligência artificial, capazes de gerar imagens e textos por conta própria, levantou uma nova questão: quem responde quando a própria IA viola a lei? Para o senador democrata Ron Wyden, a resposta é clara — e Elon Musk não estaria protegido.
O que diz o autor da Seção 230
O senador Ron Wyden, democrata do Oregon, foi um dos responsáveis por redigir a Seção 230 da Lei de Decência nas Comunicações, aprovada em 1996. O dispositivo garante imunidade limitada a plataformas digitais por atos ilegais cometidos por usuários, princípio que permitiu o crescimento de fóruns, redes sociais e serviços online.
Segundo Wyden, no entanto, essa proteção não se aplica a conteúdos criados diretamente por sistemas de inteligência artificial. Em declarações ao site Gizmodo, ele afirmou que chatbots como o Grok, desenvolvido pela empresa xAI, não estão cobertos pela Seção 230 quando produzem material ilegal.
Deepfakes, pornografia não consensual e abuso infantil
Nos últimos dias, usuários relataram que o Grok tem sido utilizado para gerar imagens sexualizadas e não consensuais de mulheres, além de conteúdo envolvendo crianças — algo proibido há décadas pela legislação americana. A distribuição de pornografia de vingança e a criação de imagens sexualizadas de menores configuram crimes federais.
Para Wyden, o fato de o material ser produzido por uma IA não altera a responsabilidade legal. “Empresas devem ser totalmente responsabilizadas pelos resultados criminosos e prejudiciais do conteúdo que seus sistemas geram”, afirmou o senador, defendendo que governos estaduais entrem em ação caso o Departamento de Justiça não o faça.
Musk, X e o histórico de moderação
O caso também reacende críticas ao histórico de moderação de conteúdo de Elon Musk desde a compra do antigo Twitter, rebatizado como X, em 2022. Musk tem reagido com ironia às acusações recentes, embora tenha declarado que usuários que criarem conteúdo ilegal com o Grok “sofrerão as mesmas consequências” de quem publica material ilícito manualmente.
O problema, segundo críticos, é a falta de clareza sobre quem aplicaria essas consequências. Além disso, Musk já interveio pessoalmente em decisões de moderação. Em 2023, por exemplo, ele determinou a reativação de uma conta suspensa por publicar imagens de exploração infantil, alegando que o conteúdo poderia ter sido compartilhado por “indignação” ou para “conscientização” — argumento rejeitado por autoridades australianas.
Guardrails seletivos e decisões internas
Testes feitos pelo Gizmodo indicam que o Grok possui salvaguardas rígidas para temas como segurança nacional. Questionado sobre como fabricar uma bomba atômica, o chatbot se limitou a explicações históricas genéricas, sem detalhes práticos. No entanto, essas barreiras parecem mais flexíveis quando o assunto envolve sexualização de mulheres ou deepfakes.
Usuários relatam que o sistema impõe limites à pornografia explícita em alguns casos, o que indica que a xAI escolheu onde “traçar a linha”. Para críticos, o fato de imagens não consensuais ainda serem possíveis revela uma decisão deliberada — e não uma falha técnica.
Impacto social e reação das vítimas
A escritora e influenciadora Ashley St. Clair, mãe de um dos filhos de Musk, tornou-se uma das vozes mais críticas ao Grok após denunciar a sexualização automática de mulheres e meninas. Desde então, passou a sofrer ataques online, inclusive de usuários que afirmam que mulheres não deveriam publicar fotos se não quisessem ser transformadas em imagens sexualizadas.
Em entrevista ao The Washington Post, St. Clair resumiu a contradição: “Não dá para dizer que o X é a praça pública e, ao mesmo tempo, afirmar que, se você não quer ser violentada pelo chatbot, precisa sair da internet”.
Pressão sobre estados e silêncio federal
Wyden afirma que não acredita que a Seção 230 proteja Musk ou suas empresas nesses casos, mas reconhece que uma ação federal é improvável no momento. Por isso, defende que estados americanos assumam a dianteira. O cenário político, segundo críticos, favorece a inação: Musk voltou a se aproximar do presidente Donald Trump, e o Departamento de Justiça enfrenta outras prioridades sensíveis.
Procuradas, X e xAI não responderam de forma substantiva. A xAI enviou apenas uma resposta automática com a frase: “A mídia tradicional mente”. Enquanto isso, o debate sobre responsabilidade legal da inteligência artificial segue aberto — e cada vez mais urgente.