Pular para o conteúdo

Grupo que defende verificação de idade em IA escondia financiamento da OpenAI, diz reportagem

Uma coalizão que promove regras mais rígidas para proteger menores no uso de inteligência artificial virou alvo de controvérsia. Segundo uma investigação jornalística, a iniciativa teria sido financiada quase integralmente pela OpenAI — algo que nem todos os envolvidos sabiam.

O debate sobre segurança digital e inteligência artificial ganhou um novo capítulo nos Estados Unidos. Uma reportagem do San Francisco Standard revelou que a OpenAI teria financiado de forma pouco transparente uma coalizão que pressiona por leis de verificação de idade em sistemas de IA. O caso levanta dúvidas sobre transparência, influência corporativa e interesses por trás de propostas regulatórias.

Uma coalizão com apoio oculto

A organização no centro da controvérsia é a Parents and Kids Safe AI Coalition, criada para impulsionar o projeto de lei conhecido como “Parents and Kids Safe AI Act”, apresentado na Califórnia.

A proposta prevê que empresas de inteligência artificial implementem mecanismos de verificação de idade e proteções adicionais para usuários menores de 18 anos.

Embora a iniciativa tenha sido divulgada como um esforço coletivo de organizações voltadas à segurança infantil, muitos participantes afirmam que não sabiam da principal fonte de financiamento.

OpenAI como principal financiadora

Segundo a reportagem, a OpenAI não apenas apoiava o projeto — ela era sua maior financiadora.

Em alguns relatos, a coalizão teria sido descrita como “inteiramente financiada” pela empresa. Um levantamento anterior do The Wall Street Journal já havia indicado que a OpenAI prometeu cerca de US$ 10 milhões para impulsionar a proposta legislativa.

O ponto mais sensível é que esse apoio não teria sido claramente comunicado a outros grupos envolvidos na campanha.

Reações de surpresa e desconforto

A descoberta gerou desconforto entre organizações e líderes que apoiaram a iniciativa.

Segundo relatos, alguns participantes se sentiram enganados ao perceber que estavam, indiretamente, alinhados a uma grande empresa de tecnologia sem transparência total sobre esse vínculo.

Um líder de organização sem fins lucrativos descreveu a situação como “uma sensação muito desagradável”, destacando que as comunicações recebidas eram, no mínimo, ambíguas.

Estratégia de influência ou falta de transparência?

O episódio reacende um debate recorrente: até que ponto empresas de tecnologia devem influenciar políticas públicas — e como isso deve ser feito.

A OpenAI já é conhecida por investir em lobby e em iniciativas regulatórias. No entanto, neste caso, a crítica não está apenas no apoio, mas na forma como ele foi conduzido.

A ausência do nome da empresa em materiais de divulgação e comunicações da coalizão levanta questionamentos sobre transparência e ética.

Um possível conflito de interesses

Outro ponto que chamou atenção é a possível sobreposição de interesses.

O projeto de lei foca justamente em verificação de idade — uma área que também envolve iniciativas ligadas ao CEO da OpenAI, Sam Altman.

Isso levanta suspeitas de que a empresa possa se beneficiar diretamente de regulamentações que ajudou a promover, ainda que indiretamente.

Embora não haja evidências de irregularidade formal, a coincidência reforça o debate sobre conflito de interesses em políticas tecnológicas.

O silêncio da empresa

Até o momento da publicação da reportagem, a OpenAI não havia respondido aos pedidos de comentário sobre o caso.

Esse silêncio contribui para aumentar a pressão pública por esclarecimentos — especialmente em um momento em que a regulação da inteligência artificial está no centro das discussões globais.

Um debate que está só começando

O caso ilustra um dilema crescente: como regular tecnologias emergentes sem que o processo seja capturado por interesses privados.

Por um lado, empresas como a OpenAI possuem conhecimento técnico essencial para orientar políticas públicas. Por outro, sua influência pode distorcer prioridades ou gerar desconfiança.

No fim, a discussão não é apenas sobre verificação de idade ou proteção de menores.

É sobre quem molda as regras da inteligência artificial — e com que nível de transparência isso acontece.

 

Você também pode gostar

Modo

Follow us