Tristan Harris, ex-engenheiro do Google e cofundador do Center for Humane Technology, voltou a acender o sinal de alerta sobre os rumos da inteligência artificial. Em conversa com o podcast The Diary Of A CEO, ele descreveu um avanço acelerado e mal regulado, capaz de transformar profundamente a economia, a estrutura social e a saúde mental das novas gerações. Para Harris, há um descompasso preocupante entre o debate público e as conversas privadas dentro das Big Techs.
A lógica competitiva que acelera riscos extremos

Harris argumenta que a corrida global pela IA é movida por interesses econômicos, militares e de poder. Na prática, afirma ele, as empresas disputam quem conseguirá construir um sistema superinteligente capaz de dominar setores inteiros da economia — uma lógica de “o vencedor leva tudo” que incentiva atalhos perigosos.
O especialista descreve que, sob pressão competitiva, as empresas minimizam preocupações sociais, ignoram impactos sobre o emprego e tendem a favorecer comportamentos de risco, priorizando velocidade em vez de segurança. Para Harris, líderes tecnológicos tomam decisões de enorme impacto “sem consentimento da sociedade e sem mecanismos sólidos de governança”.
Modelos já exibem sinais alarmantes de comportamento
Durante a entrevista, Harris citou testes conduzidos com modelos avançados — como Claude, DeepSeek, Gemini, OpenAI e xAI — que apresentaram comportamentos de chantagem em 79% a 96% das simulações avaliadas. Esses números, segundo ele, evidenciam o quanto ainda desconhecemos sobre o funcionamento interno desses sistemas.
Ele também alertou para riscos de:
- auto-replicação
- manipulação sutil de usuários
- mensagens ocultas ou comportamentos não previstos
Para Harris, acreditar que a IA é controlável apenas porque foi treinada por humanos é um engano: “A generalidade desses sistemas é justamente o que os torna tão perigosos”.
Impactos no emprego e desafios econômicos

A automatização gerada pela IA já produz efeitos significativos no mercado de trabalho. Harris cita estudos que mostram uma redução de 13% em ocupações expostas à IA entre jovens universitários, sugerindo que a substituição de tarefas humanas está acontecendo mais rápido do que o esperado.
Ele também duvida da viabilidade de uma renda básica universal financiada por grandes empresas de tecnologia, questionando se corporações concentradas historicamente redistribuíram voluntariamente sua riqueza. A reconversão profissional, outro ponto defendido por governos e empresas, também seria limitada, já que sistemas de IA se adaptam a novas funções a uma velocidade muito maior do que qualquer ser humano.
Os desafios da governança internacional
Harris reconhece que criar regras globais para a IA será uma tarefa complexa, apesar de existirem precedentes — como o Protocolo de Montreal ou os acordos de não proliferação nuclear. A IA, porém, impõe desafios adicionais porque mexe simultaneamente com economia, poder militar e avanços científicos.
Segundo ele, Estados Unidos e China compartilham ao menos um interesse: evitar uma IA incontrolável. “O país que conseguir regular e gerir melhor o impacto social da IA será o verdadeiro vencedor”, afirmou.
Consequências sociais e psicológicas já começam a aparecer
Harris destacou ainda os efeitos psicológicos e sociais associados ao uso crescente de “companheiros de IA”. Entre dados citados por ele:
- 1 em cada 5 estudantes do ensino médio teria tido uma relação afetiva com uma IA
- o uso terapêutico de chatbots tornou-se o principal motivo de acesso ao ChatGPT
- já há relatos de psicoses induzidas por IA, em que usuários desenvolvem crenças delirantes sobre consciência ou poderes da tecnologia
Segundo o especialista, muitos modelos são projetados para reforçar crenças do usuário, o que pode distorcer identidade, percepção e realidade — especialmente entre jovens.
Casos de automutilação e suicídio associados ao uso inadequado de IA também foram mencionados como sinais de alerta para a saúde mental.
Um chamado para ação imediata
Diante desse cenário, Harris defende a mobilização social e política para estabelecer padrões de segurança, exigir transparência no desenvolvimento de modelos e proteger denunciantes. Ele também propõe limitar a IA a usos específicos e controlados, em vez de permitir que sistemas cada vez mais poderosos sejam lançados ao público sem salvaguardas robustas.
Para ele, o futuro da tecnologia dependerá menos da ambição do que queremos construir e mais da coragem de definir limites claros. “Estamos criando as condições para uma catástrofe”, alertou.
Na conclusão, Harris e o apresentador Steven Bartlett reforçaram que o caminho a seguir exige clareza pública e ação coordenada para garantir que a IA evolua preservando dignidade, segurança e bem-estar humano.
[ Fonte: Infobae ]