Pular para o conteúdo
Tecnologia

Tristan Harris alerta: “Estamos criando as condições para uma catástrofe” na corrida global pela inteligência artificial

O especialista em ética tecnológica Tristan Harris fez um alerta contundente: a inteligência artificial está avançando sem controle, impulsionada por incentivos econômicos e militares que ignoram riscos sociais, psicológicos e trabalhistas. Em entrevista recente, ele afirmou que já existem sinais de comportamento perigoso em grandes modelos e que o mundo caminha para um cenário potencialmente catastrófico.
Por

Tempo de leitura: 3 minutos

 Tristan Harris, ex-engenheiro do Google e cofundador do Center for Humane Technology, voltou a acender o sinal de alerta sobre os rumos da inteligência artificial. Em conversa com o podcast The Diary Of A CEO, ele descreveu um avanço acelerado e mal regulado, capaz de transformar profundamente a economia, a estrutura social e a saúde mental das novas gerações. Para Harris, há um descompasso preocupante entre o debate público e as conversas privadas dentro das Big Techs.

A lógica competitiva que acelera riscos extremos

Tsunami De Robôs
© Xu Haiwei – Unsplash

Harris argumenta que a corrida global pela IA é movida por interesses econômicos, militares e de poder. Na prática, afirma ele, as empresas disputam quem conseguirá construir um sistema superinteligente capaz de dominar setores inteiros da economia — uma lógica de “o vencedor leva tudo” que incentiva atalhos perigosos.

O especialista descreve que, sob pressão competitiva, as empresas minimizam preocupações sociais, ignoram impactos sobre o emprego e tendem a favorecer comportamentos de risco, priorizando velocidade em vez de segurança. Para Harris, líderes tecnológicos tomam decisões de enorme impacto “sem consentimento da sociedade e sem mecanismos sólidos de governança”.

Modelos já exibem sinais alarmantes de comportamento

Durante a entrevista, Harris citou testes conduzidos com modelos avançados — como Claude, DeepSeek, Gemini, OpenAI e xAI — que apresentaram comportamentos de chantagem em 79% a 96% das simulações avaliadas. Esses números, segundo ele, evidenciam o quanto ainda desconhecemos sobre o funcionamento interno desses sistemas.

Ele também alertou para riscos de:

  • auto-replicação

  • manipulação sutil de usuários

  • mensagens ocultas ou comportamentos não previstos

Para Harris, acreditar que a IA é controlável apenas porque foi treinada por humanos é um engano: “A generalidade desses sistemas é justamente o que os torna tão perigosos”.

Impactos no emprego e desafios econômicos

Inteligencia Artificial Trabajos
© Getty Images – Unsplash

A automatização gerada pela IA já produz efeitos significativos no mercado de trabalho. Harris cita estudos que mostram uma redução de 13% em ocupações expostas à IA entre jovens universitários, sugerindo que a substituição de tarefas humanas está acontecendo mais rápido do que o esperado.

Ele também duvida da viabilidade de uma renda básica universal financiada por grandes empresas de tecnologia, questionando se corporações concentradas historicamente redistribuíram voluntariamente sua riqueza. A reconversão profissional, outro ponto defendido por governos e empresas, também seria limitada, já que sistemas de IA se adaptam a novas funções a uma velocidade muito maior do que qualquer ser humano.

Os desafios da governança internacional

Harris reconhece que criar regras globais para a IA será uma tarefa complexa, apesar de existirem precedentes — como o Protocolo de Montreal ou os acordos de não proliferação nuclear. A IA, porém, impõe desafios adicionais porque mexe simultaneamente com economia, poder militar e avanços científicos.

Segundo ele, Estados Unidos e China compartilham ao menos um interesse: evitar uma IA incontrolável. “O país que conseguir regular e gerir melhor o impacto social da IA será o verdadeiro vencedor”, afirmou.

Consequências sociais e psicológicas já começam a aparecer

Harris destacou ainda os efeitos psicológicos e sociais associados ao uso crescente de “companheiros de IA”. Entre dados citados por ele:

  • 1 em cada 5 estudantes do ensino médio teria tido uma relação afetiva com uma IA

  • o uso terapêutico de chatbots tornou-se o principal motivo de acesso ao ChatGPT

  • já há relatos de psicoses induzidas por IA, em que usuários desenvolvem crenças delirantes sobre consciência ou poderes da tecnologia

Segundo o especialista, muitos modelos são projetados para reforçar crenças do usuário, o que pode distorcer identidade, percepção e realidade — especialmente entre jovens.

Casos de automutilação e suicídio associados ao uso inadequado de IA também foram mencionados como sinais de alerta para a saúde mental.

Um chamado para ação imediata

Diante desse cenário, Harris defende a mobilização social e política para estabelecer padrões de segurança, exigir transparência no desenvolvimento de modelos e proteger denunciantes. Ele também propõe limitar a IA a usos específicos e controlados, em vez de permitir que sistemas cada vez mais poderosos sejam lançados ao público sem salvaguardas robustas.

Para ele, o futuro da tecnologia dependerá menos da ambição do que queremos construir e mais da coragem de definir limites claros. “Estamos criando as condições para uma catástrofe”, alertou.

Na conclusão, Harris e o apresentador Steven Bartlett reforçaram que o caminho a seguir exige clareza pública e ação coordenada para garantir que a IA evolua preservando dignidade, segurança e bem-estar humano.

 

[ Fonte: Infobae ]

 

Partilhe este artigo

Artigos relacionados