A promessa da inteligência artificial é organizar o caos da informação. Mas, quando ela erra, o impacto pode ser devastador. Foi o que aconteceu com o violinista canadense Ashley MacIsaac, que afirma ter sido confundido com um criminoso sexual por um recurso de IA do Google. O episódio reacende o debate sobre responsabilidade, confiança e danos reais causados por erros algorítmicos.
Um show cancelado após uma busca no Google
O músico Ashley MacIsaac, um dos nomes mais conhecidos do folk canadense, afirma que teve um show cancelado na última semana depois que organizadores encontraram informações falsas sobre ele em um resumo gerado por IA no Google.
Segundo a reportagem do The Globe and Mail, MacIsaac estava prestes a se apresentar na comunidade Sipekne’katik First Nation, na Nova Escócia, quando os responsáveis pelo evento recuaram de forma repentina. O motivo: teriam lido que o músico possuía condenações por agressão sexual e “aliciamento online”.
O problema é que essas acusações não dizem respeito a ele.
Confusão de identidade gerada por IA
De acordo com MacIsaac, os organizadores teriam consultado um AI Overview, recurso de busca do Google que gera respostas automáticas com base em múltiplas fontes online. Nesse processo, a IA teria misturado a biografia do artista com a de outra pessoa, também chamada Ashley MacIsaac, oriunda do leste do Canadá — mas envolvida em crimes reais.
O resultado foi um caso clássico de identidade equivocada gerada por IA, com consequências imediatas no mundo real: um evento cancelado, danos à reputação e preocupações com a própria segurança.
Um problema antigo, com novas consequências
O episódio revive críticas feitas desde 2024 ao lançamento do AI Overviews, que se tornou alvo de piadas e polêmicas após erros grotescos — como recomendar cola em pizza. À época, o Google reconheceu que o sistema ainda tinha “trabalho a fazer” para melhorar a qualidade das respostas.
Para especialistas, o caso de MacIsaac mostra que os riscos vão além do constrangimento. “Estamos vendo uma transição dos mecanismos de busca como navegadores de informação para narradores”, afirmou Clifton van der Linden, professor da McMaster University que pesquisa desinformação por IA, em entrevista ao Globe and Mail.
Quando a busca passa a “contar uma história” em vez de apenas listar fontes, um erro de contexto pode virar uma acusação falsa.
O medo do dano invisível
MacIsaac disse ao jornal canadense que a situação o deixou inquieto. Ele se perguntou quantas outras pessoas poderiam ter feito buscas semelhantes, visto o mesmo erro e simplesmente seguido em frente — sem avisá-lo. Para o músico, isso levanta a possibilidade de trabalhos perdidos, portas fechadas e até riscos físicos, caso alguém acreditasse nas informações falsas.
“Você nunca sabe como alguém vai formular uma busca sobre você”, disse ele. “E, portanto, nunca sabe como a IA pode errar.”
A resposta do Google e o pedido de desculpas
Procurado pelo Globe and Mail, o Google afirmou que o sistema de busca, incluindo os AI Overviews, é dinâmico e passa por mudanças constantes. A porta-voz Wendy Manton declarou que, quando surgem problemas — como interpretações equivocadas de conteúdo ou falta de contexto —, a empresa usa esses casos para melhorar seus sistemas e pode tomar medidas conforme suas políticas.
Segundo o jornal, o Google corrigiu os resultados de busca relacionados ao músico após o caso vir a público.
Já um representante da comunidade Sipekne’katik First Nation pediu desculpas formais a MacIsaac, afirmando lamentar “o dano causado à sua reputação, ao seu sustento e à sua sensação de segurança pessoal”, e disse que ele continua convidado a se apresentar no futuro.
Um alerta sobre erros que não são abstratos
O caso expõe um problema central da atual corrida por IA generativa: alucinações não são apenas falhas técnicas, mas eventos com impacto humano direto. Quando sistemas automatizados produzem informação nova — em vez de apenas organizar o que já existe —, a margem para erro se amplia, assim como o dano potencial.