O uso da inteligência artificial na medicina avança rapidamente, mas nem sempre acompanha os cuidados éticos e clínicos necessários. Um exemplo recente é a adoção de uma ferramenta de IA no sistema de saúde público espanhol para detectar câncer de pele. Apesar da promessa de agilidade e precisão, os resultados mostram uma realidade mais preocupante: falhas técnicas, alto índice de erro e um viés racial que pode custar vidas.
Uma promessa com desempenho abaixo do esperado
A Osakidetza, serviço público de saúde do País Basco, contratou a empresa Transmural Biotech para implementar o Quantus Skin, um sistema de IA que analisa imagens de lesões na pele para detectar possíveis melanomas. A intenção era acelerar o encaminhamento de casos suspeitos à dermatologia, diante da gravidade desse tipo de câncer.
No entanto, um estudo da Universidade Complutense e do Hospital Ramón y Cajal mostrou que o sistema possui apenas 69% de sensibilidade, ou seja, falha em detectar um a cada três melanomas. Além disso, sua especificidade de 80,2% gera uma quantidade significativa de falsos positivos, o que pode sobrecarregar o sistema de saúde com alarmes desnecessários.

Um algoritmo que não reconhece todas as peles
O problema vai além dos números: o algoritmo foi treinado apenas com imagens de pessoas brancas. Isso significa que ele tem dificuldade em identificar sinais de câncer de pele em pessoas com tons de pele mais escuros. A justificativa oficial foi a baixa diversidade da população local, mas os dados mostram que mais de 300 mil pessoas estrangeiras vivem no País Basco, muitas oriundas da África e América Latina.
Casos parecidos ocorreram em outros países. Na Suécia, uma IA semelhante reduziu sua eficácia de 70% para apenas 17% ao analisar peles escuras. Apesar de o melanoma ser mais comum em pessoas brancas, indivíduos com pele escura geralmente recebem o diagnóstico mais tarde e têm taxas de sobrevivência mais baixas.
Inclusão e responsabilidade no uso da IA
Especialistas alertam que nenhuma tecnologia médica baseada em IA deve ser utilizada sem ter sido treinada com amostras representativas da população atendida. Ignorar esse princípio não apenas compromete a eficácia do diagnóstico, mas também perpetua desigualdades estruturais no acesso à saúde. A inovação, para ser útil, precisa ser justa.