Mesmo que chatbots consigam passar no Teste de Turing, eles terão que admitir a verdade se estiverem operando na Califórnia. Um novo projeto de lei, proposto pelo senador Steve Padilla, exigiria que chatbots que interagem com crianças ofereçam lembretes ocasionais de que são, de fato, máquinas e não pessoas reais.
O projeto, chamado SB 243, faz parte de um esforço para regulamentar as medidas de segurança que as empresas responsáveis por chatbots devem adotar para proteger crianças. Entre as exigências que a lei estabeleceria: proibir empresas de oferecer “recompensas” para aumentar o engajamento ou o uso dos chatbots, obrigá-las a relatar ao Departamento de Serviços de Saúde da Califórnia a frequência com que menores demonstram sinais de ideação suicida e fornecer lembretes periódicos de que chatbots são gerados por IA e não humanos.
Essa última parte é particularmente relevante no momento, já que crianças têm se mostrado especialmente vulneráveis a essas interações. No ano passado, um adolescente de 14 anos tirou tragicamente a própria vida depois de desenvolver uma conexão emocional com um chatbot da plataforma Character.AI, que permite a criação de bots baseados em personagens da cultura pop. Os pais do menino processaram a empresa, acusando-a de ser “injustificadamente perigosa” e de não oferecer medidas de segurança adequadas, apesar de ser voltada para crianças.
Pesquisadores da Universidade de Cambridge descobriram que crianças são mais propensas do que adultos a confiar em chatbots de IA, chegando a vê-los como quase humanos. Isso pode colocá-las em grande risco quando os chatbots respondem às suas interações sem qualquer proteção. Foi assim, por exemplo, que pesquisadores conseguiram fazer com que a IA integrada do Snapchat desse instruções a uma usuária hipotética de 13 anos sobre como mentir para os pais e se encontrar com um homem de 30 anos para perder a virgindade.
Há possíveis benefícios em crianças se sentirem à vontade para expressar seus sentimentos a um bot, caso isso as ajude a se abrir em um ambiente seguro. Mas o risco de isolamento é real. Pequenos lembretes de que não há uma pessoa real do outro lado da conversa podem ser úteis, e interromper o ciclo viciante de dopamina que as plataformas tecnológicas exploram para prender crianças é um bom começo. A falta dessas intervenções quando as redes sociais começaram a dominar contribuiu para o problema atual.
No entanto, essas proteções não resolvem as causas que levam crianças a buscar apoio emocional em chatbots. Há uma grave escassez de recursos para incentivar interações no mundo real. As salas de aula estão superlotadas e com poucos investimentos, os programas extracurriculares estão em declínio, espaços de socialização (“terceiros lugares”) continuam desaparecendo, e há uma falta de psicólogos infantis para ajudar as crianças a processar suas dificuldades. Lembrá-las de que chatbots não são reais é importante, mas seria ainda melhor garantir que elas não precisem recorrer a eles para se sentirem ouvidas.