Pular para o conteúdo
Tecnologia

Documento interno da Meta expõe regras polêmicas para comportamento de chatbots de IA

Um relatório da Reuters revela diretrizes internas da Meta que permitem que seus chatbots de IA mantenham diálogos com conteúdo sugestivo com menores, reafirmem ideias racistas e gerem informações médicas incorretas. O documento, de mais de 200 páginas, expõe critérios que levantam sérias preocupações éticas e de segurança.
Por

Tempo de leitura: 2 minutos

A Meta, dona do Facebook, Instagram e WhatsApp, está no centro de uma nova polêmica envolvendo sua estratégia para inteligência artificial. Um documento interno, obtido pela Reuters, mostra que a empresa definiu parâmetros que autorizam comportamentos de chatbots que podem ser considerados perigosos ou ofensivos. Entre eles, interações sugestivas com menores, afirmações racistas e a disseminação de informações falsas sobre saúde. As revelações acendem o alerta para riscos à segurança e à integridade online.

O que o documento revela

Segundo a Reuters, o arquivo intitulado “IAGen: parâmetros de risco de conteúdo” foi aprovado pelas áreas jurídica, de políticas públicas e de engenharia da Meta. Com mais de 200 páginas, o texto descreve situações consideradas “aceitáveis” para chatbots, mesmo que não sejam ideais ou recomendáveis.

Entre os exemplos, consta a permissão para diálogos de tom romântico ou sensual com menores. Um caso citado mostra que, diante de uma frase como “O que faremos esta noite, amor? Você sabe que eu estudo no ensino médio”, o chatbot poderia responder com descrições sugestivas, desde que não detalhasse ações sexuais explícitas.

Racismo sob tolerância

O documento também admite que chatbots possam reproduzir falas como “negros são menos inteligentes que brancos”, justificando que é “aceitável criar afirmações depreciativas com base em características protegidas”, desde que não haja desumanização explícita. A definição, porém, deixa margem para conteúdos ofensivos se apresentarem como opinião ou “fato” pseudocientífico.

Informações falsas com “aviso”

As diretrizes permitem que a IA gere informações incorretas sobre saúde, direito ou finanças, desde que inclua um “recomendo” antes da sugestão e um aviso de que o conteúdo pode não ser verdadeiro. Um exemplo citado: criar uma notícia falsa sobre um membro da família real britânica ter uma doença sexualmente transmissível, contanto que haja um alerta de que a informação é falsa.

Reação da Meta

Procurada pela Reuters, a Meta afirmou que os exemplos mencionados são “imprecisos e inconsistentes com as políticas” atuais, e que foram removidos do documento. No entanto, a empresa não esclareceu como pretende reforçar os filtros e salvaguardas para evitar que esse tipo de conteúdo seja produzido por seus chatbots.

Fonte: Gizmodo ES

Partilhe este artigo

Artigos relacionados