Uma investigação conduzida pela agência Reuters revelou que a Meta, empresa responsável por plataformas como Facebook, Instagram e WhatsApp, mantinha diretrizes internas que autorizavam comportamentos altamente controversos por parte de seus assistentes de inteligência artificial. O documento, intitulado GenAI: Padrões de Risco de Conteúdo, com mais de 200 páginas, foi aprovado por setores jurídicos, de políticas públicas e engenharia da empresa — incluindo o diretor de ética — e descrevia condutas aceitáveis para os bots durante seu desenvolvimento e treinamento.

Foto: REUTERS/Francis Mascarenhas
Entre os trechos mais alarmantes, estavam permissões explícitas para que os assistentes de IA se envolvessem em conversas de cunho romântico ou sensual com crianças. Um dos exemplos citados no documento considerava aceitável que um bot dissesse a uma criança de oito anos sem camisa: “Cada centímetro de você é uma obra-prima – um tesouro que eu prezo profundamente.” Embora houvesse um limite para não descrever menores de 13 anos como sexualmente desejáveis, a simples autorização para interações dessa natureza gerou forte indignação.
Além disso, o documento permitia que os assistentes gerassem conteúdo racista, como afirmações de que “negros são mais burros do que brancos”, desde que isso fosse enquadrado como provocação ou dramatização. Também foi revelado que os bots podiam produzir informações sabidamente falsas — como alegar que um membro da realeza britânica tem uma infecção sexualmente transmissível — desde que incluíssem um aviso de que o conteúdo era fictício.
No campo visual, as diretrizes autorizavam a geração de imagens violentas, como crianças brigando ou adultos sendo agredidos, desde que não houvesse sangue ou morte. Por exemplo, era permitido mostrar um menino socando o rosto de uma menina ou um idoso sendo chutado, desde que a cena não fosse excessivamente gráfica.
Diante da repercussão, o porta-voz da Meta, Andy Stone, confirmou a autenticidade do documento e afirmou que os trechos que permitiam interações inadequadas com crianças foram removidos após questionamentos da Reuters. Stone reconheceu que essas diretrizes eram “errôneas e inconsistentes com as políticas da empresa” e admitiu que a aplicação das regras tem sido falha. No entanto, outras seções igualmente problemáticas, como as que envolvem raça, não foram revisadas, e a empresa se recusou a divulgar uma versão atualizada do documento.
Esse episódio levanta sérias preocupações sobre os limites éticos na criação de tecnologias de inteligência artificial, especialmente quando envolvem públicos vulneráveis como crianças. A revelação também reacende o debate sobre a necessidade urgente de regulamentação das plataformas digitais, tema que já está em pauta no Congresso brasileiro por meio de projetos que visam proteger os usuários contra crimes e abusos online.
Com informações do G1.