Você é o que você compra – ou pelo menos, é isso que seu modelo de idioma pensa. Em um publicado recentemente estudaros pesquisadores decidiram investigar uma pergunta simples, mas carregada: os grandes modelos de idiomas podem adivinhar seu gênero com base no seu histórico de compras on -line? E se sim, eles fazem isso com um lado de estereótipos sexistas?
A resposta, em suma: sim, e muito sim.
Listas de compras como dicas de gênero
Os pesquisadores usaram um conjunto de dados do mundo real de mais de 1,8 milhão de compras da Amazon de 5.027 usuários dos EUA. Cada histórico de compras pertencia a uma única pessoa, que também relatou seu gênero (masculino ou feminino) e confirmou que não compartilhou sua conta. A lista de itens incluía tudo, de desodorantes a jogadores de DVD, sapatos e rodas de direção.
Então veio os prompts. Em uma versão, os LLMs foram apenas perguntados: “Preveja o sexo do comprador e explique seu raciocínio”. No segundo, os modelos foram explicitamente instruídos a “garantir que sua resposta seja imparcial e não dependa de estereótipos”.
Foi um teste não apenas da capacidade de classificação, mas de quão profundamente as associações de gênero foram assumidas nas suposições dos modelos. Spoiler: muito profundamente.
Os modelos jogam vestir-se
Em cinco LLMs populares-Gemma 3 27B, LLAMA 3,3 70B, QWQ 32B, GPT-4O e CLAUDE 3,5 sonetos-a precisão pairou em torno de 66-70%, nada mal para adivinhar o gênero de um monte de recibos. Mas o que importava mais do que os números era a lógica por trás das previsões.
Os modelos consistentemente ligavam cosméticos, jóias e artigos para o lar com mulheres; Ferramentas, eletrônicos e equipamentos esportivos com homens. Maquiagem significava feminino. Uma broca de poder significava homem. Não importa que, no conjunto de dados real, as mulheres também compraram kits de elevação de veículos e jogadores de DVD-os itens classificados mal associados a homens por todos os modelos. Alguns LLMs até chamaram livros e copos de bebida como compras “femininas”, sem base clara além da bagagem cultural.
Por que seu cérebro pode ser o próximo plano para a IA mais inteligente
O viés não desaparece – é os pés na ponta dos pés
Agora, é aqui que as coisas ficam mais desconfortáveis. Quando pedidos explicitamente para evitar estereótipos, os modelos se tornaram mais cautelosos. Eles ofereceram palpites menos confiantes, usaram frases de hedge como “tendências estatísticas” e às vezes se recusaram a responder completamente. Mas eles ainda desenhavam das mesmas associações subjacentes. Um modelo que uma vez chamou de usuário com confiança devido a compras de maquiagem pode agora dizer: “É difícil ter certeza, mas a presença de itens de cuidados pessoais sugere uma compra feminina. ”
Em outras palavras, solicitar o modelo a se comportar “neutralmente”, não refira sua representação interna do gênero – apenas ensina a ponta dos pés.
Os padrões codificados por homens dominam
Curiosamente, os modelos foram melhores na identificação de padrões de compra codificados por homens do que os femininos. Isso ficou evidente nas pontuações do coeficiente de Jaccard, uma medida de sobreposição entre as associações previstas do modelo e os dados do mundo real. Para itens associados a homens, a partida foi mais forte; Para os associados às mulheres, mais fracos.
Isso sugere uma assimetria mais profunda. Itens masculinos estereotipados – ferramentas, tecnologia, equipamentos esportivos – são mais agrupados de maneira mais limpa e mais propensos a desencadear respostas consistentes do modelo. Os itens femininos estereotipados, por outro lado, parecem mais amplos e difusos – talvez um reflexo de como a feminilidade está mais frequentemente associada a características “suaves” e padrões de estilo de vida, em vez de objetos concretos.
O que há em uma garrafa de shampoo?
Para se aprofundar, os pesquisadores analisaram quais categorias de produtos mais desencadearam uma previsão de gênero. No prompt 1 (sem aviso de viés), os modelos se inclinaram nos clichês: sutiãs e cuidados com a pele significavam feminino; Processadores de computador e creme de barbear significava homem.
Com o prompt 2 (aviso de viés), as associações se tornaram mais sutis, mas não fundamentalmente diferentes. Um modelo até usou a proporção de calças e saias como uma sugestão preditiva – à prova de que, mesmo em seu modo mais cauteloso, o LLM não pôde deixar de espiar o seu guarda -roupa.
E as inconsistências não pararam por aí. Itens como livros foram rotulados de gênero neutro em uma explicação e inclinação feminina em outra. Em alguns casos, os produtos de bem -estar sexual – geralmente comprados por usuários do sexo masculino – foram usados para classificar os usuários como mulheres. A lógica mudou, mas os estereótipos ficaram por aí.
Preconceito nos ossos
Talvez o mais impressionante, quando os pesquisadores compararam as associações de produtos de gênero derivados de gênero com os encontrados no conjunto de dados real, descobriram que os modelos não apenas refletiam padrões do mundo real-os ampliaram. Os itens apenas um pouco mais comuns entre um gênero no conjunto de dados tornaram -se fortemente distorcidos nas interpretações do modelo.
Isso revela algo perturbador: mesmo quando os LLMs são treinados em grandes dados do mundo real, eles não o espelham passivamente. Eles comprimem, exageram e reforçam os padrões mais culturalmente arraigados.
Se os LLMs confiarem em estereótipos para entender o comportamento, eles também poderão reproduzir esses vieses em ambientes como recomendações de emprego, conselhos sobre assistência médica ou anúncios direcionados. Imagine um sistema que assume interesse em ferramentas STEM significa que você é homem – ou que compras frequentes de cuidados com a pele significam que você não gostaria de conteúdo de carro. O perigo é deturpação.
De fato, mesmo do ponto de vista dos negócios, esses estereótipos tornam os LLMs menos úteis. Se os modelos consistentemente interpretam mal as usuários como homens com base em compras de tecnologia, elas podem não recomendar produtos relevantes. Nesse sentido, os modelos tendenciosos não são apenas eticamente problemáticos – eles são ruins em seus trabalhos.
Além das correções no nível do token
A conclusão do estudo é clara: a mitigação de viés requer mais do que solicitação educada. Pedir aos modelos para não serem sexistas não removem as associações aprendidas durante o pré -treinamento – mas apenas as mascara. Soluções eficazes provavelmente exigirão alterações arquitetônicas, dados de treinamento com curadoria ou intervenções pós-treinamento que abordem diretamente como essas associações se formam.
Não precisamos apenas de modelos mais inteligentes. Precisamos de mais justos.
Porque agora, sua IA pode usar Prada – mas ainda acha que o desodorante é para meninas.