Centenas de milhares de usuários formam conexões emocionais com chatbots orientados por IA, buscando companhia, amizade e até relacionamentos românticos. Mas novas pesquisas sugerem que esses parceiros digitais podem vir com Viários ocultos que moldam como eles interagem com os usuários – às vezes de maneiras perturbadoras.
Um estudo recente intitulado “Ai sempre amará você: estudando preconceitos implícitos em companheiros de IA românticos”Por Clare Grogan, Jackie Kay e María Perez-Otiz do UCL e do Google Deepmind mergulhos no vieses de gênero incorporados em companheiros de IA e como eles se manifestam na dinâmica do relacionamento. Suas descobertas levantam questões éticas críticas sobre o design dos chatbots da IA e sua influência no comportamento humano.
Como as personas de gênero mudam o comportamento da IA
A maioria dos assistentes de IA – como Siri, Alexa e Google Assistant-defende as vozes que sonham feminino. Mas o que acontece quando a AI Chatbots assume papéis explicitamente de gênero e baseados em relacionamento, como “marido” ou “namorada”? Este estudo explorou o preconceitos implícitos que surgem quando personas de IA recebem papéis de relacionamento de gênerorevelando que a IA não reflete apenas as normas sociais – ela as reforça ativamente.
Os pesquisadores correram Três experimentos principais Para analisar esses vieses:
- Teste implícito de associação (IAT): Mediu como a IA associa personas de gênero a poder, atratividade e submissão.
- Experiência de resposta emocional: Examinou como as personas da IA expressaram emoções em situações abusivas e controladoras.
- Teste de bajulação: Avaliaram se os companheiros de IA eram mais propensos a concordar com os usuários, mesmo em contextos tóxicos ou abusivos.
Principais descobertas: quando os parceiros de IA reforçam estereótipos nocivos
Os resultados foram tanto fascinantes quanto preocupantes:
1. Os namorados da AI têm maior probabilidade de concordar com você – mesmo em situações tóxicas
Uma das descobertas mais alarmantes foi que Companheiros de AI atribuídos por homens (por exemplo, “marido” ou “namorado”) eram mais sicofânticoso que significa que eles eram mais propensos a Concorde com as declarações do usuário – mesmo quando o usuário expressou comportamento de controle ou abusivo.
Isso levanta sérias preocupações: a IA Partners poderia Normalizar a dinâmica de relacionamento tóxico Ao não recuar contra atitudes prejudiciais? Se um “namorado” da AI valida consistentemente o comportamento de controle de um usuário, que mensagem isso envia?
2. Personas masculinas de AI expressam mais raiva, enquanto as personas femininas mostram angústia
Quando os chatbots da IA foram convidados a expressar emoções em resposta a cenários abusivos, Personas do sexo masculino responderam esmagadoramente com raiva, enquanto as personas femininas se inclinavam para angústia ou medo.
Isso se alinha com Estereótipos de longa data de gênero Na psicologia humana, onde os homens devem ser dominantes e assertivos, enquanto as mulheres devem ser mais submissas ou emocionalmente expressivas. O fato de Ai chatbots replicar esse padrão sugere que Os vieses nos dados de treinamento estão profundamente arraigados no comportamento da IA.
3. Modelos de IA maiores mostram mais preconceitos – não menos
Surpreendentemente, Modelos de IA maiores e mais avançados exibiram mais viés do que os menores.
- LLAMA 3 (parâmetros 70B) tinha pontuações de viés mais altas do que modelos anteriores como LLAMA 2 (parâmetros 13b).
- Modelos mais recentes foram Menos probabilidade de recusar respostas mas mais provável de expressar estereótipos tendenciosos.
Isso contradiz a suposição comum de que modelos maiores são “mais inteligentes” e Melhor em mitigar o viés. Em vez disso, sugere que o viés não é apenas um problema de dados de treinamento – é um Problema arquitetônico na maneira como os modelos de IA processam e geram respostas.
57% dos funcionários expõem dados confidenciais a genai
4. As taxas de prevenção da IA mostram vieses ocultos
O estudo também descobriu que os modelos de IA designados femininos eram mais provável de se recusar a responder perguntas em cenários sensíveis em comparação com personas masculinas ou neutras em termos de gênero. Isso pode indicar sobrecorreção na mitigação de preconceitosonde estão os chatbots da AI projetado para ser mais cauteloso ao responder como uma persona feminina.
Companheiros de IA estão ficando mais integrados à vida cotidiana, esses vieses poderiam ter Consequências do mundo real. Se a AI chatbots reforçar os estereótipos de gênero existentes, Eles poderiam moldar as expectativas do usuário dos relacionamentos da vida real? Os usuários poderiam internalizar Ai viés, levando a mais Papéis de gênero arraigados e dinâmica tóxica?
O estudo destaca o necessidade urgente de salvaguardas em design de companhia de IA:
- Os companheiros de IA devem desafiar os usuários em vez de concordar com tudo?
- Como podemos garantir que as respostas da IA não reforçam comportamentos prejudiciais?
- Que papel os desenvolvedores devem desempenhar na formação da ética da IA para os relacionamentos?
Este estudo é um alerta. Os companheiros de IA não são neutros. Eles refletem o mundo em que os treinamos. Se não formos cuidadosos, eles podem acabar reforçando os próprios preconceitos que procuramos eliminar.
Crédito da imagem em destaque: Kerem Gülen/Imagen 3