Um novo estudo publicado em Natureza Comportamento Humano desafia a suposição predominante de que a inteligência artificial generativa se comporta de forma consistente em diferentes idiomas, revelando, em vez disso, que os grandes modelos de linguagem (LLMs) exibem tendências culturais distintas, dependendo se são estimulados em inglês ou chinês. Os pesquisadores Jackson G. Lu e Lu Doris Zhang examinaram dois modelos principais, o GPT da OpenAI e o ERNIE do Baidu, e descobriram que a linguagem do prompt muda efetivamente a “personalidade cultural” da IA, influenciando como ela interpreta informações, avalia opções e enquadra recomendações estratégicas.
A pesquisa utilizou estruturas da psicologia cultural para medir dois construtos principais: orientação social e estilo cognitivo. Quando solicitados em inglês, ambos os modelos exibiram uma orientação social “independente”, valorizando a autonomia e a autodireção, e um estilo cognitivo “analítico”, caracterizado pela confiança na lógica formal e no raciocínio baseado em regras. Por outro lado, quando solicitados em chinês, os modelos mudaram para uma orientação “interdependente”, enfatizando a harmonia e a conformidade social, juntamente com um estilo cognitivo “holístico” que prioriza o contexto e as relações sobre os objetos focais.
Estas divergências manifestaram-se em cenários práticos de negócios. Por exemplo, quando solicitado a explicar o comportamento de uma pessoa, as instruções em inglês levaram a IA a atribuir ações à personalidade do indivíduo, enquanto as instruções em chinês resultaram em atribuições baseadas no contexto social. Numa tarefa de marketing, os modelos preferiram slogans que destacassem o bem-estar individual quando questionados em inglês, mas preferiram aqueles que enfatizavam o bem-estar coletivo quando questionados em chinês. O estudo observa que a simples tradução de uma campanha gerada em inglês para um mercado chinês poderia, portanto, resultar numa incompatibilidade cultural que faz com que a mensagem fracasse.
No entanto, os pesquisadores descobriram que esses preconceitos não são imutáveis. Ao utilizar “instruções culturais” – como instruir explicitamente a IA para adotar a perspectiva de uma pessoa comum que vive na China – os utilizadores poderiam recalibrar as respostas em inglês do modelo para imitar os padrões interdependentes e holísticos normalmente vistos nas respostas chinesas. Para gerir estes preconceitos ocultos, os autores aconselham os líderes organizacionais a tratar a escolha da língua como uma decisão estratégica, a alinhar as línguas imediatas com o contexto cultural do público-alvo e a utilizar a inspiração da personalidade cultural para orientar o raciocínio da IA em direção a insights mais apropriados.




