# A pesquisa revelou preconceitos dos modelos de IA em relação a dialetos
Modelos de linguagem de grande escala têm preconceitos contra falantes de dialetos, atribuindo-lhes estereótipos negativos. Essa foi a conclusão de cientistas da Alemanha e dos EUA, escreve DW
«Acredito que estamos vendo epítetos realmente chocantes atribuídos aos falantes de dialetos», — destacou um dos principais autores do estudo, Minh Duc Bui, em comentário à publicação
A análise da Universidade Johannes Gutenberg mostrou que dez modelos testados, incluindo ChatGPT-5 mini e Llama 3.1, descreviam os falantes de dialetos alemães (bávaro, colinense) como «não instruídos», «trabalhadores nas fazendas» e «propensos à raiva».
O preconceito aumentava quando a IA indicava explicitamente o dialeto.
Outros casos
Problemas semelhantes foram detectados globalmente. Em um estudo da Universidade da Califórnia em Berkeley de 2024, compararam as respostas do ChatGPT a diferentes dialetos do inglês (indiano, irlandês, nigeriano)
Descobriu-se que o chatbot respondia a eles com estereótipos mais evidentes, conteúdo degradante e tom condescendente em comparação com o inglês padrão americano ou britânico.
A estudante de pós-graduação na Universidade de Cornell, EUA, na área de ciência da computação, Emma Harvey, chamou o preconceito contra dialetos de «significativo e preocupante».
No verão de 2025, ela e seus colegas também descobriram que o assistente de compras da Amazon, Rufus, dava respostas vagas ou até incorretas às pessoas que escreviam em dialeto afro-americano do inglês. Se havia erros nas perguntas, o modelo respondia de forma rude.
Outro exemplo claro de preconceitos das redes neurais é a situação de um candidato da Índia, que consultou o ChatGPT para verificar um currículo em inglês. Como resultado, o chatbot alterou seu sobrenome para um associado a uma casta mais alta.
«A implementação em massa de modelos de linguagem ameaça não apenas a conservação de preconceitos enraizados, mas seu fortalecimento em escala. Em vez de mitigar o dano, as tecnologias correm o risco de torná-lo sistemático», — disse Harvey.
No entanto, a crise não se limita ao preconceito — alguns modelos simplesmente não reconhecem dialetos. Por exemplo, em julho, o assistente de IA do conselho municipal de Derby (Inglaterra) não conseguiu reconhecer o dialeto da apresentadora de rádio, que usou ao vivo palavras como mardy («ninja») e duck («pato»).
O que fazer?
O problema não está nos próprios modelos de IA, mas na forma como eles são treinados. Os chatbots leem volumes gigantes de textos da internet, com base nos quais fornecem respostas.
«A principal questão é quem escreve esse texto. Se houver preconceitos contra falantes de dialetos, a IA os copiará», — explicou Caroline Holtermann, da Universidade de Hamburgo.
Ela destacou que a tecnologia tem uma vantagem:
«Ao contrário das pessoas, o viés em sistemas de IA pode ser encontrado e ‘desligado’. Podemos combater ativamente essas manifestações».
Alguns cientistas sugerem que uma vantagem é criar modelos personalizados para dialetos específicos. Em agosto de 2024, a empresa Acree AI já apresentou o modelo Arcee-Meraj, que trabalha com vários dialetos árabes.
Segundo Holtermann, o surgimento de novos LLMs mais adaptados permite ver a IA «não como inimiga dos dialetos, mas como uma ferramenta imperfeita que pode evoluir».
Lembramos que os jornalistas do The Economist alertaram sobre os riscos dos brinquedos de IA para a psicologia infantil.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
A pesquisa revelou preconceitos dos modelos de IA em relação aos dialetos - ForkLog: criptomoedas, IA, singularidade, futuro
Modelos de linguagem de grande escala têm preconceitos contra falantes de dialetos, atribuindo-lhes estereótipos negativos. Essa foi a conclusão de cientistas da Alemanha e dos EUA, escreve DW
A análise da Universidade Johannes Gutenberg mostrou que dez modelos testados, incluindo ChatGPT-5 mini e Llama 3.1, descreviam os falantes de dialetos alemães (bávaro, colinense) como «não instruídos», «trabalhadores nas fazendas» e «propensos à raiva».
O preconceito aumentava quando a IA indicava explicitamente o dialeto.
Outros casos
Problemas semelhantes foram detectados globalmente. Em um estudo da Universidade da Califórnia em Berkeley de 2024, compararam as respostas do ChatGPT a diferentes dialetos do inglês (indiano, irlandês, nigeriano)
Descobriu-se que o chatbot respondia a eles com estereótipos mais evidentes, conteúdo degradante e tom condescendente em comparação com o inglês padrão americano ou britânico.
A estudante de pós-graduação na Universidade de Cornell, EUA, na área de ciência da computação, Emma Harvey, chamou o preconceito contra dialetos de «significativo e preocupante».
No verão de 2025, ela e seus colegas também descobriram que o assistente de compras da Amazon, Rufus, dava respostas vagas ou até incorretas às pessoas que escreviam em dialeto afro-americano do inglês. Se havia erros nas perguntas, o modelo respondia de forma rude.
Outro exemplo claro de preconceitos das redes neurais é a situação de um candidato da Índia, que consultou o ChatGPT para verificar um currículo em inglês. Como resultado, o chatbot alterou seu sobrenome para um associado a uma casta mais alta.
No entanto, a crise não se limita ao preconceito — alguns modelos simplesmente não reconhecem dialetos. Por exemplo, em julho, o assistente de IA do conselho municipal de Derby (Inglaterra) não conseguiu reconhecer o dialeto da apresentadora de rádio, que usou ao vivo palavras como mardy («ninja») e duck («pato»).
O que fazer?
O problema não está nos próprios modelos de IA, mas na forma como eles são treinados. Os chatbots leem volumes gigantes de textos da internet, com base nos quais fornecem respostas.
Ela destacou que a tecnologia tem uma vantagem:
Alguns cientistas sugerem que uma vantagem é criar modelos personalizados para dialetos específicos. Em agosto de 2024, a empresa Acree AI já apresentou o modelo Arcee-Meraj, que trabalha com vários dialetos árabes.
Segundo Holtermann, o surgimento de novos LLMs mais adaptados permite ver a IA «não como inimiga dos dialetos, mas como uma ferramenta imperfeita que pode evoluir».
Lembramos que os jornalistas do The Economist alertaram sobre os riscos dos brinquedos de IA para a psicologia infantil.