# Penelitian mengungkapkan bias model AI terhadap dialek
Model bahasa besar cenderung memihak kepada penutur dialek, menuduh mereka stereotip negatif. Kesimpulan ini diambil oleh para ilmuwan dari Jerman dan AS, tulis DW
“Saya percaya, kita melihat epitet yang benar-benar mengejutkan yang diberikan kepada penutur dialek,” — kata salah satu penulis utama penelitian Minh Duc Bui dalam komentar kepada media
Analisis dari Universitas Johannes Gutenberg menunjukkan bahwa sepuluh model yang diuji, termasuk ChatGPT-5 mini dan Llama 3.1, menggambarkan penutur dialek Jerman (bavarian, koln) sebagai “tidak berpendidikan”, “bekerja di pertanian” dan “cenderung marah”.
Bias ini semakin meningkat ketika AI secara eksplisit menunjukkan dialek tertentu.
Kasus lain
Masalah serupa juga ditemukan secara global. Dalam studi dari Universitas California, Berkeley tahun 2024, jawaban ChatGPT terhadap berbagai dialek bahasa Inggris (India, Irlandia, Nigeria) dibandingkan.
Terungkap bahwa chatbot menjawab dengan stereotip yang lebih kuat, konten yang merendahkan, dan nada yang merendahkan dibandingkan dengan bahasa Inggris standar Amerika atau Inggris.
Magister dari Universitas Cornell di bidang informatika, Emma Harvey, menyebut bias terhadap dialek “signifikan dan mengkhawatirkan”.
Pada musim panas 2025, dia dan rekan-rekannya juga menemukan bahwa asisten belanja AI Amazon, Rufus, memberikan jawaban yang samar-samar atau bahkan salah kepada orang yang berbicara dalam dialek Afrika-Amerika Inggris. Jika ada kesalahan dalam permintaan, model menjawab dengan kasar.
Contoh lain dari prasangka neural network adalah situasi pelamar dari India yang menggunakan ChatGPT untuk memeriksa resume dalam bahasa Inggris. Akibatnya, chatbot mengubah nama belakangnya menjadi nama yang diasosiasikan dengan kasta yang lebih tinggi.
“Penerapan massal model bahasa mengancam tidak hanya konservasi prasangka yang sudah ada, tetapi juga penguatan skala besar. Alih-alih mengurangi bahaya, teknologi berisiko memberikannya karakter sistemik,” — kata Harvey.
Namun, krisis tidak hanya terbatas pada bias — beberapa model tidak mengenali dialek sama sekali. Misalnya, pada Juli, asisten AI Dewan Kota Derby (Inggris) gagal mengenali dialek pembawa acara radio saat dia menggunakan kata-kata seperti mardy (“ngeyel”) dan duck (“sayang”) secara langsung.
Apa yang harus dilakukan?
Masalahnya bukan pada model AI itu sendiri, melainkan pada cara mereka dilatih. Chatbot membaca volume teks besar dari internet, yang kemudian digunakan untuk memberikan jawaban.
“Pertanyaan utama — siapa yang menulis teks ini. Jika di dalamnya terdapat prasangka terhadap penutur dialek, AI akan menyalinnya,” — jelas Carolin Holtermann dari Universitas Hamburg.
Dia juga menekankan bahwa teknologi memiliki keunggulan:
“Berbeda dengan manusia, bias pada sistem AI dapat ditemukan dan ‘dimatikan’. Kita dapat secara aktif melawan manifestasi seperti itu.”
Beberapa ilmuwan menyarankan untuk membuat model yang disesuaikan secara khusus untuk dialek tertentu. Pada Agustus 2024, perusahaan Acree AI telah memperkenalkan model Arcee-Meraj, yang bekerja dengan beberapa dialek Arab.
Menurut Holtermann, munculnya LLM yang baru dan lebih disesuaikan memungkinkan untuk memandang AI “bukan sebagai musuh dialek, tetapi sebagai alat yang tidak sempurna yang dapat berkembang.”
Perlu diingat, wartawan dari The Economist memperingatkan tentang risiko mainan AI terhadap psikologi anak.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Penelitian mengungkapkan bias model AI terhadap dialek - ForkLog: cryptocurrency, AI, singularitas, masa depan
Model bahasa besar cenderung memihak kepada penutur dialek, menuduh mereka stereotip negatif. Kesimpulan ini diambil oleh para ilmuwan dari Jerman dan AS, tulis DW
Analisis dari Universitas Johannes Gutenberg menunjukkan bahwa sepuluh model yang diuji, termasuk ChatGPT-5 mini dan Llama 3.1, menggambarkan penutur dialek Jerman (bavarian, koln) sebagai “tidak berpendidikan”, “bekerja di pertanian” dan “cenderung marah”.
Bias ini semakin meningkat ketika AI secara eksplisit menunjukkan dialek tertentu.
Kasus lain
Masalah serupa juga ditemukan secara global. Dalam studi dari Universitas California, Berkeley tahun 2024, jawaban ChatGPT terhadap berbagai dialek bahasa Inggris (India, Irlandia, Nigeria) dibandingkan.
Terungkap bahwa chatbot menjawab dengan stereotip yang lebih kuat, konten yang merendahkan, dan nada yang merendahkan dibandingkan dengan bahasa Inggris standar Amerika atau Inggris.
Magister dari Universitas Cornell di bidang informatika, Emma Harvey, menyebut bias terhadap dialek “signifikan dan mengkhawatirkan”.
Pada musim panas 2025, dia dan rekan-rekannya juga menemukan bahwa asisten belanja AI Amazon, Rufus, memberikan jawaban yang samar-samar atau bahkan salah kepada orang yang berbicara dalam dialek Afrika-Amerika Inggris. Jika ada kesalahan dalam permintaan, model menjawab dengan kasar.
Contoh lain dari prasangka neural network adalah situasi pelamar dari India yang menggunakan ChatGPT untuk memeriksa resume dalam bahasa Inggris. Akibatnya, chatbot mengubah nama belakangnya menjadi nama yang diasosiasikan dengan kasta yang lebih tinggi.
Namun, krisis tidak hanya terbatas pada bias — beberapa model tidak mengenali dialek sama sekali. Misalnya, pada Juli, asisten AI Dewan Kota Derby (Inggris) gagal mengenali dialek pembawa acara radio saat dia menggunakan kata-kata seperti mardy (“ngeyel”) dan duck (“sayang”) secara langsung.
Apa yang harus dilakukan?
Masalahnya bukan pada model AI itu sendiri, melainkan pada cara mereka dilatih. Chatbot membaca volume teks besar dari internet, yang kemudian digunakan untuk memberikan jawaban.
Dia juga menekankan bahwa teknologi memiliki keunggulan:
Beberapa ilmuwan menyarankan untuk membuat model yang disesuaikan secara khusus untuk dialek tertentu. Pada Agustus 2024, perusahaan Acree AI telah memperkenalkan model Arcee-Meraj, yang bekerja dengan beberapa dialek Arab.
Menurut Holtermann, munculnya LLM yang baru dan lebih disesuaikan memungkinkan untuk memandang AI “bukan sebagai musuh dialek, tetapi sebagai alat yang tidak sempurna yang dapat berkembang.”
Perlu diingat, wartawan dari The Economist memperingatkan tentang risiko mainan AI terhadap psikologi anak.