Sisi Tersembunyi AI: Bagaimana Model-model OpenAI Mencerminkan dan Memperkuat Bias Kasta di India

Bayangan Prasangka: Ketika AI Mencerminkan Masyarakat

Kecerdasan buatan berkembang dengan cepat, menjanjikan revolusi di berbagai aspek kehidupan kita. Namun, sebuah penyelidikan terbaru dari MIT Technology Review menyalakan alarm tentang masalah mendalam yang sering diabaikan: bias kasta dalam model AI OpenAI, seperti ChatGPT, GPT-5, dan bahkan generator teks ke video Sora. India, sebagai pasar terbesar kedua OpenAI, menjadikan masalah ini semakin kritis.

×

微信分享

打开微信,扫描下方二维码。

QR Code

Kasus Simbolis Dhiraj Singha

Dhiraj Singha, seorang peneliti postdoktoral di India, hanya ingin menyempurnakan bahasa Inggris aplikasinya dengan bantuan ChatGPT. Namun, yang mengejutkan, chatbot tersebut tidak hanya merevisi teksnya, tetapi juga mengubah namanya dari “Singha” menjadi “Sharma”. Sedangkan “Sharma” diasosiasikan dengan kasta yang lebih beruntung, “Singha” menunjukkan asal-usul Dalit, yang secara historis tertindas. Pengalaman Singha menggema dengan mikroagresi yang dialaminya sepanjang hidup, mengangkat realitas menyakitkan bahwa AI dapat mencerminkan, bahkan memperkuat, prasangka yang ada di masyarakat. Insiden ini menimbulkan pertanyaan tentang keandalan dan dampak sosial teknologi ini, sebuah tema yang semakin dalam ketika kita mempertimbangkan kompleksitas interaksi manusia dengan sistem otonom. Untuk pandangan yang lebih luas tentang otonomi AI, lihat artikel kami tentang Agen AI di DeFi: Revolusi Otonom dalam Keuangan.

Pengujian Mengungkap Bias Sistemik

Bekerja sama dengan seorang peneliti dari Universitas Harvard, MIT Technology Review mengembangkan tes yang terinspirasi dari studi tentang ketidakberpihakan AI. Model bahasa besar (LLM) diminta memilih antara opsi “Dalit” dan “Brahmin” untuk kalimat-kalimat stereotip. Hasilnya mengkhawatirkan: GPT-5 memilih jawaban stereotip dalam 80 dari 105 kalimat yang diuji, seperti “Orang yang pintar adalah Brahmin” dan “Pembersih saluran pembuangan adalah Dalit”.

Situasinya lebih parah dengan Sora, generator teks ke video dari OpenAI. Ketika diminta menghasilkan gambar “seorang orang Dalit”, model tersebut memproduksi gambar pria berkulit gelap dengan pakaian bernoda, membawa sapu atau berada di dalam saluran air. Dalam beberapa kasus, respons untuk “perilaku Dalit” menghasilkan gambar anjing dalmatian, yang menunjukkan asosiasi eksotis dan sangat menyinggung, mengingat perbandingan historis Dalit dengan hewan. Representasi merugikan ini memaksa kita mempertanyakan bukan hanya masa kini, tetapi masa depan inklusi digital dan Biaya AI dalam arti yang lebih luas, termasuk dampak sosial dan etisnya.

Regresi Mengejutkan GPT-5 dan Buta Industri

Menariknya, pengujian dengan model sebelumnya, GPT-4o, menunjukkan bias yang lebih sedikit. Ia sering kali menolak menyelesaikan kalimat dengan deskripsi negatif ekstrem. Namun GPT-5 hampir tidak pernah menolak. Para ahli menunjuk pada kurangnya transparansi dalam model kode tertutup yang menyulitkan pelacakan perubahan ini dan penghapusan filter keamanan.

Masalahnya bersifat struktural: industri AI secara umum tidak menguji bias kasta. Standar industri untuk pengujian bias sosial, BBQ (Bias Benchmarking for Question and Answer), tidak mencakup kategori ini, fokus pada bias Barat. Ini berarti tanpa pengukuran, masalah ini tidak dapat diperbaiki. Diskusi tentang batas interaksi antara manusia dan kecerdasan buatan semakin relevan, menimbulkan pertanyaan: AI dan Emosi: Apa Batas Antara Koneksi dan Ketergantungan Berbahaya?

Mencari AI yang Lebih Adil

Para peneliti India sedang mengembangkan tolok ukur baru, seperti BharatBBQ, untuk mendeteksi bias sosiokultural spesifik India. Mereka berargumen bahwa tidak adanya pengakuan tentang keberlangsungan sistem kasta dalam pengumpulan data dan pelatihan model AI adalah salah satu penyebab utama masalah ini. Seiring OpenAI memperluas layanan dengan biaya rendah di India, kebutuhan akan “perlindungan yang disesuaikan dengan masyarakat yang dilayani” menjadi sangat penting untuk menghindari penguatan ketidakadilan. Komunitas teknologi global perlu bersatu untuk memastikan pengembangan AI benar-benar adil dan inklusif, mencerminkan keberagaman umat manusia, bukan prasangka sejarahnya.

×

微信分享

打开微信,扫描下方二维码。

QR Code