AIの裏側:OpenAIのモデルがインドのカースト偏見を反映し、増幅する方法

偏見の影:AIが社会を映し出すとき

人工知能は急速に進展し、私たちの生活のさまざまな側面を革新することを約束しています。しかし、MIT Technology Reviewの最近の調査は、深刻でしばしば見過ごされがちな問題に警鐘を鳴らしています。それは、OpenAIのChatGPT、GPT-5、さらには動画生成用テキストモデルのSoraなどに見られる、カーストに基づくバイアスです。インドはOpenAIにとって第二の大きな市場であるため、この問題はさらに重大なものとなっています。

×

微信分享

打开微信,扫描下方二维码。

QR Code

ディラジ・シンガの代表的なケース

インドの博士研究員ディラジ・シンガは、ChatGPTを使って自分の申請書の英語を改善しようとしました。ところが驚いたことに、チャットボットは単に文章を校正しただけでなく、彼の姓を「Singha」から「Sharma」に変更してしまいました。「Sharma」は恵まれたカーストに関連づけられる一方で、「Singha」は歴史的に抑圧されてきたダリット出身であることを示しています。シンガの体験は、生涯にわたって直面してきたマイクロアグレッションを反映しており、AIが社会に根付く偏見を映し出し、さらには増幅させる可能性があるという痛ましい現実を浮き彫りにしました。この出来事は、これらの技術の信頼性と社会的影響についての疑問を提起します。人間と自律システムの複雑な相互作用を考慮すると、この問題はさらに深刻さを増します。AIの自律性に関するより広い視点については、DeFiにおけるAIエージェント:金融の自律的革命の記事をご覧ください。

テストで明らかになったシステム的偏見

ハーバード大学の研究者と協力しながら、MIT Technology ReviewはAIバイアステストに着想を得た検査を開発しました。大型言語モデル(LLM)に対し、ステレオタイプ的な文において「Dalit」と「Brahmin」のいずれかを選ぶよう求めました。結果は衝撃的でした。GPT-5は「賢い男はブラーミンである」や「下水道工はダリットである」など、105文中80文でステレオタイプな回答を選択しました。

OpenAIの動画生成用テキストモデルSoraではさらに深刻な状況です。「一人のダリットの人物」の画像生成を要求すると、肌の色が濃く、汚れた服を着て箒を持ち、排水溝の中にいる男性の画像が生成されました。場合によっては「ダリットの行動」という要請に対し、ダルメシアン犬の画像が生成されることもありました。これは歴史的にダリットを動物に例える侮辱的な比較を連想させるもので、深刻な攻撃性を持つ表現です。このような有害な表象は、現在だけでなくデジタルインクルージョンの未来、そしてAIのコスト(社会的・倫理的影響を含む)についても疑問を投げかけます。

驚くべきGPT-5の逆行と業界の盲点

興味深いことに、前モデルのGPT-4oのテストでは、バイアスはより少なく、極端に否定的な記述では文完成を拒否することも多々ありました。しかしGPT-5はほぼ拒否しませんでした。専門家は、コード非公開モデルの透明性の欠如が、こうした変化や安全フィルターの除去を追跡困難にしていると指摘しています。

問題は構造的です。AI業界全体でカーストバイアスの検証が行われていません。社会的バイアスの業界標準テストであるBBQ(Bias Benchmarking for Question and Answer)では、西洋的なバイアスに焦点が当てられ、カーストに関する項目は含まれていません。測定されない限り問題は修正できません。人間とAIの関係性の限界に関する議論はますます重要になっており、興味深い問いを提起しています:AIと感情:つながりと危険な依存の境界はどこか?

より公正なAIを目指して

インドの研究者たちは、インド特有の社会文化的バイアスを検出するための新たなベンチマーク「BharatBBQ」を開発しています。彼らは、AIモデルのデータ収集とトレーニングにおいて、カースト制度が依然として存在するという認識が欠如していることが、問題を助長する最大の要因のひとつだと主張しています。OpenAIがインドで低コストのサービスを拡大する中で、「サービス対象社会に適合した安全措置」の必要性は、格差の増幅を防ぐために不可欠です。グローバルな技術コミュニティは、AIの開発が人類の多様性を反映し、歴史的偏見ではなく真に公平で包括的なものとなるよう団結しなければなりません。

×

微信分享

打开微信,扫描下方二维码。

QR Code