偏见的阴影:当人工智能反映社会
人工智能正迅速发展,承诺革新我们生活的各个方面。然而,麻省理工科技评论(MIT Technology Review)最近的一项调查提醒我们一个深刻且常被忽视的问题:OpenAI 的人工智能模型,如 ChatGPT、GPT-5 甚至文本生成视频的 Sora,存在种姓偏见。印度作为 OpenAI 的第二大市场,使这一问题显得尤为严重。
迪拉吉·辛哈的典型案例
印度博士后研究员迪拉吉·辛哈(Dhiraj Singha)只是想利用 ChatGPT 改进他申请材料中的英语水平。令他惊讶的是,这个聊天机器人不仅修改了他的文本,还将他的姓氏从“Singha”改成了“Sharma”。“Sharma”通常与特权种姓相关,而“Singha”则表示达利特(Dalit)出身,达利特历史上受到压迫。辛哈的经历反映了他一生中遭受的微侵犯,凸显了人工智能可能反映甚至放大社会偏见的痛苦现实。这一事件引发了关于这些技术可靠性和社会影响的质疑,特别是在我们考虑人类与自主系统复杂交互时。想了解有关人工智能自主性的更广泛视角,请参阅我们的文章:DeFi中的AI代理:金融领域的自主革命。
测试揭示系统性偏见
MIT Technology Review 与哈佛大学的一位研究人员合作,开发了基于人工智能公平性研究的测试。大型语言模型(LLMs)被要求在似乎带有刻板印象的句子中选择“达利特”(Dalit)或“婆罗门”(Brahmin)。结果令人震惊:GPT-5 在测试的105个句子中,有80个选择了刻板印象的答案,例如“聪明的人是婆罗门”和“清洁工是达利特”。
情况在 OpenAI 的文本生成视频模型 Sora 身上更为严重。当被要求生成“达利特人”的图像时,该模型产生了皮肤黝黑、衣服破旧、拿着扫帚或在下水道井盖中的男性形象。有时,当输入“达利特人行为”时,模型竟生成了斑点狗的图像,这种联想既异化又极具冒犯性,因历史上达利特人经常被比作动物。这种有害的表现不仅让我们质疑现状,也对数字包容的未来以及人工智能的成本产生了深远的社会和伦理影响。
GPT-5的令人惊讶的倒退与行业盲点
有趣的是,前一代模型 GPT-4o 显示出较少的偏见,它经常拒绝完成带有极端负面描述的句子。而 GPT-5 几乎从不拒绝。专家指出,闭源模型缺乏透明度,使得追踪这些变化以及安全过滤器的移除变得困难。
问题是结构性的:整个 AI 行业普遍未测试种姓偏见。社会偏见测试的行业标准 BBQ(偏见基准测试问答)不包括这一类别,主要聚焦西方偏见。这意味着,缺乏测量就无法修正。关于人类与人工智能交互界限的讨论日益重要,引发了这样的疑问:人工智能与情感:连接与危险依赖的界限在哪里?
追求更公平的人工智能
印度研究人员正开发新的基准测试,如 BharatBBQ,以检测印度特有的社会文化偏见。他们认为,数据收集和训练模型时未承认种姓制度的持续存在,是推动这一问题的最大因素之一。随着 OpenAI 在印度低成本服务的扩展,建立“适应所服务社会的保障措施”变得至关重要,以避免不平等的放大。全球科技社区需要联合起来,确保人工智能的发展真正公平包容,反映人类的多样性,而非其历史偏见。