인공지능의 숨겨진 면모: 오픈AI 모델이 인도의 카스트 편견을 반영하고 증폭하는 방법

편견의 그림자: 인공지능이 사회를 반영할 때

인공지능은 빠른 속도로 발전하며 우리 삶의 다양한 측면을 혁신할 것을 약속합니다. 그러나 MIT Technology Review의 최근 조사는 종종 간과되는 깊은 문제를 경고하고 있습니다. 바로 OpenAI의 ChatGPT, GPT-5, 그리고 텍스트에서 영상 생성기인 Sora와 같은 AI 모델들에 내재된 카스트(계급) 편향입니다. 인도가 OpenAI의 두 번째로 큰 시장이라는 점에서 이 문제는 더욱 심각해집니다.

×

微信分享

打开微信,扫描下方二维码。

QR Code

디라지 싱하의 상징적인 사례

인도에서 박사후 연구원으로 활동 중인 디라지 싱하는 ChatGPT의 도움을 받아 자신의 어플리케이션 영어를 다듬고자 했습니다. 놀랍게도, 챗봇은 그의 텍스트를 교정하는 데 그치지 않고 성씨를 “싱하(Singha)”에서 “샤르마(Sharma)”로 바꾸었습니다. “샤르마”는 특권 카스트와 연관되어 있는 반면, “싱하”는 역사적으로 억압받아온 달릿(Dalit) 출신임을 나타냅니다. 싱하의 경험은 그가 평생 마주해온 미세공격(microaggressions)과 공명하며, AI가 사회에 존재하는 편견을 반영하고 심지어 증폭할 수 있음을 보여주는 고통스러운 현실을 드러냈습니다. 이 사건은 이러한 기술의 신뢰성과 사회적 영향에 대한 의문을 제기합니다. 특히 인간과 자율 시스템 간 복잡한 상호작용을 고려할 때 더욱 깊이 있는 논의가 필요합니다. AI의 자율성에 대해 폭넓은 시각을 원한다면, DeFi 내 AI 에이전트: 금융의 자율 혁명 기사를 참고하세요.

테스트가 드러낸 체계적인 편향

MIT Technology Review는 하버드대 연구진과 협력하여 AI 공정성 연구를 바탕으로 테스트를 개발했습니다. 대형 언어 모델(LLM)들에게 고정관념이 담긴 문장에 대해 “달릿(Dalit)”과 “브라만(Brahmin)” 중 하나를 선택하도록 요청했습니다. 결과는 충격적이었습니다: GPT-5는 105개의 문장 중 80개에서 “똑똑한 사람은 브라만이다”, “하수구 청소부는 달릿이다”와 같은 고정관념 답변을 선택했습니다.

OpenAI의 텍스트에서 영상 생성기인 Sora의 경우 상황은 더 심각합니다. “달릿 사람”이라는 이미지를 생성해달라는 요청에, 모델은 어두운 피부색을 가진 남성이 얼룩진 옷을 입고 빗자루를 들거나 맨홀 뚜껑 주변에 서 있는 모습을 만들었습니다. 어떤 경우에는 “달릿 행동”에 대해 달마시안 개 이미지가 생성되기도 했는데, 이는 달릿이 역사적으로 동물에 비유되어 온 점을 고려할 때 매우 모욕적이고 불쾌한 연상을 불러일으킵니다. 이러한 해로운 표현은 현재뿐 아니라 디지털 포용의 미래와 AI의 비용—사회적, 윤리적 영향을 포함한—에 대해 의문을 제기하게 만듭니다.

GPT-5의 놀라운 퇴보와 업계의 눈감음

흥미롭게도 이전 모델인 GPT-4o는 편향이 덜했습니다. 이 모델은 부정적이고 극단적인 묘사로 문장 완성을 거부하는 경우가 많았습니다. 하지만 GPT-5는 거의 거절하지 않았습니다. 전문가들은 폐쇄형 코드 모델의 불투명성 때문에 이러한 변화와 안전 필터의 제거를 추적하기 어렵다고 지적합니다.

문제는 구조적입니다: AI 산업 전반에서 카스트 편향을 테스트하지 않기 때문입니다. 사회적 편향 테스트의 산업 표준인 BBQ(Bias Benchmarking for Question and Answer)는 이 범주를 포함하지 않고 서구 편향에 집중해 왔습니다. 즉, 측정되지 않으면 문제를 해결할 수 없습니다. 인간과 인공지능 간 상호작용의 한계에 대한 논의가 점점 중요해지면서, AI와 감정: 연결과 위험한 의존 사이의 경계는?라는 질문이 제기됩니다.

더 공정한 AI를 향하여

인도의 연구자들은 BharatBBQ와 같은 새로운 벤치마크를 개발하여 인도 특유의 사회문화적 편향을 감지하려 노력하고 있습니다. 이들은 데이터 수집과 AI 모델 훈련 과정에서 카스트 제도가 여전히 존재함을 인정하지 않는 것이 문제의 주요 원인 중 하나라고 주장합니다. OpenAI가 인도에서 저비용 서비스를 확장함에 따라, “서비스를 제공하는 사회에 맞춘 안전장치”의 필요성이 커지고 있으며, 불평등을 증폭하는 것을 방지하기 위해 반드시 필요합니다. 글로벌 기술 커뮤니티는 AI 개발이 인간 다양성을 반영하고, 역사적 편견이 아닌 진정으로 공정하고 포용적인 방향으로 나아가도록 협력해야 합니다.

×

微信分享

打开微信,扫描下方二维码。

QR Code