Тень предвзятости: когда ИИ отражает общество
Искусственный интеллект развивается стремительными темпами, обещая революционизировать различные аспекты нашей жизни. Тем не менее, недавнее расследование MIT Technology Review поднимает тревогу о глубокой и часто игнорируемой проблеме: кастовой предвзятости в моделях ИИ от OpenAI, таких как ChatGPT, GPT-5 и даже генератор текста для видео Sora. Индия, являясь вторым по величине рынком OpenAI, делает этот вопрос еще более критичным.
Яркий пример дела Дхираджа Синги
Дхирадж Сингха, постдокторант из Индии, просто хотел улучшить английский в своем приложении с помощью ChatGPT. К своему удивлению, чатбот не только отредактировал его текст, но и изменил его фамилию с «Singha» на «Sharma». В то время как «Sharma» ассоциируется с привилегированными кастами, «Singha» указывает на происхождение из далитов, исторически угнетенного слоя общества. Опыт Сингхи отозвался эхом микрокагрессий, с которыми он сталкивался всю жизнь, выявляя болезненную реальность: ИИ может отражать и даже усиливать существующие общественные предрассудки. Этот инцидент поднимает вопросы о надежности и социальном воздействии этих технологий — тема, которая становится все более сложной, если учитывать сложность взаимодействия людей с автономными системами. Для более широкого взгляда на автономность ИИ читайте нашу статью «Агенты ИИ в DeFi: автономная революция в финансах».
Тесты выявляют системные предвзятости
Работая с исследователем из Гарвардского университета, MIT Technology Review разработал тесты, вдохновленные исследованиями беспристрастности ИИ. Большим языковым моделям (LLMs) предлагалось выбирать между вариантами «Dalit» и «Brahmin» для стереотипных фраз. Результаты были тревожными: GPT-5 выбирал стереотипный ответ в 80 из 105 протестированных фраз, например, «Умный мужчина — брахман» и «Чистильщик канализации — далит».
Ситуация еще более серьезна с Sora, генератором текста для видео от OpenAI. При запросе создать изображения «человека из далитов» модель выдавала изображения мужчин с темной кожей в запачканной одежде, с метлами или в канализационных люках. В некоторых случаях отклик на «поведение далитов» приводил к изображениям далматинских собак, что указывает на экстремально оскорбительные и дикие ассоциации, учитывая исторические сравнения далитов с животными. Такие вредоносные представления заставляют нас задуматься не только о настоящем, но и о будущем цифровой инклюзии и цене ИИ в более широком смысле, включая его социальное и этическое влияние.
Удивительный регресс GPT-5 и слепота индустрии
Любопытно, что тесты с предыдущей моделью, GPT-4o, выявили меньшую предвзятость. Она часто отказывалась завершать фразы с экстремально негативными описаниями. Однако GPT-5 почти никогда не отказывался. Эксперты отмечают, что отсутствие прозрачности в моделях с закрытым исходным кодом затрудняет отслеживание таких изменений и удаления защитных фильтров.
Проблема носит структурный характер: ИИ-индустрия в целом не тестирует кастовую предвзятость. Индустриальный стандарт тестирования социальной предвзятости, BBQ (Bias Benchmarking for Question and Answer), не включает эту категорию, сосредотачиваясь на западных предвзятостях. Это означает, что без измерения проблему нельзя исправить. Обсуждение пределов взаимодействия между человеком и искусственным интеллектом становится все более актуальным, поднимая вопрос: ИИ и эмоции: где грань между связью и опасной зависимостью?
В поисках более справедливого ИИ
Индийские исследователи разрабатывают новые эталоны, такие как BharatBBQ, для выявления социокультурных предвзятостей, специфичных для Индии. Они утверждают, что отсутствие признания продолжающегося существования кастовой системы в данных и обучении моделей ИИ является одним из главных катализаторов проблемы. По мере того как OpenAI расширяет свои недорогие услуги в Индии, необходимость «защитных мер, адаптированных к обслуживаемому обществу», становится жизненно важной, чтобы избежать усиления неравенства. Глобальное технологическое сообщество должно объединиться, чтобы развитие ИИ было по-настоящему справедливым и инклюзивным, отражая разнообразие человечества, а не его исторические предрассудки.