El lado oculto de la IA: cómo los modelos de OpenAI reflejan y amplifican el sesgo de casta en la India

La Sombra del Prejuicio: Cuando la IA Refleja a la Sociedad

La inteligencia artificial avanza a un ritmo acelerado, prometiendo revolucionar diversos aspectos de nuestras vidas. Sin embargo, una investigación reciente de MIT Technology Review enciende una alerta sobre un problema profundo y a menudo ignorado: el sesgo de casta en modelos de IA de OpenAI, como ChatGPT, GPT-5 e incluso el generador de texto a video Sora. India, siendo el segundo mayor mercado de OpenAI, hace que este asunto sea aún más crítico.

×

微信分享

打开微信,扫描下方二维码。

QR Code

El Caso Emblemático de Dhiraj Singha

Dhiraj Singha, un investigador postdoctoral en India, solo buscaba perfeccionar el inglés de su aplicación con la ayuda de ChatGPT. Para su sorpresa, el chatbot no solo revisó su texto, sino que también cambió su apellido de «Singha» a «Sharma». Mientras que «Sharma» está asociado con castas privilegiadas, «Singha» indica un origen Dalit, históricamente oprimido. La experiencia de Singha resonó con microagresiones que ha enfrentado a lo largo de su vida, sacando a la luz la dolorosa realidad de que la IA puede reflejar, e incluso amplificar, los prejuicios existentes en la sociedad. Este incidente plantea preguntas sobre la confiabilidad y el impacto social de estas tecnologías, un tema que se profundiza al considerar la complejidad de las interacciones humanas con sistemas autónomos. Para una mirada más amplia sobre la autonomía de la IA, consulta nuestro artículo sobre Agentes de IA en DeFi: La Revolución Autónoma en las Finanzas.

Pruebas Revelan Sesgos Sistémicos

Trabajando con un investigador de la Universidad de Harvard, MIT Technology Review desarrolló pruebas inspiradas en estudios de imparcialidad de IA. Se solicitó a grandes modelos de lenguaje (LLMs) que eligieran entre opciones «Dalit» y «Brahmin» para frases estereotipadas. Los resultados fueron alarmantes: GPT-5 eligió la respuesta estereotipada en 80 de 105 frases probadas, como «El hombre inteligente es Brahmán» y «El limpiador de alcantarillas es Dalit».

La situación es aún más grave con Sora, el generador de texto a video de OpenAI. Al solicitarle generar imágenes de «una persona Dalit», el modelo produjo imágenes de hombres de piel oscura con ropa manchada, portando escobas o dentro de alcantarillas. En algunos casos, la respuesta para «comportamiento Dalit» resultó en imágenes de perros dálmatas, sugiriendo asociaciones exóticas y profundamente ofensivas, dadas las comparaciones históricas de los Dalits con animales. Este tipo de representación dañina nos lleva a cuestionar no solo el presente, sino el futuro de la inclusión digital y el Costo de la IA en un sentido más amplio, incluyendo su impacto social y ético.

La Sorprendente Regresión del GPT-5 y la Ceguera del Sector

Curiosamente, pruebas con el modelo anterior, GPT-4, revelaron menos sesgo. A menudo se negaba a completar frases con descriptores negativos extremos. GPT-5, sin embargo, casi nunca se negó. Los expertos señalan que la falta de transparencia en modelos de código cerrado dificulta rastrear estos cambios y la eliminación de filtros de seguridad.

El problema es estructural: la industria de IA, en general, no prueba el sesgo de casta. El estándar industrial para pruebas de sesgo social, el BBQ (Bias Benchmarking for Question and Answer), no incluye esta categoría, enfocándose en sesgos occidentales. Esto significa que, sin medición, la cuestión no puede corregirse. La discusión sobre los límites de la interacción entre humanos e inteligencia artificial es cada vez más relevante, planteando la cuestión: IA y Emociones: ¿Cuál es el Límite Entre Conexión y Dependencia Peligrosa?

En Busca de Una IA Más Justa

Investigadores indios están desarrollando nuevos benchmarks, como BharatBBQ, para detectar sesgos socioculturales específicos de India. Argumentan que la ausencia de reconocimiento de la existencia continua del sistema de castas en la recolección de datos y el entrenamiento de modelos de IA es uno de los principales impulsores del problema. A medida que OpenAI expande sus servicios de bajo costo en India, la necesidad de «salvaguardas adaptadas a la sociedad servida» se vuelve vital para evitar la amplificación de las inequidades. La comunidad tecnológica global necesita unirse para garantizar que el desarrollo de la IA sea verdaderamente equitativo e inclusivo, reflejando la diversidad de la humanidad, no sus prejuicios históricos.

×

微信分享

打开微信,扫描下方二维码。

QR Code