Connect with us

Inteligencia artificial

Sesgo de IA y estereotipos culturales: Efectos, limitaciones y mitigación

mm
AI Bias & Cultural Stereotypes: Effects, Limitations, & Mitigation

La Inteligencia Artificial (IA), particularmente la IA Generativa, continúa superando las expectativas con su capacidad para entender y emular la cognición y la inteligencia humanas. Sin embargo, en muchos casos, los resultados o predicciones de los sistemas de IA pueden reflejar varios tipos de sesgo de IA, como el cultural y racial.

El blog ” Barbies del mundo” de Buzzfeed (que ahora está eliminado) manifiesta claramente estos sesgos culturales e inexactitudes. Estas “barbies” se crearon utilizando Midjourney – un generador de imágenes de IA líder, para descubrir cómo serían las barbies en cada parte del mundo. Hablaremos más sobre esto más adelante.

Pero esto no es la primera vez que la IA ha sido “racista” o ha producido resultados inexactos. Por ejemplo, en 2022, Apple fue demandada por alegaciones de que el sensor de oxígeno en la sangre del Apple Watch estaba sesgado contra las personas de color. En otro caso reportado, los usuarios de Twitter descubrieron que el algoritmo de recorte de imágenes automático de Twitter favorecía las caras de las personas blancas sobre las personas negras y a las mujeres sobre los hombres. Estos son desafíos críticos, y abordarlos es significativamente desafiante.

En este artículo, examinaremos qué es el sesgo de IA, cómo impacta nuestra sociedad y discutiremos brevemente cómo los practicantes pueden mitigar para abordar desafíos como los estereotipos culturales.

¿Qué es el sesgo de IA?

El sesgo de IA ocurre cuando los modelos de IA producen resultados discriminatorios contra ciertos grupos demográficos. Varios tipos de sesgos pueden entrar en los sistemas de IA y producir resultados incorrectos. Algunos de estos sesgos de IA son:

  • Sesgo estereotípico: El sesgo estereotípico se refiere al fenómeno en el que los resultados de un modelo de IA consisten en estereotipos o nociones percibidas sobre un cierto grupo demográfico.
  • Sesgo racial: El sesgo racial en la IA ocurre cuando el resultado de un modelo de IA es discriminatorio y injusto para un individuo o grupo en función de su etnia o raza.
  • Sesgo cultural: El sesgo cultural se produce cuando los resultados de un modelo de IA favorecen una cultura sobre otra.

Además de los sesgos, otros problemas también pueden obstaculizar los resultados de un sistema de IA, como:

  • Inexactitudes: Las inexactitudes ocurren cuando los resultados producidos por un modelo de IA son incorrectos debido a datos de entrenamiento inconsistentes.
  • Alucinaciones: Las alucinaciones ocurren cuando los modelos de IA producen resultados ficticios y falsos que no se basan en datos factuales.

El impacto del sesgo de IA en la sociedad

El impacto del sesgo de IA en la sociedad puede ser perjudicial. Los sistemas de IA sesgados pueden producir resultados inexactos que amplifican los prejuicios ya existentes en la sociedad. Estos resultados pueden aumentar la discriminación y las violaciones de derechos, afectar los procesos de contratación y reducir la confianza en la tecnología de IA.

Además, los resultados sesgados de la IA a menudo conducen a predicciones inexactas que pueden tener consecuencias graves para individuos inocentes. Por ejemplo, en agosto de 2020, Robert McDaniel se convirtió en el objetivo de un acto criminal debido al algoritmo de policía predictiva del Departamento de Policía de Chicago que lo etiquetó como “persona de interés”.

De manera similar, los sistemas de IA de atención médica sesgados pueden tener resultados graves para los pacientes. En 2019, Science descubrió que un algoritmo médico de EE. UU. ampliamente utilizado estaba sesgado racialmente contra las personas de color, lo que llevó a que los pacientes negros recibieran menos gestión de atención de alto riesgo.

Barbies del mundo

En julio de 2023, Buzzfeed publicó un blog que comprendía 194 barbies generadas por IA de todo el mundo. La publicación se volvió viral en Twitter. Aunque Buzzfeed escribió una declaración de descargo de responsabilidad, no detuvo a los internautas para señalar las inexactitudes raciales y culturales. Por ejemplo, la imagen de la Barbie alemana generada por IA estaba vistiendo el uniforme de un general nazi de las SS.

Barbies del mundo imagen 5

De manera similar, la imagen de la Barbie del Sudán del Sur generada por IA se mostró sosteniendo un arma a su lado, reflejando el sesgo profundamente arraigado en los algoritmos de IA.

Barbies del mundo imagen 4

Además, varias otras imágenes mostraron inexactitudes culturales, como la Barbie de Catar que usaba un Ghutra, un tocado tradicional que usan los hombres árabes.

Barbies del mundo imagen 3

Esta publicación del blog recibió una gran reacción en contra por estereotipos culturales y sesgo. La Escuela Interdisciplinaria de Londres (LIS) llamó a esto daño representacional que debe ser controlado mediante la imposición de estándares de calidad y la creación de órganos de supervisión de IA.

Limitaciones de los modelos de IA

La IA tiene el potencial de revolucionar muchas industrias. Pero, si escenarios como los mencionados anteriormente se multiplican, puede llevar a una disminución en la adopción general de IA, lo que resulta en oportunidades perdidas. Estos casos suelen ocurrir debido a limitaciones significativas en los sistemas de IA, como:

  • Falta de creatividad: Dado que la IA solo puede tomar decisiones basadas en los datos de entrenamiento dados, le falta la creatividad para pensar fuera de la caja, lo que obstaculiza la resolución de problemas creativos.
  • Falta de comprensión contextual: Los sistemas de IA tienen dificultades para entender matices contextuales o expresiones lingüísticas de una región, lo que a menudo conduce a errores en los resultados.
  • Sesgo de entrenamiento: La IA se basa en datos históricos que pueden contener todo tipo de muestras discriminatorias. Durante el entrenamiento, el modelo puede aprender fácilmente patrones discriminatorios para producir resultados injustos y sesgados.

Cómo reducir el sesgo en los modelos de IA

Los expertos estiman que para 2026, el 90% del contenido en línea podría ser generado sintéticamente. Por lo tanto, es vital minimizar rápidamente los problemas presentes en las tecnologías de IA Generativa.

Se pueden implementar varias estrategias clave para reducir el sesgo en los modelos de IA. Algunas de estas son:

  • Asegurar la calidad de los datos: Ingerir datos completos, precisos y limpios en un modelo de IA puede ayudar a reducir el sesgo y producir resultados más precisos.
  • Conjuntos de datos diversos: Introducir conjuntos de datos diversos en un sistema de IA puede ayudar a mitigar el sesgo a medida que el sistema de IA se vuelve más inclusivo con el tiempo.
  • Regulaciones aumentadas: Las regulaciones globales de IA son cruciales para mantener la calidad de los sistemas de IA en todo el mundo. Por lo tanto, las organizaciones internacionales deben trabajar juntas para garantizar la estandarización de IA.
  • Aumento de la adopción de IA responsable: Las estrategias de IA responsable contribuyen positivamente a la mitigación del sesgo de IA, cultivando la equidad y la precisión en los sistemas de IA, y asegurando que sirvan a una base de usuarios diversa mientras se esfuerzan por una mejora continua.

Al incorporar conjuntos de datos diversos, responsabilidad ética y medios de comunicación abiertos, podemos asegurarnos de que la IA sea una fuente de cambio positivo en todo el mundo.

Si desea obtener más información sobre el sesgo y el papel de la Inteligencia Artificial en nuestra sociedad, lea los siguientes blogs.

Haziqa es una científica de datos con amplia experiencia en la escritura de contenido técnico para empresas de inteligencia artificial y SaaS.