Los prejuicios humanos en la IA: discriminación y sesgos digitales
INFLUENCER GTO La inteligencia artificial IA se enfrenta a un desafío urgente: evitar la discriminación y la invisibilización de comunidades marginadas debido a los prejuicios humanos incrustados en los procesos de recopilación y etiquetado de datos. Esta problemática ha encendido alarmas en el mundo tecnológico, especialmente entre las generaciones X, Z y Millennials, quienes buscan un entorno digital más inclusivo.
La experiencia de Arjun Subramonian: luchar contra los sesgos algorítmicos
Arjun Subramonian, un joven programador de 24 años originario de California, se ha convertido en un referente en la lucha contra los sesgos algorítmicos. Tras declararse abiertamente gay mientras estudiaba Ciencias de la Computación, Arjun notó la marginación del colectivo LGBTIQ+ en tecnología. Fundó «Queer in AI» para visibilizar la diversidad en las disciplinas STEM y combatir los sesgos presentes en los sistemas de IA generativa.
Subramonian alerta sobre cómo las listas de bloqueo y los filtros de contenido afectan la representación de grupos minoritarios. Por ejemplo, durante la pandemia, palabras como «queer» fueron bloqueadas en plataformas de mensajería, limitando la comunicación entre activistas.
Casos reales de discriminación digital
El caso de Ilia S., un activista trans de Rusia, expone los desafíos que enfrenta la comunidad LGBTIQ+ en el entorno digital. Al tratar de verificar una transacción bancaria, su voz andrógina fue malinterpretada por un sistema de reconocimiento de voz con IA, generando acusaciones de fraude. Este tipo de errores destaca la necesidad de mejorar los sistemas de identificación para evitar exclusiones basadas en identidad de género.
Además, los sesgos en los sistemas de reconocimiento facial también han mostrado problemas al identificar correctamente rostros de personas no binarias o trans, lo que agrava la falta de representación y refuerza estereotipos dañinos.




La censura y los sesgos en la IA
La censura de términos relacionados con la diversidad sexual y de género también es una preocupación creciente. Por ejemplo, hasta 2012, Google clasificaba la palabra «bisexual» como contenido inapropiado. Estos filtros pueden distorsionar la información y reforzar la invisibilidad de comunidades marginadas.
La necesidad de un enfoque interdisciplinario
Expertos como Cristina Aranda, doctora en Lingüística Teórica, destacan que la solución requiere integrar perfiles de humanidades en el diseño tecnológico. Aranda subraya que los sistemas de IA necesitan «más calle» e inteligencia social para evitar caer en patrones discriminatorios.
Por otro lado, Adio Dinika, investigador del Instituto de Investigación sobre IA Distribuida, advierte que el desarrollo de la IA está dominado por visiones homogéneas que perpetúan la desigualdad.
Hacia un futuro más inclusivo en tecnología
La IA no es buena ni mala en sí misma; su impacto depende de cómo sea diseñada y utilizada. Por ello, expertos y activistas coinciden en que se necesitan regulaciones claras para combatir los sesgos algorítmicos.
El caso de Arjun Subramonian y otros activistas evidencia la importancia de crear tecnologías inclusivas que respeten la diversidad y promuevan la equidad digital. Para las generaciones X, Z y Millennials, esta lucha representa un llamado a transformar el panorama tecnológico en un espacio más justo y accesible para todos. (Con información de www.elpaís.com).
TAL VEZ TE INTERESE: