Este es un post réplica del sitio web de Derechos Digitales, se puede encontrar el post original aquí.
Cuando Algoritmo Rima con Racismo
El racismo algorítmico es un desafío significativo en la era de la IA. Es crucial que las personas en roles de desarrollo, investigación e incluso las usuarias sean conscientes de estos sesgos y trabajen activamente para crear algoritmos más inclusivos y equitativos. Esto implica diversificar los conjuntos de datos y también cuestionar y revisar constantemente los supuestos subyacentes en el desarrollo de tecnologías.
Por: Luis Fernando Arias
El racismo algorítmico es un término que se ha vuelto cada vez más relevante en la era digital. Se refiere a la forma en que los algoritmos y sistemas de inteligencia artificial (IA) pueden perpetuar o incluso exacerbar sesgos y discriminación racial. Aunque la tecnología se presenta a menudo como objetiva y neutral, la realidad es que puede reflejar y amplificar las desigualdades sociales existentes.
Un ejemplo cotidiano de esto se encuentra en las búsquedas en internet. Al buscar términos como “mujer bonita” u “hombre exitoso”, los resultados tienden a mostrar imágenes de personas blancas, excluyendo la diversidad racial. Este sesgo se extiende a otras áreas, desde la selección de empleados hasta el reconocimiento facial. En este último caso, los algoritmos muestran preferencias hacia ciertos grupos raciales y discriminan a otros.
El problema radica en cómo se entrenan los algoritmos de IA. Estos sistemas aprenden a partir de grandes conjuntos de datos que, si no son lo suficientemente diversos o están sesgados, pueden llevar a conclusiones erróneas. Otro ejemplo es el de los algoritmos de contratación de personal, que tradicionalmente son entrenados con datos históricos que favorecen a los candidatos blancos, perpetuando entonces dicha tendencia.
Estereotipos Racistas
Un experimento revelador consiste en solicitar a un sistema de IA de texto-a-imagen que genere ilustraciones de “hombres exitosos” o “mujeres exitosas”. Los resultados suelen ser de personas blancas en contextos profesionales. En cambio, al pedir imágenes de “hombres pobres en Latinoamérica”, el sistema asume que son indígenas. Del mismo modo, al solicitar la creación de una imagen de “hombres negros trabajando,” su representación visual es la de obreros, mientras que para “hombres blancos trabajando” los muestra en una oficina y con trajes.
Las imágenes a continuación fueron creadas con DALL-E, incorporado en la versión 4.0 del sistema de IA ChatGPT. Haz clic en cada una de ellas para verlas en alta resolución.
- “Hombre exitoso”: se representa como un hombre alto, delgado, blanco y con barba.
- “Hombres pobres de Ecuador”: asume que son indígenas.
Lo Que Subyace al Racismo Algorítmico
Las causas apuntadas para tales situaciones incluyen:
Datos de entrenamiento sesgados: los algoritmos de IA aprenden a partir de datos históricos. Si estos datos reflejan desigualdades raciales o no representan adecuadamente la diversidad de la población, el algoritmo puede aprender y reproducir estos sesgos. Un estudio de 2019 mostró que los sistemas de reconocimiento facial tenían tasas de error más altas para personas de piel oscura, especialmente mujeres negras, debido a la falta de representación en los conjuntos de datos de entrenamiento.
Diseño algorítmico: la inteligencia artificial no es magia. Quienes diseñan y desarrollan los algoritmos y sistemas de IA pueden, con o sin intencionalidad, incorporar sus propios prejuicios en la creación de algoritmos. Las decisiones sobre qué variables incluir, cómo ponderarlas y de qué manera interpretarlas pueden influir en los resultados finales.
Interpretación y uso de resultados: incluso si un algoritmo es técnicamente imparcial, la forma en que se utilizan sus resultados puede conducir a prácticas discriminatorias.
La investigación de Tarcízio Silva aborda el impacto del racismo algorítmico en la visión computacional, destacando cómo los sistemas de IA y aprendizaje automático pueden perpetuar y amplificar prejuicios raciales. Silva examina cómo los algoritmos (el “back end”) y las representaciones visuales y textuales (el “front end”) materializan estereotipos invisibles que afectan a grupos racializados.
A través de un análisis basado en la Teoría Racial Crítica y estudios sobre la blanquitud, Silva propone un marco para comprender y desmantelar la opresión algorítmica, subrayando la necesidad de abrir las “cajas negras” de la tecnología para confrontar los sesgos raciales inherentes en los sistemas de visión computacional.
Enfrentando el Racismo Algorítmico
El racismo algorítmico es un desafío significativo en la era de la IA. Es crucial que quienes desarrollan, investigan o usan estos sistemas sean conscientes de estos sesgos y trabajen activamente para crear algoritmos más inclusivos y equitativos. Esto implica diversificar los conjuntos de datos y cuestionar los supuestos en el desarrollo de tecnologías. El fiasco de Google Gemini, por ejemplo, muestra que no se trata de corregir el racismo con más racismo, sino de desarrollar colectivamente algoritmos igualitarios.
La lucha contra el racismo algorítmico y la creación de tecnologías más equitativas se basa en un principio clave: aprender y enseñar cómo funcionan realmente los sistemas tecnológicos. Comprender el funcionamiento interno de los algoritmos es esencial para identificar y corregir sesgos y prejuicios. Esto requiere un enfoque educativo que no solo aborde habilidades técnicas, sino también la sensibilización respecto de los impactos sociales y culturales de la tecnología.
Desde Latinoamérica y entre los grupos minoritarios, la creación de capacidades en tecnología es especialmente crucial para desafiar y cambiar las narrativas dominantes en el campo de la IA. Al empoderar a estos grupos para participar activamente en el desarrollo tecnológico, se abre la puerta a una diversidad de perspectivas que pueden informar el diseño de algoritmos.
Conclusión
Fomentar la inclusión de voces marginadas en la ciencia y la tecnología contribuye a reducir los estereotipos raciales y sesgos en los sistemas de IA, y promueve la creación de soluciones innovadoras que atienden a las necesidades de todas las personas. Construir una comunidad tecnológica inclusiva y diversa es un paso fundamental hacia la eliminación de estereotipos raciales y la creación de algoritmos que sirvan equitativamente a toda la sociedad.
Solo así podremos asegurar que la IA sea un aporte al desarrollo.