El caso de Twitter fue aparentemente subsanado por la compañía –resulta que su algoritmo no estaba entrenado para reconocer caras negras–; el segundo caso fue destapado por ProPublica en Estados Unidos e investigado después por el MIT, que concluyó que “un algoritmo judicial justo es imposible”; el tercer caso llegó mucho más lejos: debido a este escándalo el Gobierno de Países Bajos dimitió en bloque en enero de 2021.
Fue Eva González Pérez, una abogada de origen español, quien detectó en 2014 que algo raro pasaba en Holanda, al observar que varias familias dejaban de llevar a sus hijos a los centros infantiles que dirigía su marido. La abogada se puso a investigar; seis años después, un tribunal neerlandés declaraba ilegal el sistema SyRI, por el que el Gobierno de Países Bajos establecía qué ciudadanos eran más propensos a defraudar a Hacienda a la hora de concederles ayudas sociales, señalando por defecto a la población de origen migrante. El resultado ya se sabe: el Ejecutivo liderado por Mark Rutte cayó, sí, pero entretanto más de 20.000 familias fueron víctimas de una acusación injusta que les llevó a endeudarse por las elevadas multas, e incluso a perder su casa y su salud.
Cuando se le pregunta a Youssef M. Ouled qué les llevó a él y a otros comunicadores a crear AlgoRace, contesta haciendo referencia a todo lo anterior. “Estamos inundados de algoritmos, están en todos los ámbitos de la vida. Y los hay positivos, pero la mayoría también reproducen sesgos racistas y de género”, apunta. Por algo el lema de la organización AlgoRace es “(Des)racializando la IA”.
¿Quiere decir esto que la inteligencia artificial es racista? No en sí misma. Pero sí tiende a perpetuar sesgos racistas, por varios motivos.
“Un algoritmo no es racista ni deja de serlo, sino que se limita a ser educado o entrenado con una serie de datos que provocan una reacción determinada”, explica Enrique Dans, investigador sobre Sistemas y Tecnologías de Información. “¿Cuál es el problema? Que las recolecciones de datos, las conexiones con las que los educamos, sí que pueden ser perfectamente racistas”, plantea Dans, autor de Viviendo en el futuro: Claves sobre cómo la tecnología está cambiando nuestro mundo.
Quién los diseña y en qué contexto
Youssef M. Ouled coincide en que “los algoritmos, per se, no son racistas”, pero el periodista va más allá y habla del “contexto” en que se circunscriben. “Si miramos el campo en el que se desarrollan, analizan, diseñan y discuten los sistemas de inteligencia artificial, compuestos por algoritmos, nos encontramos con un mundo muy masculinizado y, por supuesto, blanco. En ese contexto, muchos de los entrenamientos que se dan a los algoritmos para que tengan una funcionalidad van con los sesgos implícitos que tiene la propia persona que los diseña, que los prueba, etcétera”, explica el periodista y coordinador del área antidiscriminación en Rights International Spain.
Por eso hubo una época en la que Twitter no reconocía rostros de personas negras. “La tecnología del reconocimiento facial ha sido desarrollada y entrenada sobre rostros de personas blancas, sin tener en cuenta que hay personas que no son blancas, la mayoría, de hecho”, sostiene Ouled. El resultado puede ser ‘anecdótico’, como el experimento que desveló el racismo de Twitter, o puede llevar a que una persona inocente sea detenida al ser confundida con un delincuente con el que sólo compartía color de piel.
Ouled señala que “los algoritmos no dejan de ser una receta para llevar a cabo una función”; quien seleccione e introduzca los pasos de esa receta estará orientando finalmente al algoritmo, de modo que habrá sesgos en mayor o menor medida. Como afirmaba el investigador peruano Omar Flórez en una entrevista con la BBC: “El algoritmo mismo es una opinión”.
No obstante, garantizar la diversidad en las plantillas del sector tecnológico no sería suficiente para poner fin a los sesgos raciales o incluso de género, lo cual complica un poco más el panorama. Como explica Enrique Dans, son las propias series de datos que maneja el algoritmo las que inducen a un resultado sesgado. El investigador lo ilustra con un ejemplo de un banco estadounidense que trata de calcular los riesgos al conceder un crédito a alguien.
“Históricamente, en Estados Unidos la población negra ha tenido más problemas para devolver sus préstamos, lo cual es comprensible teniendo en cuenta la discriminación histórica que han sufrido, que les ha llevado a tener peor poder adquisitivo, etcétera”, plantea Dans. Pues bien, aunque el banco en cuestión no guarde registro del origen étnico de sus clientes, “es posible que la estadística avanzada que usa el algoritmo llegue a la conclusión de que es mejor denegar los préstamos a personas con unos nombres determinados, o que viven en unos barrios determinados o con cualquier característica que pueda estar correlacionada con la variable racial”, apunta el investigador. “En este caso, se estaría permitiendo que una serie histórica de datos hiciese que el algoritmo heredara un comportamiento determinado que consolida estereotipos raciales”, concluye.
De nuevo, Youssef M. Ouled apela a la relevancia del “contexto de racismo estructural”, por ejemplo cuando se utiliza un algoritmo para predecir el crimen, ya sea con el sistema Compas en EEUU o con el de RisCanvi en Cataluña. “Si las personas más identificadas a nivel policial son racializadas, las personas más denunciadas son racializadas, las personas que más contacto tienen con la institución policial son racializadas y metes todo esto a un sistema de datos para que extraiga conclusiones por sí mismo, al final va a acabar reproduciendo el mismo racismo institucional que ya existe”, sostiene.
Según un estudio de la Universidad de Granada, la Policía en España para a las personas de origen africano 42 veces más que a las personas caucásicas; a los gitanos los paran 12 veces más, a los magrebíes 10 veces más y a las personas latinoamericanas, 8 veces más que a alguien con rasgos caucásicos. Es decir, si el sistema en el que vivimos no es neutral, “la inteligencia artificial no es neutral”, zanja Ouled.
Los algoritmos también discriminan a las mujeres
Algo similar puede producirse –y se produce– con el género. El ejemplo más claro está en Amazon. En 2018, Reuters sacó a la luz que la compañía estadounidense había tenido que desechar un método de selección de currículos porque discriminaba claramente a las mujeres.
“El mundo de la tecnología siempre ha sido predominantemente masculino”, constata Enrique Dans. De este modo, y sin necesidad de incluir ninguna variable relacionada con el género, se vio que el algoritmo de Amazon “tendía a no seleccionar candidatas para determinados puestos de trabajo”, ya que los registros históricos con los que se había entrenado al sistema eran básicamente candidaturas de hombres.
Cómo evitar (en la medida de lo posible) los sesgos
Para Enrique Dans, la clave no estaría tanto en la transparencia como en la necesidad de que haya una revisión exhaustiva de los resultados a posteriori. Algo así como ‘vigilar’ de cerca al algoritmo para prevenir, reducir y corregir los sesgos. “Lo único que puedes hacer es un análisis muy cuidadoso y muy detallado de los resultados que te da para poder comprobar, a posteriori, si efectivamente hay sesgos y discriminación”, defiende el investigador.
“Lo que hace el algoritmo es perpetuar, o incluso amplificar, el sesgo que había en los datos. Como el sesgo de los datos no es fácil de observar, tenemos que observarlo al otro lado, a la salida del algoritmo”, propone Dans.
Dicho de otra manera: “Si se entrena a un algoritmo con unas series de datos sin establecer ningún tipo de prevención al respecto, lo que te da de manera natural es un algoritmo que estadísticamente tiende a sostener y a perpetuar la discriminación”, advierte Dans. Por ello “no se puede dejar todo a la estadística; tiene que haber supervisión”, afirma rotundo el investigador.
Youssef M. Ouled recuerda que precisamente el Gobierno se comprometió a crear en 2022 una Agencia Española de Supervisión de Inteligencia Artificial para auditar algoritmos de redes sociales, administraciones públicas y empresas. El anuncio llegó en diciembre de 2021, pero “no hemos vuelto a saber nada”, resume Ouled.
We use cookies on our website to give you the most relevant experience by remembering your preferences and repeat visits. By clicking “Accept All”, you consent to the use of ALL the cookies. However, you may visit "Cookie Settings" to provide a controlled consent.
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. These cookies ensure basic functionalities and security features of the website, anonymously.
Cookie
Duración
Descripción
cookielawinfo-checkbox-analytics
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Analytics".
cookielawinfo-checkbox-functional
11 months
The cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Functional".
cookielawinfo-checkbox-necessary
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookies is used to store the user consent for the cookies in the category "Necessary".
cookielawinfo-checkbox-others
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Other.
cookielawinfo-checkbox-performance
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Performance".
viewed_cookie_policy
11 months
The cookie is set by the GDPR Cookie Consent plugin and is used to store whether or not user has consented to the use of cookies. It does not store any personal data.
Functional cookies help to perform certain functionalities like sharing the content of the website on social media platforms, collect feedbacks, and other third-party features.
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.
Advertisement cookies are used to provide visitors with relevant ads and marketing campaigns. These cookies track visitors across websites and collect information to provide customized ads.
Por Marina Velasco
Imágenes en Twitter que ocultan la cara de Barack Obama, sistemas de predicción de delitos que sospechan más de la población negra, 26.000 familias –la mayoría de origen migrante– acusadas injustamente de fraude. Son tres ejemplos reales, con menor o mayor repercusión, de que los algoritmos y la inteligencia artificial (IA) tienen sesgos raciales, entre otros.
El caso de Twitter fue aparentemente subsanado por la compañía –resulta que su algoritmo no estaba entrenado para reconocer caras negras–; el segundo caso fue destapado por ProPublica en Estados Unidos e investigado después por el MIT, que concluyó que “un algoritmo judicial justo es imposible”; el tercer caso llegó mucho más lejos: debido a este escándalo el Gobierno de Países Bajos dimitió en bloque en enero de 2021.
Fue Eva González Pérez, una abogada de origen español, quien detectó en 2014 que algo raro pasaba en Holanda, al observar que varias familias dejaban de llevar a sus hijos a los centros infantiles que dirigía su marido. La abogada se puso a investigar; seis años después, un tribunal neerlandés declaraba ilegal el sistema SyRI, por el que el Gobierno de Países Bajos establecía qué ciudadanos eran más propensos a defraudar a Hacienda a la hora de concederles ayudas sociales, señalando por defecto a la población de origen migrante. El resultado ya se sabe: el Ejecutivo liderado por Mark Rutte cayó, sí, pero entretanto más de 20.000 familias fueron víctimas de una acusación injusta que les llevó a endeudarse por las elevadas multas, e incluso a perder su casa y su salud.
Cuando se le pregunta a Youssef M. Ouled qué les llevó a él y a otros comunicadores a crear AlgoRace, contesta haciendo referencia a todo lo anterior. “Estamos inundados de algoritmos, están en todos los ámbitos de la vida. Y los hay positivos, pero la mayoría también reproducen sesgos racistas y de género”, apunta. Por algo el lema de la organización AlgoRace es “(Des)racializando la IA”.
¿Quiere decir esto que la inteligencia artificial es racista? No en sí misma. Pero sí tiende a perpetuar sesgos racistas, por varios motivos.
“Un algoritmo no es racista ni deja de serlo, sino que se limita a ser educado o entrenado con una serie de datos que provocan una reacción determinada”, explica Enrique Dans, investigador sobre Sistemas y Tecnologías de Información. “¿Cuál es el problema? Que las recolecciones de datos, las conexiones con las que los educamos, sí que pueden ser perfectamente racistas”, plantea Dans, autor de Viviendo en el futuro: Claves sobre cómo la tecnología está cambiando nuestro mundo.
Quién los diseña y en qué contexto
Youssef M. Ouled coincide en que “los algoritmos, per se, no son racistas”, pero el periodista va más allá y habla del “contexto” en que se circunscriben. “Si miramos el campo en el que se desarrollan, analizan, diseñan y discuten los sistemas de inteligencia artificial, compuestos por algoritmos, nos encontramos con un mundo muy masculinizado y, por supuesto, blanco. En ese contexto, muchos de los entrenamientos que se dan a los algoritmos para que tengan una funcionalidad van con los sesgos implícitos que tiene la propia persona que los diseña, que los prueba, etcétera”, explica el periodista y coordinador del área antidiscriminación en Rights International Spain.
Por eso hubo una época en la que Twitter no reconocía rostros de personas negras. “La tecnología del reconocimiento facial ha sido desarrollada y entrenada sobre rostros de personas blancas, sin tener en cuenta que hay personas que no son blancas, la mayoría, de hecho”, sostiene Ouled. El resultado puede ser ‘anecdótico’, como el experimento que desveló el racismo de Twitter, o puede llevar a que una persona inocente sea detenida al ser confundida con un delincuente con el que sólo compartía color de piel.
Ouled señala que “los algoritmos no dejan de ser una receta para llevar a cabo una función”; quien seleccione e introduzca los pasos de esa receta estará orientando finalmente al algoritmo, de modo que habrá sesgos en mayor o menor medida. Como afirmaba el investigador peruano Omar Flórez en una entrevista con la BBC: “El algoritmo mismo es una opinión”.
No obstante, garantizar la diversidad en las plantillas del sector tecnológico no sería suficiente para poner fin a los sesgos raciales o incluso de género, lo cual complica un poco más el panorama. Como explica Enrique Dans, son las propias series de datos que maneja el algoritmo las que inducen a un resultado sesgado. El investigador lo ilustra con un ejemplo de un banco estadounidense que trata de calcular los riesgos al conceder un crédito a alguien.
“Históricamente, en Estados Unidos la población negra ha tenido más problemas para devolver sus préstamos, lo cual es comprensible teniendo en cuenta la discriminación histórica que han sufrido, que les ha llevado a tener peor poder adquisitivo, etcétera”, plantea Dans. Pues bien, aunque el banco en cuestión no guarde registro del origen étnico de sus clientes, “es posible que la estadística avanzada que usa el algoritmo llegue a la conclusión de que es mejor denegar los préstamos a personas con unos nombres determinados, o que viven en unos barrios determinados o con cualquier característica que pueda estar correlacionada con la variable racial”, apunta el investigador. “En este caso, se estaría permitiendo que una serie histórica de datos hiciese que el algoritmo heredara un comportamiento determinado que consolida estereotipos raciales”, concluye.
De nuevo, Youssef M. Ouled apela a la relevancia del “contexto de racismo estructural”, por ejemplo cuando se utiliza un algoritmo para predecir el crimen, ya sea con el sistema Compas en EEUU o con el de RisCanvi en Cataluña. “Si las personas más identificadas a nivel policial son racializadas, las personas más denunciadas son racializadas, las personas que más contacto tienen con la institución policial son racializadas y metes todo esto a un sistema de datos para que extraiga conclusiones por sí mismo, al final va a acabar reproduciendo el mismo racismo institucional que ya existe”, sostiene.
Según un estudio de la Universidad de Granada, la Policía en España para a las personas de origen africano 42 veces más que a las personas caucásicas; a los gitanos los paran 12 veces más, a los magrebíes 10 veces más y a las personas latinoamericanas, 8 veces más que a alguien con rasgos caucásicos. Es decir, si el sistema en el que vivimos no es neutral, “la inteligencia artificial no es neutral”, zanja Ouled.
Los algoritmos también discriminan a las mujeres
Algo similar puede producirse –y se produce– con el género. El ejemplo más claro está en Amazon. En 2018, Reuters sacó a la luz que la compañía estadounidense había tenido que desechar un método de selección de currículos porque discriminaba claramente a las mujeres.
“El mundo de la tecnología siempre ha sido predominantemente masculino”, constata Enrique Dans. De este modo, y sin necesidad de incluir ninguna variable relacionada con el género, se vio que el algoritmo de Amazon “tendía a no seleccionar candidatas para determinados puestos de trabajo”, ya que los registros históricos con los que se había entrenado al sistema eran básicamente candidaturas de hombres.
Cómo evitar (en la medida de lo posible) los sesgos
Para Enrique Dans, la clave no estaría tanto en la transparencia como en la necesidad de que haya una revisión exhaustiva de los resultados a posteriori. Algo así como ‘vigilar’ de cerca al algoritmo para prevenir, reducir y corregir los sesgos. “Lo único que puedes hacer es un análisis muy cuidadoso y muy detallado de los resultados que te da para poder comprobar, a posteriori, si efectivamente hay sesgos y discriminación”, defiende el investigador.
“Lo que hace el algoritmo es perpetuar, o incluso amplificar, el sesgo que había en los datos. Como el sesgo de los datos no es fácil de observar, tenemos que observarlo al otro lado, a la salida del algoritmo”, propone Dans.
Dicho de otra manera: “Si se entrena a un algoritmo con unas series de datos sin establecer ningún tipo de prevención al respecto, lo que te da de manera natural es un algoritmo que estadísticamente tiende a sostener y a perpetuar la discriminación”, advierte Dans. Por ello “no se puede dejar todo a la estadística; tiene que haber supervisión”, afirma rotundo el investigador.
Youssef M. Ouled recuerda que precisamente el Gobierno se comprometió a crear en 2022 una Agencia Española de Supervisión de Inteligencia Artificial para auditar algoritmos de redes sociales, administraciones públicas y empresas. El anuncio llegó en diciembre de 2021, pero “no hemos vuelto a saber nada”, resume Ouled.
Original
Compartir esto: