Estamos ante un estudio WEIRDcuando los investigadores pretenden extrapolar al conjunto de la especie humana algún comportamiento o tendencia social
para la cual se han estudiado únicamente sujetos de esas
características, en la mayoría de los casos estudiantes en su etapa
universitaria (lo que añadiría ‘joven’ a la lista de adjetivos).
Las investigaciones WEIRD no son la consecuencia de ninguna
violación del método científico, ni de alguna clase de prejuicio
arraigado entre los investigadores. Sencillamente intentan extraer conclusiones a partir de conjuntos de datos insuficientemente diversos. Al menos, si lo que pretenden estudiar es el conjunto de la especie humana.
Pero este problema no es, ni mucho menos, exclusivo de psicólogos, sociólogos y pedagogos. De hecho, es recurrente en el campo de la inteligencia artificial.
Pero, ¿cómo van a ser racistas las máquinas?
Parecería lógico pensar que las inteligencias artificiales no padecen algunos males típicamente humanos, como los prejuicios; y que no discriminan, por tanto, en base a la raza / nacionalidad / cultura. Pero la realidad es un poco más compleja.
Hace ya 9 años, HP se enfrentó a una polémica inesperada: un vídeo
publicado en Youtube afirmaba que las computadoras de la compañía eran
‘racistas’. Los espectadores podían comprobar por sí mismos que el software de reconocimiento facial incluido en la HP MediaSmart sólo se activaba al aparecer en escena una persona de raza blanca, y no con una de raza negra.
La primera reacción de HP fue intentar culpar a la falta de iluminación en el primer plano de la imagen. Pero en 2016 la IA todavía parecía seguir siendo ‘racista’, y esta vez no era culpa de la iluminación: el concurso de belleza Beauty.AI,
gestionado a través de una IA, elegía de entre 6.000 personas de todo
el mundo a 44 ganadores, de los que sólo uno tenía la piel oscura.
El problema no son los prejuicios, sino los datos
Imagen de Graham C99 (Flickr).
Joy Buolamwini (investigadora del MIT Media Lab) y Timnit Gebru (empleada de Microsoft) se unieron
hace unos meses para poner a prueba tres sistemas de reconocimiento
facial disponibles comercialmente: dos de empresas estadounidenses
(Microsoft e IBM) y otra de una china (Megvii).
La conclusión a la que llegaron fue que dichos sistemas identificaban
correctamente el género de los individuos en un 99% de las ocasiones, cuando dichos individuos eran varones de piel clara.
Pero, cuando tenía que lidiar con personas de piel oscura, la tasa de
error se disparaba, alcanzando el 35% en el caso de las mujeres.
Pero ni los programadores de Beauty.AI, no los de Microsoft, IBM o Megvii, diseñaron sus algoritmos con la intención de discriminar a ningún grupo humano. No, el problema residía en los datos.
Según Alex Zhavoronkov, director científico de Beauty.AI, el problema
de su proyecto residió en que al haberse entrenado mayoritariamente con
fotos de blancos, la IA no vinculaba la piel oscura al ideal de “belleza humana”.
Otras veces el problema no es racial, sino cultural: las IAs fallan
al reconocer escenas o artefactos cuando se salen de los estándares
occidentales.
Ocurre que las IAs son entrenadas en base a recursos digitales recopilados por humanos. Por ejemplo, los bancos de imágenes de acceso público, como Open Images, se encuentran entre los recursos más utilizados.
Y es aquí donde aparece el sesgo: dichos bancos de imágenes ofrecen, mayoritariamente, imágenes que reflejan la cultura occidental (y, más concretamente, la anglosajona). De hecho, según ha expuesto la revista Nature,
más del 45% de los datos de ImageNet (una de las principales
referencias en la investigación de visión artificial) proviene de los
Estados Unidos.
Pero los EE.UU son un país que acoge únicamente al 4% de la población
mundial. Su sobrerrepresentación contrasta la situación de China y la
India: pese a representar por sí mismas más de un tercio de la humanidad, ambas naciones aportan sólo el 3% de los datos de ImageNet.
No hay que buscar ninguna maldad detrás de esto: por su mayor acceso a las telecomunicaciones y las nuevas tecnologías, han sido usuarios occidentales los que más material audiovisual han creado y digitalizado
en las últimas décadas. Tan ‘simple’ como eso. Pero claro, eso complica
ahora que las IAs entiendan a la mayor parte de los humanos.
“¿Quieres etiquetar las fotos de mi boda?”
Y es que, el aprendizaje automático generado en base a dichos datos es incompleto, y no permite a las IAs reconocer (y, por tanto, describir) con precisión escenas ajenas a la cultura occidental.
Este hecho, al margen de cualquier consideración sociopolítica,
objetivamente resta efectividad a muchos sistemas de reconocimiento de
imágenes.
El problema se aprecia fácilmente en la siguiente imagen.
En ella, se ven varias fotos, y la descripción generada a partir de las
mismas por un sistema estándar de reconocimiento de imágenes,
alimentado por los bancos de datos de los que hablábamos.
Se aprecia que es capaz de afinar la descripción de las primeras
fotos incluyendo términos como “vestido”, “boda”, “ceremonia”, “novio”, y
“novia”. Sin embargo, en la última foto sólo es capaz de indicar que aparecen “personas” en la misma, pese a tratarse igualmente de una foto de boda (africana tradicional, en este caso).
Este problema, claro está, se soluciona ampliando el espectro
cultural en el que se entrena a las IAs. Con ese fin, Google lanzó en
septiembre un Concurso de Imágenes Inclusivas, destinado a reducir el sesgo en un sistema de visión por computador y generar así resultados más representativos.
Para ello, Google animó en dicho concurso a que los equipos
competidores se dedicasen a mejorar los algoritmos para optimizar su
capacidad descriptiva, y una vez hecho esto se les sometió a una ‘prueba de estrés’ en base a las numerosas fotos aportadas por voluntarios de todo el mundo.
Aquellos algoritmos que etiquetasen con mayor precisión dichas nuevas
fotos ganaron más puntos en base a los criterios establecidos por
Google. Y, finalmente, cinco equipos recibieron cada uno un premio de
5.000 dólares.
Pese a ello, ninguno fue capaz de elaborar un algoritmo completamente imparcial: sólo uno de ellos, por ejemplo, fue capaz de reconocer la foto de una novia tradicional hindú con siri.
El Dataset Nutrition Label Project
Pero concursos como el de Google, si bien ayudan a visibilizar el problema, no ayudan a erradicarlo en su origen: en cómo plantean los profesionales de IA el uso de conjuntos de datos.
Para ello, el MIT ha puesto en marcha el Dataset Nutrition Label Project. En su página web y en el paper en el que basan su trabajo exponen su particular propuesta para comenzar a solucionar este problema:
Los datos incompletos, mal entendidos o históricamente
problemáticos pueden influir negativamente en los algoritmos de AI.
[…] Para mejorar la precisión e imparcialidad de los algoritmos […]
debemos facilitar que los profesionales evalúen rápidamente la
viabilidad y la idoneidad de los conjuntos de datos.
[…]Los métodos actuales de análisis de datos, particularmente
antes del desarrollo del modelo, son costosos y no están estandarizados.
[Así que] falta un paso en la línea de desarrollo de la IA: evaluar
conjuntos de datos basados en medidas de calidad estándar, tanto
cualitativas como cuantitativas. Estamos trabajando en agrupar dichas
medidas en una Etiqueta de Alimentación de Sets de Datos que resulte
fácil de usar.
Según los investigadores, los beneficios de esta ‘etiqueta’ (aquí el prototipo de la misma) serán los siguientes:
Para los especialistas en datos: “impulsará
prácticas de análisis de datos más robustas, proporcionará una manera
eficiente de seleccionar el mejor conjunto de datos para sus propósitos y
aumentará la calidad general de los modelos de AI”.
Para aquellos que crean y publican conjuntos de datos: “creará una expectativa de explicación, que impulsará mejores prácticas de recolección de datos”.
We use cookies on our website to give you the most relevant experience by remembering your preferences and repeat visits. By clicking “Accept All”, you consent to the use of ALL the cookies. However, you may visit "Cookie Settings" to provide a controlled consent.
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. These cookies ensure basic functionalities and security features of the website, anonymously.
Cookie
Duración
Descripción
cookielawinfo-checkbox-analytics
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Analytics".
cookielawinfo-checkbox-functional
11 months
The cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Functional".
cookielawinfo-checkbox-necessary
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookies is used to store the user consent for the cookies in the category "Necessary".
cookielawinfo-checkbox-others
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Other.
cookielawinfo-checkbox-performance
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Performance".
viewed_cookie_policy
11 months
The cookie is set by the GDPR Cookie Consent plugin and is used to store whether or not user has consented to the use of cookies. It does not store any personal data.
Functional cookies help to perform certain functionalities like sharing the content of the website on social media platforms, collect feedbacks, and other third-party features.
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.
Advertisement cookies are used to provide visitors with relevant ads and marketing campaigns. These cookies track visitors across websites and collect information to provide customized ads.
Estamos ante un estudio WEIRD cuando los investigadores pretenden extrapolar al conjunto de la especie humana algún comportamiento o tendencia social para la cual se han estudiado únicamente sujetos de esas características, en la mayoría de los casos estudiantes en su etapa universitaria (lo que añadiría ‘joven’ a la lista de adjetivos).
Las investigaciones WEIRD no son la consecuencia de ninguna violación del método científico, ni de alguna clase de prejuicio arraigado entre los investigadores. Sencillamente intentan extraer conclusiones a partir de conjuntos de datos insuficientemente diversos. Al menos, si lo que pretenden estudiar es el conjunto de la especie humana.
Pero este problema no es, ni mucho menos, exclusivo de psicólogos, sociólogos y pedagogos. De hecho, es recurrente en el campo de la inteligencia artificial.
Pero, ¿cómo van a ser racistas las máquinas?
Parecería lógico pensar que las inteligencias artificiales no padecen algunos males típicamente humanos, como los prejuicios; y que no discriminan, por tanto, en base a la raza / nacionalidad / cultura. Pero la realidad es un poco más compleja.
Hace ya 9 años, HP se enfrentó a una polémica inesperada: un vídeo publicado en Youtube afirmaba que las computadoras de la compañía eran ‘racistas’. Los espectadores podían comprobar por sí mismos que el software de reconocimiento facial incluido en la HP MediaSmart sólo se activaba al aparecer en escena una persona de raza blanca, y no con una de raza negra.
La primera reacción de HP fue intentar culpar a la falta de iluminación en el primer plano de la imagen. Pero en 2016 la IA todavía parecía seguir siendo ‘racista’, y esta vez no era culpa de la iluminación: el concurso de belleza Beauty.AI, gestionado a través de una IA, elegía de entre 6.000 personas de todo el mundo a 44 ganadores, de los que sólo uno tenía la piel oscura.
El problema no son los prejuicios, sino los datos
Imagen de Graham C99 (Flickr).
Joy Buolamwini (investigadora del MIT Media Lab) y Timnit Gebru (empleada de Microsoft) se unieron hace unos meses para poner a prueba tres sistemas de reconocimiento facial disponibles comercialmente: dos de empresas estadounidenses (Microsoft e IBM) y otra de una china (Megvii).
La conclusión a la que llegaron fue que dichos sistemas identificaban correctamente el género de los individuos en un 99% de las ocasiones, cuando dichos individuos eran varones de piel clara. Pero, cuando tenía que lidiar con personas de piel oscura, la tasa de error se disparaba, alcanzando el 35% en el caso de las mujeres.
Pero ni los programadores de Beauty.AI, no los de Microsoft, IBM o Megvii, diseñaron sus algoritmos con la intención de discriminar a ningún grupo humano. No, el problema residía en los datos.
Según Alex Zhavoronkov, director científico de Beauty.AI, el problema de su proyecto residió en que al haberse entrenado mayoritariamente con fotos de blancos, la IA no vinculaba la piel oscura al ideal de “belleza humana”.
Otras veces el problema no es racial, sino cultural: las IAs fallan al reconocer escenas o artefactos cuando se salen de los estándares occidentales.
Ocurre que las IAs son entrenadas en base a recursos digitales recopilados por humanos. Por ejemplo, los bancos de imágenes de acceso público, como Open Images, se encuentran entre los recursos más utilizados.
Y es aquí donde aparece el sesgo: dichos bancos de imágenes ofrecen, mayoritariamente, imágenes que reflejan la cultura occidental (y, más concretamente, la anglosajona). De hecho, según ha expuesto la revista Nature, más del 45% de los datos de ImageNet (una de las principales referencias en la investigación de visión artificial) proviene de los Estados Unidos.
Pero los EE.UU son un país que acoge únicamente al 4% de la población mundial. Su sobrerrepresentación contrasta la situación de China y la India: pese a representar por sí mismas más de un tercio de la humanidad, ambas naciones aportan sólo el 3% de los datos de ImageNet.
No hay que buscar ninguna maldad detrás de esto: por su mayor acceso a las telecomunicaciones y las nuevas tecnologías, han sido usuarios occidentales los que más material audiovisual han creado y digitalizado en las últimas décadas. Tan ‘simple’ como eso. Pero claro, eso complica ahora que las IAs entiendan a la mayor parte de los humanos.
“¿Quieres etiquetar las fotos de mi boda?”
Y es que, el aprendizaje automático generado en base a dichos datos es incompleto, y no permite a las IAs reconocer (y, por tanto, describir) con precisión escenas ajenas a la cultura occidental. Este hecho, al margen de cualquier consideración sociopolítica, objetivamente resta efectividad a muchos sistemas de reconocimiento de imágenes.
El problema se aprecia fácilmente en la siguiente imagen. En ella, se ven varias fotos, y la descripción generada a partir de las mismas por un sistema estándar de reconocimiento de imágenes, alimentado por los bancos de datos de los que hablábamos.
Se aprecia que es capaz de afinar la descripción de las primeras fotos incluyendo términos como “vestido”, “boda”, “ceremonia”, “novio”, y “novia”. Sin embargo, en la última foto sólo es capaz de indicar que aparecen “personas” en la misma, pese a tratarse igualmente de una foto de boda (africana tradicional, en este caso).
Este problema, claro está, se soluciona ampliando el espectro cultural en el que se entrena a las IAs. Con ese fin, Google lanzó en septiembre un Concurso de Imágenes Inclusivas, destinado a reducir el sesgo en un sistema de visión por computador y generar así resultados más representativos.
Para ello, Google animó en dicho concurso a que los equipos competidores se dedicasen a mejorar los algoritmos para optimizar su capacidad descriptiva, y una vez hecho esto se les sometió a una ‘prueba de estrés’ en base a las numerosas fotos aportadas por voluntarios de todo el mundo.
Aquellos algoritmos que etiquetasen con mayor precisión dichas nuevas fotos ganaron más puntos en base a los criterios establecidos por Google. Y, finalmente, cinco equipos recibieron cada uno un premio de 5.000 dólares.
Pese a ello, ninguno fue capaz de elaborar un algoritmo completamente imparcial: sólo uno de ellos, por ejemplo, fue capaz de reconocer la foto de una novia tradicional hindú con siri.
El Dataset Nutrition Label Project
Pero concursos como el de Google, si bien ayudan a visibilizar el problema, no ayudan a erradicarlo en su origen: en cómo plantean los profesionales de IA el uso de conjuntos de datos.
Para ello, el MIT ha puesto en marcha el Dataset Nutrition Label Project. En su página web y en el paper en el que basan su trabajo exponen su particular propuesta para comenzar a solucionar este problema:
Según los investigadores, los beneficios de esta ‘etiqueta’ (aquí el prototipo de la misma) serán los siguientes:
Fuente
Compartir esto: