Imagínese caminando por la calle y viendo las pantallas publicitarias cambiar su contenido en función de cómo camina, cómo habla, o incluso la forma de su pecho. Estas pantallas se basan en cámaras, micrófonos y computadoras ocultas para adivinar si eres hombre o mujer. Puede sonar futurista, pero los clientes de una pizzería noruega descubrieron que era exactamente lo que estaba sucediendo: las mujeres veían anuncios de ensalada y los hombres veían anuncios de opciones de carne. El software que ejecutaba un tablero publicitario digital se revoló cuando se cayó y mostró su código subyacente. La motivación para usar esta tecnología podría haber sido mejorar la calidad de la publicidad o la experiencia del usuario. Sin embargo, muchos clientes se sintieron desagradablemente sorprendidos por ello.
Este tipo de situación no es solo espeluznante e invasiva. Es peor: los esfuerzos para el reconocimiento automático de género, el uso de algoritmos para adivinar el género de una persona en función de las imágenes, el video o el audio, plantea importantes preocupaciones sociales y éticas que aún no se han explorado del todo. La mayoría de las investigaciones actuales sobre tecnologías automáticas de reconocimiento de género se enfocan en cambio en detalles tecnológicos.
Nuestra investigación descubrió que las personas con diversas identidades de género, incluidas las que se identifican como transgéneros o de género no binario, están particularmente preocupadas de que estos sistemas puedan clasificarlas erróneamente. Las personas que expresan su género de manera diferente a las normas masculinas y femeninas estereotipadas ya experimentan discriminación y daño como resultado de una mala clasificación o incomprensión. Idealmente, los diseñadores de tecnología deberían desarrollar sistemas para hacer que estos problemas sean menos comunes, no más.
Usar algoritmos para clasificar personas
A medida que las tecnologías digitales se vuelven más potentes y sofisticadas, sus diseñadores intentan utilizarlas para identificar y categorizar características humanas complejas, como la orientación sexual, el género y la etnia. La idea es que con suficiente capacitación en abundantes datos de usuario, los algoritmos pueden aprender a analizar la apariencia y el comportamiento de las personas, y quizás algún día caractericen a las personas igual o mejor que otros humanos.
Cómo funciona el aprendizaje automático
El género es un tema difícil de manejar para las personas. Es un concepto complejo con funciones importantes tanto como construcción cultural como aspecto central de la identidad de un individuo. Investigadores, eruditos y activistas están revelando cada vez más los aspectos diversos, fluidos y multifacéticos del género. En el proceso, descubren que ignorar esta diversidad puede conducir tanto a experiencias perjudiciales como a la injusticia social. Por ejemplo, según la Encuesta nacional de personas transgénero 2016 , el 47 por ciento de los participantes transgénero afirmaron que habían experimentado algún tipo de discriminación en su lugar de trabajo debido a su identidad de género. Más de la mitad de las personas transgénero que fueron hostigadas, atacadas o expulsadas debido a su identidad de género habían intentado suicidarse.
En nuestra investigación, entrevistamos a 13 personas transgénero y no conformes con el género, sobre sus impresiones generales de la tecnología automática de reconocimiento de género. También les pedimos que describieran sus respuestas a escenarios futuros imaginarios donde podrían encontrarlo. Los 13 participantes estaban preocupados por esta tecnología y dudaron si podría ofrecer algún beneficio a su comunidad.
De particular preocupación era la posibilidad de ser mal interpretado por ella; en su experiencia, el género es, en gran medida, una característica interna y subjetiva, no algo que se expresa necesariamente o por completo en el exterior. Por lo tanto, ni los humanos ni los algoritmos pueden leer con precisión el género a través de las características físicas, como la cara, el cuerpo o la voz.
Describieron cómo el ser mal detectados por los algoritmos podría sentirse peor que si los humanos lo hicieran. La tecnología a menudo se percibe o se cree que es objetiva e imparcial, por lo que ser categorizado erróneamente por un algoritmo enfatizaría la idea errónea de que una identidad transgénero no es auténtica. Un participante describió cómo se sentirían heridos si una “pieza de software de un millón de dólares desarrollada por muchas personas” decidiera que no son quienes ellos mismos creen que son.
Privacidad y transparencia
Las personas que entrevistamos compartían la preocupación pública común de que las cámaras automáticas podrían usarse para la vigilancia sin su consentimiento o conocimiento; Durante años, los investigadores y activistas han alertado sobre el aumento de las amenazas a la privacidad en un mundo poblado por sensores y cámaras.
Pero nuestros participantes describieron cómo los efectos de estas tecnologías podrían ser mayores para las personas transgénero. Por ejemplo, podrían ser señalados como inusuales porque se ven o se comportan de manera diferente a lo que esperan los algoritmos subyacentes. Algunos participantes incluso estaban preocupados de que los sistemas pudieran falsamente determinar que estaban tratando de ser otra persona y engañar al sistema.
Sus preocupaciones también se extendieron a las personas cisgénero que podrían verse o actuar de forma diferente a la mayoría, como las personas de diferentes razas, las personas que los algoritmos perciben como andróginos y las personas con estructuras faciales únicas. Esto ya le sucede a personas pertenecientes a minorías raciales y étnicas, a quienes la tecnología de reconocimiento facial les identifica erróneamente con regularidad. Por ejemplo, la tecnología de reconocimiento facial existente en algunas cámaras no detecta adecuadamente las caras de los usuarios asiáticos y les envía mensajes para que dejen de parpadear o para que no los abran.
Nuestros entrevistados querían saber más sobre cómo funcionan los sistemas automáticos de reconocimiento de género y para qué se utilizan. No querían conocer detalles técnicos profundos, pero querían asegurarse de que la tecnología no comprometiera su privacidad o identidad. También querían que más personas transgénero participaran en las primeras etapas de diseño y desarrollo de estos sistemas, mucho antes de que se implementaran.
Crear sistemas automáticos inclusivos
Nuestros resultados demuestran cómo los diseñadores de tecnologías de categorización automáticas pueden causar daños inadvertidamente al hacer suposiciones sobre la simplicidad y la previsibilidad de las características humanas. Nuestra investigación se suma a un creciente cuerpo de trabajo que intenta incorporar de manera más cuidadosa el género en la tecnología.
Históricamente, las minorías han quedado fuera de las conversaciones sobre el despliegue de tecnología a gran escala, incluidas las minorías étnicas y las personas con discapacidad . Sin embargo, tanto los científicos como los diseñadores saben que incluir aportes de grupos minoritarios durante el proceso de diseño puede conducir a innovaciones técnicas que beneficien a todas las personas. Abogamos por un enfoque de automatización más inclusivo e inclusivo de género que incorpora perspectivas diversas.
A medida que las tecnologías digitales se desarrollan y maduran, pueden llevar a innovaciones impresionantes. Pero como los humanos dirigen ese trabajo, deben evitar amplificar los prejuicios y los prejuicios humanos que son negativos y limitantes. En el caso del reconocimiento automático de género, no necesariamente concluimos que estos algoritmos deberían abandonarse. Por el contrario, los diseñadores de estos sistemas deberían incluir y ser sensibles a la diversidad y complejidad de la identidad humana.
We use cookies on our website to give you the most relevant experience by remembering your preferences and repeat visits. By clicking “Accept All”, you consent to the use of ALL the cookies. However, you may visit "Cookie Settings" to provide a controlled consent.
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. These cookies ensure basic functionalities and security features of the website, anonymously.
Cookie
Duración
Descripción
cookielawinfo-checkbox-analytics
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Analytics".
cookielawinfo-checkbox-functional
11 months
The cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Functional".
cookielawinfo-checkbox-necessary
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookies is used to store the user consent for the cookies in the category "Necessary".
cookielawinfo-checkbox-others
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Other.
cookielawinfo-checkbox-performance
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Performance".
viewed_cookie_policy
11 months
The cookie is set by the GDPR Cookie Consent plugin and is used to store whether or not user has consented to the use of cookies. It does not store any personal data.
Functional cookies help to perform certain functionalities like sharing the content of the website on social media platforms, collect feedbacks, and other third-party features.
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.
Advertisement cookies are used to provide visitors with relevant ads and marketing campaigns. These cookies track visitors across websites and collect information to provide customized ads.
por Foad Hamidi, Morgan Scheuerman y Stacy Branham traducción David ormeño
Imagínese caminando por la calle y viendo las pantallas publicitarias cambiar su contenido en función de cómo camina, cómo habla, o incluso la forma de su pecho. Estas pantallas se basan en cámaras, micrófonos y computadoras ocultas para adivinar si eres hombre o mujer. Puede sonar futurista, pero los clientes de una pizzería noruega descubrieron que era exactamente lo que estaba sucediendo: las mujeres veían anuncios de ensalada y los hombres veían anuncios de opciones de carne. El software que ejecutaba un tablero publicitario digital se revoló cuando se cayó y mostró su código subyacente. La motivación para usar esta tecnología podría haber sido mejorar la calidad de la publicidad o la experiencia del usuario. Sin embargo, muchos clientes se sintieron desagradablemente sorprendidos por ello.
Este tipo de situación no es solo espeluznante e invasiva. Es peor: los esfuerzos para el reconocimiento automático de género, el uso de algoritmos para adivinar el género de una persona en función de las imágenes, el video o el audio, plantea importantes preocupaciones sociales y éticas que aún no se han explorado del todo. La mayoría de las investigaciones actuales sobre tecnologías automáticas de reconocimiento de género se enfocan en cambio en detalles tecnológicos.
Nuestra investigación descubrió que las personas con diversas identidades de género, incluidas las que se identifican como transgéneros o de género no binario, están particularmente preocupadas de que estos sistemas puedan clasificarlas erróneamente. Las personas que expresan su género de manera diferente a las normas masculinas y femeninas estereotipadas ya experimentan discriminación y daño como resultado de una mala clasificación o incomprensión. Idealmente, los diseñadores de tecnología deberían desarrollar sistemas para hacer que estos problemas sean menos comunes, no más.
Usar algoritmos para clasificar personas
A medida que las tecnologías digitales se vuelven más potentes y sofisticadas, sus diseñadores intentan utilizarlas para identificar y categorizar características humanas complejas, como la orientación sexual, el género y la etnia. La idea es que con suficiente capacitación en abundantes datos de usuario, los algoritmos pueden aprender a analizar la apariencia y el comportamiento de las personas, y quizás algún día caractericen a las personas igual o mejor que otros humanos.
Cómo funciona el aprendizaje automático
El género es un tema difícil de manejar para las personas. Es un concepto complejo con funciones importantes tanto como construcción cultural como aspecto central de la identidad de un individuo. Investigadores, eruditos y activistas están revelando cada vez más los aspectos diversos, fluidos y multifacéticos del género. En el proceso, descubren que ignorar esta diversidad puede conducir tanto a experiencias perjudiciales como a la injusticia social. Por ejemplo, según la Encuesta nacional de personas transgénero 2016 , el 47 por ciento de los participantes transgénero afirmaron que habían experimentado algún tipo de discriminación en su lugar de trabajo debido a su identidad de género. Más de la mitad de las personas transgénero que fueron hostigadas, atacadas o expulsadas debido a su identidad de género habían intentado suicidarse.
Muchas personas, en un momento u otro, se han sentido sorprendidas, confundidas o incluso enojadas al verse confundidas con una persona de otro sexo. Cuando eso le sucede a alguien que es transgénero, como se estima que el 0,6 por ciento de los estadounidenses, o 1,4 millones de personas, lo son, puede causar un estrés y ansiedad considerables.
Efectos del reconocimiento automático de género
En nuestra investigación, entrevistamos a 13 personas transgénero y no conformes con el género, sobre sus impresiones generales de la tecnología automática de reconocimiento de género. También les pedimos que describieran sus respuestas a escenarios futuros imaginarios donde podrían encontrarlo. Los 13 participantes estaban preocupados por esta tecnología y dudaron si podría ofrecer algún beneficio a su comunidad.
De particular preocupación era la posibilidad de ser mal interpretado por ella; en su experiencia, el género es, en gran medida, una característica interna y subjetiva, no algo que se expresa necesariamente o por completo en el exterior. Por lo tanto, ni los humanos ni los algoritmos pueden leer con precisión el género a través de las características físicas, como la cara, el cuerpo o la voz.
Describieron cómo el ser mal detectados por los algoritmos podría sentirse peor que si los humanos lo hicieran. La tecnología a menudo se percibe o se cree que es objetiva e imparcial, por lo que ser categorizado erróneamente por un algoritmo enfatizaría la idea errónea de que una identidad transgénero no es auténtica. Un participante describió cómo se sentirían heridos si una “pieza de software de un millón de dólares desarrollada por muchas personas” decidiera que no son quienes ellos mismos creen que son.
Privacidad y transparencia
Las personas que entrevistamos compartían la preocupación pública común de que las cámaras automáticas podrían usarse para la vigilancia sin su consentimiento o conocimiento; Durante años, los investigadores y activistas han alertado sobre el aumento de las amenazas a la privacidad en un mundo poblado por sensores y cámaras.
Pero nuestros participantes describieron cómo los efectos de estas tecnologías podrían ser mayores para las personas transgénero. Por ejemplo, podrían ser señalados como inusuales porque se ven o se comportan de manera diferente a lo que esperan los algoritmos subyacentes. Algunos participantes incluso estaban preocupados de que los sistemas pudieran falsamente determinar que estaban tratando de ser otra persona y engañar al sistema.
Sus preocupaciones también se extendieron a las personas cisgénero que podrían verse o actuar de forma diferente a la mayoría, como las personas de diferentes razas, las personas que los algoritmos perciben como andróginos y las personas con estructuras faciales únicas. Esto ya le sucede a personas pertenecientes a minorías raciales y étnicas, a quienes la tecnología de reconocimiento facial les identifica erróneamente con regularidad. Por ejemplo, la tecnología de reconocimiento facial existente en algunas cámaras no detecta adecuadamente las caras de los usuarios asiáticos y les envía mensajes para que dejen de parpadear o para que no los abran.
Nuestros entrevistados querían saber más sobre cómo funcionan los sistemas automáticos de reconocimiento de género y para qué se utilizan. No querían conocer detalles técnicos profundos, pero querían asegurarse de que la tecnología no comprometiera su privacidad o identidad. También querían que más personas transgénero participaran en las primeras etapas de diseño y desarrollo de estos sistemas, mucho antes de que se implementaran.
Crear sistemas automáticos inclusivos
Nuestros resultados demuestran cómo los diseñadores de tecnologías de categorización automáticas pueden causar daños inadvertidamente al hacer suposiciones sobre la simplicidad y la previsibilidad de las características humanas. Nuestra investigación se suma a un creciente cuerpo de trabajo que intenta incorporar de manera más cuidadosa el género en la tecnología.
Históricamente, las minorías han quedado fuera de las conversaciones sobre el despliegue de tecnología a gran escala, incluidas las minorías étnicas y las personas con discapacidad . Sin embargo, tanto los científicos como los diseñadores saben que incluir aportes de grupos minoritarios durante el proceso de diseño puede conducir a innovaciones técnicas que beneficien a todas las personas. Abogamos por un enfoque de automatización más inclusivo e inclusivo de género que incorpora perspectivas diversas.
A medida que las tecnologías digitales se desarrollan y maduran, pueden llevar a innovaciones impresionantes. Pero como los humanos dirigen ese trabajo, deben evitar amplificar los prejuicios y los prejuicios humanos que son negativos y limitantes. En el caso del reconocimiento automático de género, no necesariamente concluimos que estos algoritmos deberían abandonarse. Por el contrario, los diseñadores de estos sistemas deberían incluir y ser sensibles a la diversidad y complejidad de la identidad humana.
Compartir esto: