La clásica película policial de 1995 The Usual Suspects gira en torno al interrogatorio policial de Roger “Verbal” Kint, interpretado por Kevin Spacey. Kint parafrasea a Charles Baudelaire, afirmando que “el mayor truco que hizo el diablo fue convencer al mundo de que no existía”. La implicación es que el Diablo es más efectivo cuando opera sin ser visto, manipulando y condicionando el comportamiento en lugar de decirle a la gente qué hacer. En la narrativa de la película, su papel es nublar el juicio y tentarnos a abandonar nuestro sentido de responsabilidad moral.
En nuestra investigación, vemos paralelismos entre esto y el papel de la inteligencia artificial (IA) en el siglo XXI. ¿Por qué? La IA tienta a las personas a abandonar el juicio y la responsabilidad moral de la misma manera. Al eliminar una variedad de decisiones de nuestra mente consciente, elimina el juicio de una desconcertante variedad de actividades humanas. Además, sin una comprensión adecuada de cómo lo hace, no podemos eludir sus efectos negativos.
Con un acceso generalizado a datos granulares sobre el comportamiento humano obtenidos de las redes sociales, la IA ha penetrado en los sectores clave de la mayoría de las economías desarrolladas. Para problemas manejables como el análisis de documentos, generalmente se compara favorablemente con alternativas humanas que son más lentas y más propensas a errores, lo que genera enormes ganancias de eficiencia y reducciones de costos para quienes lo adoptan. Para problemas más complejos, como la elección de un compañero de vida, el papel de la IA es más insidioso: enmarca las elecciones y “empuja” a los que eligen.
Es por estos problemas más complejos que vemos un riesgo sustancial asociado con el aumento de la IA en la toma de decisiones. Toda elección humana implica necesariamente transformar entradas (información relevante, sentimientos, etc.) en salidas (decisiones). Sin embargo, toda elección también implica inevitablemente un juicio ; sin juicio, podríamos hablar de una reacción más que de una elección. El aspecto crítico de la elección es lo que permite a los humanos atribuir responsabilidad. Pero a medida que la IA toma decisiones más complejas e importantes, o al menos las impulsa, la atribución de responsabilidad se vuelve más difícil. Y existe el riesgo de que tanto los actores del sector público como el privado acepten esta erosión del juicio y adopten algoritmos de inteligencia artificial precisamente para protegerse de la culpa.
En un artículo de investigación reciente, hemos examinado cómo la confianza en la IA en las políticas de salud puede ofuscar importantes discusiones morales y, por lo tanto, “desresponsabilizar” a los actores del sector de la salud.
Erosión del juicio y la responsabilidad
Los conocimientos clave de nuestra investigación son válidos para una variedad más amplia de actividades. Argumentamos que la erosión del juicio engendrada por la IA desdibuja, o incluso elimina, nuestro sentido de responsabilidad. Las razones son:
Los sistemas de IA funcionan como cajas negras. Podemos conocer la entrada y la salida de un sistema de IA, pero es extraordinariamente complicado rastrear cómo se dedujeron las salidas de las entradas. Esta opacidad aparentemente intratable genera una serie de problemas morales. Una caja negra puede ser causalmente responsable de una decisión o acción, pero no puede explicar cómo ha llegado a esa decisión o recomendado esa acción. Incluso si los expertos abren la caja negra y analizan las largas secuencias de cálculos que contiene, estos no pueden traducirse en nada parecido a una justificación o explicación humana.
Culpar a los sistemas impersonales de reglas. Los académicos organizacionales han estudiado durante mucho tiempo cómo las burocracias pueden absolver a las personas de los peores crímenes. Los textos clásicos incluyen La modernidad y el Holocausto de Zygmunt Bauman y Eichmann en Jerusalén de Hannah Arendt. Ambos estaban intrigados por cómo personas decentes podían participar en atrocidades sin sentirse culpables. Este fenómeno fue posible porque los individuos transfirieron la responsabilidad y la culpa a las burocracias impersonales y sus líderes. La introducción de la inteligencia artificial intensifica este fenómeno porque ahora incluso los líderes pueden transferir la responsabilidad a los sistemas de inteligencia artificial que emitieron recomendaciones de políticas y enmarcaron opciones de políticas.
Atribuir la responsabilidad a los artefactos en lugar de a las causas fundamentales. Los sistemas de IA están diseñados para reconocer patrones. Pero, al contrario que los seres humanos, no comprenden el significado de estos patrones. Por lo tanto, si la mayoría de los delitos en una ciudad son cometidos por un determinado grupo étnico, el sistema de inteligencia artificial identificará rápidamente esta correlación. Sin embargo, no considerará si esta correlación es un artefacto de causas más profundas y complejas. Por lo tanto, un sistema de inteligencia artificial puede instruir a la policía para que discrimine entre posibles delincuentes en función del color de la piel, pero no puede comprender el papel que desempeñan el racismo, la brutalidad policial y la pobreza en la generación de conductas delictivas en primer lugar.
Profecías autocumplidas que no son culpables de nadie. Las IA más utilizadas se alimentan de datos históricos. Esto puede funcionar en el caso de detectar afecciones fisiológicas como cánceres de piel. El problema, sin embargo, es que la clasificación de categorías sociales por IA puede operar como una profecía autocumplida a largo plazo. Por ejemplo, los investigadores de la discriminación de género basada en la inteligencia artificial reconocen la intratabilidad de los algoritmos que terminan exagerando, sin introducir nunca, prejuicios sociales preexistentes contra las mujeres, las personas transgénero y las personas no binarias.
¿Qué podemos hacer?
No existe una solución milagrosa contra las tendencias de desresponsabilización de la IA y no es nuestro papel, como académicos y científicos, decidir cuándo se debe dar por sentado la información basada en la IA y cuándo se debe cuestionar. Es mejor dejar esta decisión a la deliberación democrática. Sin embargo, nuestro papel es enfatizar que, en el estado actual del arte, los cálculos basados en IA operan como cajas negras que dificultan más, en lugar de menos, la toma de decisiones morales.
We use cookies on our website to give you the most relevant experience by remembering your preferences and repeat visits. By clicking “Accept All”, you consent to the use of ALL the cookies. However, you may visit "Cookie Settings" to provide a controlled consent.
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. These cookies ensure basic functionalities and security features of the website, anonymously.
Cookie
Duración
Descripción
cookielawinfo-checkbox-analytics
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Analytics".
cookielawinfo-checkbox-functional
11 months
The cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Functional".
cookielawinfo-checkbox-necessary
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookies is used to store the user consent for the cookies in the category "Necessary".
cookielawinfo-checkbox-others
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Other.
cookielawinfo-checkbox-performance
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Performance".
viewed_cookie_policy
11 months
The cookie is set by the GDPR Cookie Consent plugin and is used to store whether or not user has consented to the use of cookies. It does not store any personal data.
Functional cookies help to perform certain functionalities like sharing the content of the website on social media platforms, collect feedbacks, and other third-party features.
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.
Advertisement cookies are used to provide visitors with relevant ads and marketing campaigns. These cookies track visitors across websites and collect information to provide customized ads.
por Ismael Al-Amoudi
La clásica película policial de 1995 The Usual Suspects gira en torno al interrogatorio policial de Roger “Verbal” Kint, interpretado por Kevin Spacey. Kint parafrasea a Charles Baudelaire, afirmando que “el mayor truco que hizo el diablo fue convencer al mundo de que no existía”. La implicación es que el Diablo es más efectivo cuando opera sin ser visto, manipulando y condicionando el comportamiento en lugar de decirle a la gente qué hacer. En la narrativa de la película, su papel es nublar el juicio y tentarnos a abandonar nuestro sentido de responsabilidad moral.
En nuestra investigación, vemos paralelismos entre esto y el papel de la inteligencia artificial (IA) en el siglo XXI. ¿Por qué? La IA tienta a las personas a abandonar el juicio y la responsabilidad moral de la misma manera. Al eliminar una variedad de decisiones de nuestra mente consciente, elimina el juicio de una desconcertante variedad de actividades humanas. Además, sin una comprensión adecuada de cómo lo hace, no podemos eludir sus efectos negativos.
El papel de la IA está tan ampliamente aceptado en 2020 que la mayoría de las personas, en esencia, lo desconocen por completo. Entre otras cosas, hoy en día los algoritmos de IA ayudan a determinar con quién salimos, nuestros diagnósticos médicos, nuestras estrategias de inversión y las calificaciones que obtenemos en los exámenes.
Serias ventajas, efectos insidiosos
Con un acceso generalizado a datos granulares sobre el comportamiento humano obtenidos de las redes sociales, la IA ha penetrado en los sectores clave de la mayoría de las economías desarrolladas. Para problemas manejables como el análisis de documentos, generalmente se compara favorablemente con alternativas humanas que son más lentas y más propensas a errores, lo que genera enormes ganancias de eficiencia y reducciones de costos para quienes lo adoptan. Para problemas más complejos, como la elección de un compañero de vida, el papel de la IA es más insidioso: enmarca las elecciones y “empuja” a los que eligen.
Es por estos problemas más complejos que vemos un riesgo sustancial asociado con el aumento de la IA en la toma de decisiones. Toda elección humana implica necesariamente transformar entradas (información relevante, sentimientos, etc.) en salidas (decisiones). Sin embargo, toda elección también implica inevitablemente un juicio ; sin juicio, podríamos hablar de una reacción más que de una elección. El aspecto crítico de la elección es lo que permite a los humanos atribuir responsabilidad. Pero a medida que la IA toma decisiones más complejas e importantes, o al menos las impulsa, la atribución de responsabilidad se vuelve más difícil. Y existe el riesgo de que tanto los actores del sector público como el privado acepten esta erosión del juicio y adopten algoritmos de inteligencia artificial precisamente para protegerse de la culpa.
En un artículo de investigación reciente, hemos examinado cómo la confianza en la IA en las políticas de salud puede ofuscar importantes discusiones morales y, por lo tanto, “desresponsabilizar” a los actores del sector de la salud.
Erosión del juicio y la responsabilidad
Los conocimientos clave de nuestra investigación son válidos para una variedad más amplia de actividades. Argumentamos que la erosión del juicio engendrada por la IA desdibuja, o incluso elimina, nuestro sentido de responsabilidad. Las razones son:
Los sistemas de IA funcionan como cajas negras. Podemos conocer la entrada y la salida de un sistema de IA, pero es extraordinariamente complicado rastrear cómo se dedujeron las salidas de las entradas. Esta opacidad aparentemente intratable genera una serie de problemas morales. Una caja negra puede ser causalmente responsable de una decisión o acción, pero no puede explicar cómo ha llegado a esa decisión o recomendado esa acción. Incluso si los expertos abren la caja negra y analizan las largas secuencias de cálculos que contiene, estos no pueden traducirse en nada parecido a una justificación o explicación humana.
Culpar a los sistemas impersonales de reglas. Los académicos organizacionales han estudiado durante mucho tiempo cómo las burocracias pueden absolver a las personas de los peores crímenes. Los textos clásicos incluyen La modernidad y el Holocausto de Zygmunt Bauman y Eichmann en Jerusalén de Hannah Arendt. Ambos estaban intrigados por cómo personas decentes podían participar en atrocidades sin sentirse culpables. Este fenómeno fue posible porque los individuos transfirieron la responsabilidad y la culpa a las burocracias impersonales y sus líderes. La introducción de la inteligencia artificial intensifica este fenómeno porque ahora incluso los líderes pueden transferir la responsabilidad a los sistemas de inteligencia artificial que emitieron recomendaciones de políticas y enmarcaron opciones de políticas.
Atribuir la responsabilidad a los artefactos en lugar de a las causas fundamentales. Los sistemas de IA están diseñados para reconocer patrones. Pero, al contrario que los seres humanos, no comprenden el significado de estos patrones. Por lo tanto, si la mayoría de los delitos en una ciudad son cometidos por un determinado grupo étnico, el sistema de inteligencia artificial identificará rápidamente esta correlación. Sin embargo, no considerará si esta correlación es un artefacto de causas más profundas y complejas. Por lo tanto, un sistema de inteligencia artificial puede instruir a la policía para que discrimine entre posibles delincuentes en función del color de la piel, pero no puede comprender el papel que desempeñan el racismo, la brutalidad policial y la pobreza en la generación de conductas delictivas en primer lugar.
Profecías autocumplidas que no son culpables de nadie. Las IA más utilizadas se alimentan de datos históricos. Esto puede funcionar en el caso de detectar afecciones fisiológicas como cánceres de piel. El problema, sin embargo, es que la clasificación de categorías sociales por IA puede operar como una profecía autocumplida a largo plazo. Por ejemplo, los investigadores de la discriminación de género basada en la inteligencia artificial reconocen la intratabilidad de los algoritmos que terminan exagerando, sin introducir nunca, prejuicios sociales preexistentes contra las mujeres, las personas transgénero y las personas no binarias.
¿Qué podemos hacer?
No existe una solución milagrosa contra las tendencias de desresponsabilización de la IA y no es nuestro papel, como académicos y científicos, decidir cuándo se debe dar por sentado la información basada en la IA y cuándo se debe cuestionar. Es mejor dejar esta decisión a la deliberación democrática. Sin embargo, nuestro papel es enfatizar que, en el estado actual del arte, los cálculos basados en IA operan como cajas negras que dificultan más, en lugar de menos, la toma de decisiones morales.
Fuente: The Conversation
Compartir esto: