Películas como 2001: A Space Odyssey, Blade Runner y Terminator trajeron robots y sistemas informáticos deshonestos a nuestras pantallas de cine. Pero hoy en día, estos clásicos espectáculos de ciencia ficción no parecen estar tan alejados de la realidad.
Cada vez más, vivimos, trabajamos y jugamos con tecnologías computacionales que son autónomas e inteligentes. Estos sistemas incluyen software y hardware con capacidad de razonamiento y toma de decisiones independientes. Trabajan para nosotros en la fábrica; deciden si podemos obtener una hipoteca; hacen un seguimiento y miden nuestros niveles de actividad y estado físico; limpian los pisos de nuestra sala de estar y cortan el césped.
Los sistemas autónomos e inteligentes tienen el potencial de afectar casi todos los aspectos de nuestra vida social, económica, política y privada, incluidos los aspectos cotidianos mundanos. Gran parte de esto parece inocente, pero hay motivos para preocuparse. Las tecnologías informáticas afectan a todos los derechos humanos, desde el derecho a la vida hasta el derecho a la intimidad, pasando por la libertad de expresión y los derechos sociales y económicos. Entonces, ¿cómo podemos defender los derechos humanos en un paisaje tecnológico cada vez más marcado por la robótica y la inteligencia artificial (IA)?
IA y los derechos humanos
En primer lugar, existe un temor real de que el aumento de la autonomía de las máquinas socave el estatus de los seres humanos. Este temor se ve agravado por la falta de claridad sobre quién será responsable, ya sea en un sentido legal o moral, cuando las máquinas inteligentes causan daño. Pero no estoy seguro de que nuestra preocupación por los derechos humanos deba centrarse realmente en los robots deshonestos, como parece ser en la actualidad. Más bien, debemos preocuparnos por el uso humano de los robots y la inteligencia artificial y su despliegue en contextos políticos, militares, económicos y sociales injustos y desiguales.
En primer lugar, existe un temor real de que el aumento de la autonomía de las máquinas socave el estatus de los seres humanos. Este temor se ve agravado por la falta de claridad sobre quién será responsable, ya sea en un sentido legal o moral, cuando las máquinas inteligentes causan daño. Pero no estoy seguro de que nuestra preocupación por los derechos humanos deba centrarse realmente en los robots maliciosos, como parece ocurrir en la actualidad. Más bien, debemos preocuparnos por el uso humano de los robots y la inteligencia artificial y su despliegue en contextos políticos, militares, económicos y sociales injustos y desiguales.
Esta preocupación es particularmente pertinente con respecto a los sistemas de armas autónomas letales (LAWS), a menudo descritos como robots asesinos. A medida que avanzamos hacia una carrera armamentista de la IA, los académicos y activistas de derechos humanos como Christof Heyns, ex relator especial de la ONU sobre ejecuciones extrajudiciales, sumarias o arbitrarias, temen que el uso de las LAWS ponga a los sistemas robóticos autónomos a cargo de las decisiones de vida o muerte, con un control humano limitado o sin control alguno.
La IA también revoluciona el vínculo entre la guerra y las prácticas de vigilancia. Grupos como el Comité Internacional para el Control de Armas Robóticas (ICRAC) expresaron recientemente su oposición a la participación de Google en el Proyecto Maven, un programa militar que utiliza el aprendizaje automático para analizar las imágenes de vigilancia de los aviones teledirigidos, que pueden utilizarse para cometer asesinatos extrajudiciales. ICRAC apeló a Google para que se asegure de que los datos que recopila sobre sus usuarios nunca se utilicen para fines militares, uniéndose a las protestas de los empleados de Google sobre la participación de la empresa en el proyecto. Google anunció recientemente que no renovará su contrato.
En 2013, el alcance de las prácticas de vigilancia fue destacado por las revelaciones de Edward Snowden. Esto nos enseñó mucho sobre la amenaza al derecho a la privacidad y el intercambio de datos entre los servicios de inteligencia, las agencias gubernamentales y las corporaciones privadas. La reciente controversia en torno a la recogida de datos personales por parte de Cambridge Analytica a través del uso de plataformas de medios sociales como Facebook sigue causando serias aprensiones, esta vez por la manipulación y la interferencia en las elecciones democráticas que dañan el derecho a la libertad de expresión.
Mientras tanto, los analistas de datos críticos desafían las prácticas discriminatorias asociadas con lo que ellos llaman el “problema del hombre blanco” de la IA. Esta es la preocupación de que los sistemas de inteligencia artificial formados sobre la base de los datos existentes reproduzcan los estereotipos raciales y de género existentes que perpetúan las prácticas discriminatorias en ámbitos como la policía, las decisiones judiciales o el empleo.
Bots ambiguos
La amenaza potencial de las tecnologías computacionales para los derechos humanos y la seguridad física, política y digital fue destacada en un estudio recientemente publicado sobre el uso malicioso de la inteligencia artificial. Las preocupaciones expresadas en este informe de la Universidad de Cambridge deben tomarse en serio. Pero, ¿cómo debemos hacer frente a estas amenazas? ¿Están los derechos humanos preparados para la era de la robótica y la IA?
Estos esfuerzos son encomiables, pero no suficientes. Los gobiernos y los organismos gubernamentales, los partidos políticos y las empresas privadas, especialmente las principales empresas tecnológicas, deben comprometerse con los usos éticos de la IA. También necesitamos un control legislativo eficaz y aplicable.
Cualesquiera que sean las nuevas medidas que introduzcamos, es importante reconocer que nuestras vidas están cada vez más enredadas con máquinas autónomas y sistemas inteligentes. Este enredo mejora el bienestar humano en áreas como la investigación y el tratamiento médico, en nuestro sistema de transporte, en los entornos de asistencia social y en los esfuerzos por proteger el medio ambiente.
Pero en otras áreas este enredo genera perspectivas preocupantes. Las tecnologías computacionales se utilizan para observar y rastrear nuestras acciones y comportamientos, seguir nuestros pasos, nuestra ubicación, nuestra salud, nuestros gustos y nuestras amistades. Estos sistemas conforman el comportamiento humano y nos empujan hacia prácticas de autovigilancia que limitan nuestra libertad y socavan las ideas e ideales de los derechos humanos.
Y aquí está el quid de la cuestión: la capacidad para el uso dual de las tecnologías computacionales difumina la línea entre las prácticas benéficas y las maliciosas. Es más, las tecnologías computacionales están profundamente implicadas en las relaciones de poder desiguales entre los ciudadanos individuales, el estado y sus agencias, y las corporaciones privadas. Si se desvinculan de los sistemas nacionales e internacionales eficaces de control y equilibrio de poderes, representan una amenaza real y preocupante para nuestros derechos humanos.
We use cookies on our website to give you the most relevant experience by remembering your preferences and repeat visits. By clicking “Accept All”, you consent to the use of ALL the cookies. However, you may visit "Cookie Settings" to provide a controlled consent.
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. These cookies ensure basic functionalities and security features of the website, anonymously.
Cookie
Duración
Descripción
cookielawinfo-checkbox-analytics
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Analytics".
cookielawinfo-checkbox-functional
11 months
The cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Functional".
cookielawinfo-checkbox-necessary
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookies is used to store the user consent for the cookies in the category "Necessary".
cookielawinfo-checkbox-others
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Other.
cookielawinfo-checkbox-performance
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Performance".
viewed_cookie_policy
11 months
The cookie is set by the GDPR Cookie Consent plugin and is used to store whether or not user has consented to the use of cookies. It does not store any personal data.
Functional cookies help to perform certain functionalities like sharing the content of the website on social media platforms, collect feedbacks, and other third-party features.
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.
Advertisement cookies are used to provide visitors with relevant ads and marketing campaigns. These cookies track visitors across websites and collect information to provide customized ads.
por Birgit Schippers
Películas como 2001: A Space Odyssey, Blade Runner y Terminator trajeron robots y sistemas informáticos deshonestos a nuestras pantallas de cine. Pero hoy en día, estos clásicos espectáculos de ciencia ficción no parecen estar tan alejados de la realidad.
Cada vez más, vivimos, trabajamos y jugamos con tecnologías computacionales que son autónomas e inteligentes. Estos sistemas incluyen software y hardware con capacidad de razonamiento y toma de decisiones independientes. Trabajan para nosotros en la fábrica; deciden si podemos obtener una hipoteca; hacen un seguimiento y miden nuestros niveles de actividad y estado físico; limpian los pisos de nuestra sala de estar y cortan el césped.
Los sistemas autónomos e inteligentes tienen el potencial de afectar casi todos los aspectos de nuestra vida social, económica, política y privada, incluidos los aspectos cotidianos mundanos. Gran parte de esto parece inocente, pero hay motivos para preocuparse. Las tecnologías informáticas afectan a todos los derechos humanos, desde el derecho a la vida hasta el derecho a la intimidad, pasando por la libertad de expresión y los derechos sociales y económicos. Entonces, ¿cómo podemos defender los derechos humanos en un paisaje tecnológico cada vez más marcado por la robótica y la inteligencia artificial (IA)?
IA y los derechos humanos
En primer lugar, existe un temor real de que el aumento de la autonomía de las máquinas socave el estatus de los seres humanos. Este temor se ve agravado por la falta de claridad sobre quién será responsable, ya sea en un sentido legal o moral, cuando las máquinas inteligentes causan daño. Pero no estoy seguro de que nuestra preocupación por los derechos humanos deba centrarse realmente en los robots deshonestos, como parece ser en la actualidad. Más bien, debemos preocuparnos por el uso humano de los robots y la inteligencia artificial y su despliegue en contextos políticos, militares, económicos y sociales injustos y desiguales.
En primer lugar, existe un temor real de que el aumento de la autonomía de las máquinas socave el estatus de los seres humanos. Este temor se ve agravado por la falta de claridad sobre quién será responsable, ya sea en un sentido legal o moral, cuando las máquinas inteligentes causan daño. Pero no estoy seguro de que nuestra preocupación por los derechos humanos deba centrarse realmente en los robots maliciosos, como parece ocurrir en la actualidad. Más bien, debemos preocuparnos por el uso humano de los robots y la inteligencia artificial y su despliegue en contextos políticos, militares, económicos y sociales injustos y desiguales.
Esta preocupación es particularmente pertinente con respecto a los sistemas de armas autónomas letales (LAWS), a menudo descritos como robots asesinos. A medida que avanzamos hacia una carrera armamentista de la IA, los académicos y activistas de derechos humanos como Christof Heyns, ex relator especial de la ONU sobre ejecuciones extrajudiciales, sumarias o arbitrarias, temen que el uso de las LAWS ponga a los sistemas robóticos autónomos a cargo de las decisiones de vida o muerte, con un control humano limitado o sin control alguno.
La IA también revoluciona el vínculo entre la guerra y las prácticas de vigilancia. Grupos como el Comité Internacional para el Control de Armas Robóticas (ICRAC) expresaron recientemente su oposición a la participación de Google en el Proyecto Maven, un programa militar que utiliza el aprendizaje automático para analizar las imágenes de vigilancia de los aviones teledirigidos, que pueden utilizarse para cometer asesinatos extrajudiciales. ICRAC apeló a Google para que se asegure de que los datos que recopila sobre sus usuarios nunca se utilicen para fines militares, uniéndose a las protestas de los empleados de Google sobre la participación de la empresa en el proyecto. Google anunció recientemente que no renovará su contrato.
En 2013, el alcance de las prácticas de vigilancia fue destacado por las revelaciones de Edward Snowden. Esto nos enseñó mucho sobre la amenaza al derecho a la privacidad y el intercambio de datos entre los servicios de inteligencia, las agencias gubernamentales y las corporaciones privadas. La reciente controversia en torno a la recogida de datos personales por parte de Cambridge Analytica a través del uso de plataformas de medios sociales como Facebook sigue causando serias aprensiones, esta vez por la manipulación y la interferencia en las elecciones democráticas que dañan el derecho a la libertad de expresión.
Mientras tanto, los analistas de datos críticos desafían las prácticas discriminatorias asociadas con lo que ellos llaman el “problema del hombre blanco” de la IA. Esta es la preocupación de que los sistemas de inteligencia artificial formados sobre la base de los datos existentes reproduzcan los estereotipos raciales y de género existentes que perpetúan las prácticas discriminatorias en ámbitos como la policía, las decisiones judiciales o el empleo.
Bots ambiguos
La amenaza potencial de las tecnologías computacionales para los derechos humanos y la seguridad física, política y digital fue destacada en un estudio recientemente publicado sobre el uso malicioso de la inteligencia artificial. Las preocupaciones expresadas en este informe de la Universidad de Cambridge deben tomarse en serio. Pero, ¿cómo debemos hacer frente a estas amenazas? ¿Están los derechos humanos preparados para la era de la robótica y la IA?
Se están realizando esfuerzos para actualizar los principios de derechos humanos existentes para esta época. Entre ellos se incluyen los Principios Rectores de la Empresa y los Derechos Humanos de las Naciones Unidas, los intentos de redactar una Carta Magna para la era digital y los Principios de IA Asilomar del Future of Life Institute, que identifican las directrices para la investigación ética, la adhesión a los valores y el compromiso con el desarrollo benéfico a largo plazo de la IA.
Estos esfuerzos son encomiables, pero no suficientes. Los gobiernos y los organismos gubernamentales, los partidos políticos y las empresas privadas, especialmente las principales empresas tecnológicas, deben comprometerse con los usos éticos de la IA. También necesitamos un control legislativo eficaz y aplicable.
Cualesquiera que sean las nuevas medidas que introduzcamos, es importante reconocer que nuestras vidas están cada vez más enredadas con máquinas autónomas y sistemas inteligentes. Este enredo mejora el bienestar humano en áreas como la investigación y el tratamiento médico, en nuestro sistema de transporte, en los entornos de asistencia social y en los esfuerzos por proteger el medio ambiente.
Pero en otras áreas este enredo genera perspectivas preocupantes. Las tecnologías computacionales se utilizan para observar y rastrear nuestras acciones y comportamientos, seguir nuestros pasos, nuestra ubicación, nuestra salud, nuestros gustos y nuestras amistades. Estos sistemas conforman el comportamiento humano y nos empujan hacia prácticas de autovigilancia que limitan nuestra libertad y socavan las ideas e ideales de los derechos humanos.
Y aquí está el quid de la cuestión: la capacidad para el uso dual de las tecnologías computacionales difumina la línea entre las prácticas benéficas y las maliciosas. Es más, las tecnologías computacionales están profundamente implicadas en las relaciones de poder desiguales entre los ciudadanos individuales, el estado y sus agencias, y las corporaciones privadas. Si se desvinculan de los sistemas nacionales e internacionales eficaces de control y equilibrio de poderes, representan una amenaza real y preocupante para nuestros derechos humanos.
Compartir esto: