El auge de ChatGPT y otros sistemas de inteligencia artificial similares ha ido acompañado de un fuerte aumento de la ansiedad sobre la IA. Durante los últimos meses, ejecutivos e investigadores de la seguridad de la IA han estado ofreciendo predicciones, apodadas “P(doom)“, sobre la probabilidad de que la IA provoque una catástrofe a gran escala.
Las preocupaciones alcanzaron su punto álgido en mayo de 2023, cuando la organización de investigación y defensa sin ánimo de lucro Center for AI Safety publicó una declaración de una sola frase: “Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto a otros riesgos a escala social, como las pandemias y la guerra nuclear”. La declaración fue firmada por muchos actores clave en este campo, incluidos los líderes de OpenAI, Google y Anthropic, así como dos de los llamados “padrinos” de la IA: Geoffrey Hinton y Yoshua Bengio.
Cabe preguntarse cómo se desarrollan estos temores existenciales. Un escenario famoso es el experimento mental del “maximizador de sujetapapeles” articulado por el filósofo de Oxford Nick Bostrom. La idea es que un sistema de inteligencia artificial encargado de producir el mayor número posible de clips podría hacer todo lo posible para encontrar materias primas, como destruir fábricas y provocar accidentes de tráfico.
Una variante que consume menos recursos consiste en que una IA encargada de conseguir una reserva en un restaurante popular apague las redes de telefonía móvil y los semáforos para evitar que otros clientes consigan mesa.
Suministros de oficina o cena, la idea básica es la misma: la IA se está convirtiendo rápidamente en una inteligencia alienígena, buena para lograr objetivos pero peligrosa porque no necesariamente se alineará con los valores morales de sus creadores. Y, en su versión más extrema, este argumento se transforma en una preocupación explícita por que las IA esclavicen o destruyan a la raza humana.
Sí, la capacidad de la IA para crear vídeos y audios falsos y convincentes es aterradora, y puede ser utilizada por personas malintencionadas. De hecho, eso ya está ocurriendo: Los operativos rusos probablemente intentaron avergonzar al crítico del Kremlin Bill Browder atrapándolo en una conversación con un avatar del ex presidente ucraniano Petro Poroshenko. Los ciberdelincuentes han estado utilizando la clonación de voz mediante inteligencia artificial para una gran variedad de delitos, desde atracos de alta tecnología hasta estafas ordinarias.
Las armas nucleares probablemente mataron a más de 200.000 personas en Hiroshima y Nagasaki en 1945, se cobraron muchas más vidas de cáncer en los años siguientes, generaron décadas de profunda ansiedad durante la Guerra Fría y llevaron al mundo al borde de la aniquilación durante la crisis de los misiles cubanos en 1962. También han cambiado los cálculos de los líderes nacionales sobre cómo responder a la agresión internacional, como ocurre actualmente con la invasión rusa de Ucrania.
La IA no está ni cerca de adquirir la capacidad de causar este tipo de daños. El escenario del sujetapapeles y otros similares son ciencia ficción. Las aplicaciones de IA existentes ejecutan tareas específicas en lugar de emitir juicios generales. La tecnología está lejos de ser capaz de decidir y luego planificar los objetivos y metas subordinadas necesarias para cerrar el tráfico con el fin de conseguirle un asiento en un restaurante, o volar una fábrica de automóviles con el fin de satisfacer su antojo de clips de papel.
La tecnología no sólo carece de la complicada capacidad de juicio multicapa que conllevan estos escenarios, sino que tampoco tiene acceso autónomo a suficientes partes de nuestra infraestructura crítica como para empezar a causar ese tipo de daños.
Lo que significa ser humano
En realidad, existe un peligro existencial inherente al uso de la IA, pero ese riesgo es existencial en el sentido filosófico y no apocalíptico. La IA en su forma actual puede alterar la forma en que las personas se ven a sí mismas. Puede degradar capacidades y experiencias que la gente considera esenciales para ser humano.
Por ejemplo, los seres humanos son criaturas que juzgan. Las personas sopesan racionalmente los detalles y toman decisiones a diario en el trabajo y en su tiempo libre sobre a quién contratar, a quién conceder un préstamo, qué ver, etc. Pero cada vez más estas decisiones se automatizan y se dejan en manos de algoritmos. Pero cada vez se automatizan más estas decisiones y se dejan en manos de algoritmos. El mundo no se acabará. Pero la gente perderá gradualmente la capacidad de hacer estos juicios por sí misma. Cuanto menor sea el número de ellos, peor será su capacidad para hacerlos.
O pensemos en el papel del azar en la vida de las personas. Los seres humanos valoramos los encuentros fortuitos: encontrar un lugar, una persona o una actividad por casualidad, sentirnos atraídos por ellos y apreciar retrospectivamente el papel que desempeñó el azar en estos hallazgos significativos. Pero la función de los motores algorítmicos de recomendación es reducir ese tipo de serendipia y sustituirla por la planificación y la predicción.
Por último, consideremos las capacidades de escritura de ChatGPT. Esta tecnología está a punto de eliminar la función de los trabajos escritos en la enseñanza superior. Si lo hace, los educadores perderán una herramienta clave para enseñar a los estudiantes a pensar de forma crítica.
No muerta, pero disminuida
Así que no, la inteligencia artificial no hará volar el mundo. Pero su adopción cada vez menos crítica, en una variedad de contextos limitados, significa la erosión gradual de algunas de las habilidades más importantes de los seres humanos. Los algoritmos ya están socavando la capacidad de las personas para emitir juicios, disfrutar de encuentros fortuitos y perfeccionar el pensamiento crítico.
La especie humana sobrevivirá a estas pérdidas. Pero nuestra forma de existir se empobrecerá en el proceso. Las fantásticas ansiedades en torno al cataclismo de la IA, la singularidad, Skynet, o como quiera que se le llame, ocultan estos costes más sutiles. Recordemos las famosas líneas finales de T.S. Eliot en “Los hombres huecos“: “Así es como se acaba el mundo”, escribió, “no con una explosión, sino con un gemido”.
We use cookies on our website to give you the most relevant experience by remembering your preferences and repeat visits. By clicking “Accept All”, you consent to the use of ALL the cookies. However, you may visit "Cookie Settings" to provide a controlled consent.
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. These cookies ensure basic functionalities and security features of the website, anonymously.
Cookie
Duración
Descripción
cookielawinfo-checkbox-analytics
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Analytics".
cookielawinfo-checkbox-functional
11 months
The cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Functional".
cookielawinfo-checkbox-necessary
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookies is used to store the user consent for the cookies in the category "Necessary".
cookielawinfo-checkbox-others
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Other.
cookielawinfo-checkbox-performance
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Performance".
viewed_cookie_policy
11 months
The cookie is set by the GDPR Cookie Consent plugin and is used to store whether or not user has consented to the use of cookies. It does not store any personal data.
Functional cookies help to perform certain functionalities like sharing the content of the website on social media platforms, collect feedbacks, and other third-party features.
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.
Advertisement cookies are used to provide visitors with relevant ads and marketing campaigns. These cookies track visitors across websites and collect information to provide customized ads.
por Nir Eisikovits
El auge de ChatGPT y otros sistemas de inteligencia artificial similares ha ido acompañado de un fuerte aumento de la ansiedad sobre la IA. Durante los últimos meses, ejecutivos e investigadores de la seguridad de la IA han estado ofreciendo predicciones, apodadas “P(doom)“, sobre la probabilidad de que la IA provoque una catástrofe a gran escala.
Las preocupaciones alcanzaron su punto álgido en mayo de 2023, cuando la organización de investigación y defensa sin ánimo de lucro Center for AI Safety publicó una declaración de una sola frase: “Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto a otros riesgos a escala social, como las pandemias y la guerra nuclear”. La declaración fue firmada por muchos actores clave en este campo, incluidos los líderes de OpenAI, Google y Anthropic, así como dos de los llamados “padrinos” de la IA: Geoffrey Hinton y Yoshua Bengio.
Cabe preguntarse cómo se desarrollan estos temores existenciales. Un escenario famoso es el experimento mental del “maximizador de sujetapapeles” articulado por el filósofo de Oxford Nick Bostrom. La idea es que un sistema de inteligencia artificial encargado de producir el mayor número posible de clips podría hacer todo lo posible para encontrar materias primas, como destruir fábricas y provocar accidentes de tráfico.
Una variante que consume menos recursos consiste en que una IA encargada de conseguir una reserva en un restaurante popular apague las redes de telefonía móvil y los semáforos para evitar que otros clientes consigan mesa.
Suministros de oficina o cena, la idea básica es la misma: la IA se está convirtiendo rápidamente en una inteligencia alienígena, buena para lograr objetivos pero peligrosa porque no necesariamente se alineará con los valores morales de sus creadores. Y, en su versión más extrema, este argumento se transforma en una preocupación explícita por que las IA esclavicen o destruyan a la raza humana.
Daño real
En los últimos años, mis colegas y yo hemos estudiado en el Centro de Ética Aplicada de la Universidad de Massachusetts en Boston las repercusiones de la interacción con la inteligencia artificial en la percepción que las personas tienen de sí mismas y creo que estas ansiedades catastróficas son exageradas y están mal dirigidas.
Sí, la capacidad de la IA para crear vídeos y audios falsos y convincentes es aterradora, y puede ser utilizada por personas malintencionadas. De hecho, eso ya está ocurriendo: Los operativos rusos probablemente intentaron avergonzar al crítico del Kremlin Bill Browder atrapándolo en una conversación con un avatar del ex presidente ucraniano Petro Poroshenko. Los ciberdelincuentes han estado utilizando la clonación de voz mediante inteligencia artificial para una gran variedad de delitos, desde atracos de alta tecnología hasta estafas ordinarias.
Los sistemas de IA para la toma de decisiones que ofrecen recomendaciones para la aprobación de préstamos y la contratación conllevan el riesgo de sesgo algorítmico, ya que los datos de entrenamiento y los modelos de decisión que utilizan reflejan prejuicios sociales arraigados.
Se trata de grandes problemas que requieren la atención de los responsables políticos. Pero existen desde hace tiempo y no son cataclísmicos.
No en la misma liga
La declaración del Centro para la Seguridad de la IA agrupa a la IA con las pandemias y las armas nucleares como un riesgo importante para la civilización. Esta comparación plantea problemas. COVID-19 causó casi 7 millones de muertes en todo el mundo, provocó una crisis de salud mental masiva y continua y creó problemas económicos, como la escasez crónica de la cadena de suministro y una inflación galopante.
Las armas nucleares probablemente mataron a más de 200.000 personas en Hiroshima y Nagasaki en 1945, se cobraron muchas más vidas de cáncer en los años siguientes, generaron décadas de profunda ansiedad durante la Guerra Fría y llevaron al mundo al borde de la aniquilación durante la crisis de los misiles cubanos en 1962. También han cambiado los cálculos de los líderes nacionales sobre cómo responder a la agresión internacional, como ocurre actualmente con la invasión rusa de Ucrania.
La IA no está ni cerca de adquirir la capacidad de causar este tipo de daños. El escenario del sujetapapeles y otros similares son ciencia ficción. Las aplicaciones de IA existentes ejecutan tareas específicas en lugar de emitir juicios generales. La tecnología está lejos de ser capaz de decidir y luego planificar los objetivos y metas subordinadas necesarias para cerrar el tráfico con el fin de conseguirle un asiento en un restaurante, o volar una fábrica de automóviles con el fin de satisfacer su antojo de clips de papel.
La tecnología no sólo carece de la complicada capacidad de juicio multicapa que conllevan estos escenarios, sino que tampoco tiene acceso autónomo a suficientes partes de nuestra infraestructura crítica como para empezar a causar ese tipo de daños.
Lo que significa ser humano
En realidad, existe un peligro existencial inherente al uso de la IA, pero ese riesgo es existencial en el sentido filosófico y no apocalíptico. La IA en su forma actual puede alterar la forma en que las personas se ven a sí mismas. Puede degradar capacidades y experiencias que la gente considera esenciales para ser humano.
Por ejemplo, los seres humanos son criaturas que juzgan. Las personas sopesan racionalmente los detalles y toman decisiones a diario en el trabajo y en su tiempo libre sobre a quién contratar, a quién conceder un préstamo, qué ver, etc. Pero cada vez más estas decisiones se automatizan y se dejan en manos de algoritmos. Pero cada vez se automatizan más estas decisiones y se dejan en manos de algoritmos. El mundo no se acabará. Pero la gente perderá gradualmente la capacidad de hacer estos juicios por sí misma. Cuanto menor sea el número de ellos, peor será su capacidad para hacerlos.
O pensemos en el papel del azar en la vida de las personas. Los seres humanos valoramos los encuentros fortuitos: encontrar un lugar, una persona o una actividad por casualidad, sentirnos atraídos por ellos y apreciar retrospectivamente el papel que desempeñó el azar en estos hallazgos significativos. Pero la función de los motores algorítmicos de recomendación es reducir ese tipo de serendipia y sustituirla por la planificación y la predicción.
Por último, consideremos las capacidades de escritura de ChatGPT. Esta tecnología está a punto de eliminar la función de los trabajos escritos en la enseñanza superior. Si lo hace, los educadores perderán una herramienta clave para enseñar a los estudiantes a pensar de forma crítica.
No muerta, pero disminuida
Así que no, la inteligencia artificial no hará volar el mundo. Pero su adopción cada vez menos crítica, en una variedad de contextos limitados, significa la erosión gradual de algunas de las habilidades más importantes de los seres humanos. Los algoritmos ya están socavando la capacidad de las personas para emitir juicios, disfrutar de encuentros fortuitos y perfeccionar el pensamiento crítico.
La especie humana sobrevivirá a estas pérdidas. Pero nuestra forma de existir se empobrecerá en el proceso. Las fantásticas ansiedades en torno al cataclismo de la IA, la singularidad, Skynet, o como quiera que se le llame, ocultan estos costes más sutiles. Recordemos las famosas líneas finales de T.S. Eliot en “Los hombres huecos“: “Así es como se acaba el mundo”, escribió, “no con una explosión, sino con un gemido”.
Original
Compartir esto: