Todos los días, las columnas de los periódicos y las redes sociales se llenan con cantidades iguales de optimismo exagerado acerca de cómo la ‘IA generativa’ cambiará el mundo y la fatalidad de la ciencia ficción sobre el fin de la humanidad. En medio de todo este ruido, tanto los comentaristas como las empresas están pasando por alto la realidad de cómo las aplicaciones de inteligencia artificial recientemente populares ya están afectando la vida de las personas y sus derechos fundamentales. En este artículo explicativo, estamos eliminando la exageración para llegar a la verdad sobre lo que la IA generativa puede (y no puede) hacer y por qué es importante para los derechos humanos en todo el mundo.
1. ¿Qué es la ‘IA generativa’ y por qué recién escucho sobre ella ahora?
Desde finales de 2022, cuando la herramienta ChatGPT de Open AI irrumpió en la corriente principal, todo el mundo ha estado hablando de IA generativa. Sin embargo, a pesar de ser una novedad para la mayoría de las personas, la tecnología subyacente ha existido durante años, principalmente en dos formas:
- Por un lado, existen modelos de lenguaje extenso (LLM), como el que sustenta ChatGPT, que generan un texto que suena plausible en respuesta a un mensaje humano en forma de solicitud (por ejemplo, ‘escribe un soneto sobre los riesgos de AI al estilo de Shakespeare’). Pero la interfaz conversacional ChatGPT fácil de usar con la que tanta gente está experimentando hoy en día es simplemente una versión refinada de iteraciones anteriores de la misma tecnología, como GPT-3, en lugar de algo radicalmente nuevo o sin precedentes.
- Por otro lado, los modelos multimodales, como Stable Diffusion, Midjourney o OpenAI’s DALL-E 2, normalmente toman indicaciones de texto (por ejemplo, ‘un pingüino morado con gafas de sol’) y generan imágenes como salida. Algunos modelos, como GPT-4, también pueden tomar imágenes como entrada (por ejemplo, una foto del contenido de su refrigerador) para producir texto como salida (por ejemplo, una receta para los ingredientes que tiene). También se están desarrollando modelos multimodales que pueden generar salidas de audio y video.
El año pasado, los impresionantes avances en los modelos multimodales los catapultaron a la conciencia pública. Las redes sociales se inundaron con imágenes extravagantes generadas por IA y avatares que se veían geniales y lindos, hasta que las personas se dieron cuenta de que eran generados por sistemas que usaban el trabajo de artistas humanos como datos de entrenamiento sin su consentimiento y sin la debida compensación.
2. ¿Cómo funciona la IA generativa?
No existe una definición universalmente acordada de inteligencia artificial y ha significado diferentes cosas a lo largo del tiempo. Pero hoy en día, cuando la mayoría de la gente usa el término, se refiere a un enfoque de la informática conocido como “aprendizaje automático“. El aprendizaje automático implica que los humanos introduzcan grandes cantidades de datos en un “algoritmo de aprendizaje” que extrae patrones y reglas de esos datos y usa esas reglas para hacer predicciones. Aunque se imaginó por primera vez en la década de 1950, el aprendizaje automático solo despegó realmente alrededor de 2012, con la llegada de computadoras potentes y nuevas cantidades masivas de datos disponibles generados por las redes sociales y otras actividades en línea: una combinación hecha en el paraíso del aprendizaje automático.
El aprendizaje automático se usa comúnmente para entrenar sistemas de reconocimiento facial con grandes conjuntos de datos de rostros. Con estos datos de entrenamiento, los sistemas ‘aprenden’ a identificar caras en imágenes y predecir si hay una coincidencia entre dos caras. Mientras tanto, los sistemas de IA generativa se entrenan en grandes conjuntos de datos de texto, imágenes y otros medios para producir contenido similar pero sintético. Estos sistemas también hacen predicciones sobre el texto que probablemente seguirá a un aviso determinado, pero generan contenido como salida; de ahí el término ‘IA generativa’. Dichos sistemas pueden imitar el trabajo de escritores o artistas famosos incluidos en sus datos de capacitación, pero también replicarán cualquier sesgo del contenido en el que se capacitaron, como lenguaje racista o imágenes sexistas.
3. ¿Cuáles son las limitaciones de los sistemas de IA generativa?
Como se mencionó, los sistemas de aprendizaje automático replican patrones a partir de sus datos de entrenamiento; generan contenido basado en lo que han visto antes. Pero dado que, a diferencia de los humanos, en realidad no pueden entender los datos ingresados o emitidos, esto puede llevarlos a replicar sesgos dañinos, incluidas suposiciones abiertamente racistas y sexistas. De la misma manera que se puede usar el filtrado para moderar el contenido en las plataformas de redes sociales, se pueden agregar filtros similares a los sistemas generativos de inteligencia artificial para tratar de detectar indicaciones que pueden conducir a resultados dañinos y para detectar los mismos resultados dañinos.
Pero al igual que con la moderación automatizada en las plataformas de redes sociales, existen serias limitaciones para detectar automáticamente cosas como el discurso de odio o el contenido ilegal. También es fácil “hacer jailbreak” a estos sistemas y hacer que produzcan contenido tóxico al pasar por alto los filtros existentes. Además, sabemos que los humanos que entrenan estos sistemas para reconocer este contenido y etiquetarlo como tal a menudo están mal pagados, con un apoyo de bienestar limitado o nulo (a pesar de estar expuestos a contenido horrendo día tras día). La IA generativa se basa en la explotación de esas personas, muchas de las cuales ahora se están uniendo para exigir el debido reconocimiento y reparación.
Un examen de algunos conjuntos de datos de entrenamiento de IA generativa populares ha demostrado que están llenos de misoginia, pornografía y estereotipos malignos. Y dado que estos sistemas a menudo actúan como ‘modelos básicos’ para otras aplicaciones y servicios, esos mismos sesgos se abren paso en otros sistemas y aplicaciones, como la aplicación de mejora de selfies y generación de avatares de Lensa, que produjo contenido sexualizado e imágenes de desnudos de mujeres negras, asiáticas y latinas debido a los prejuicios del sistema en el que se construyó.
Los LLM también están limitados, en un grado peligroso, por el hecho de que regularmente producen información completamente falsa en respuesta a las indicaciones; un fenómeno que ha sido llamado de diversas formas ‘fabricación’. ‘confabulación’, o incluso ‘alucinación’ (aunque este último término es problemático, ya que antropomorfiza la tecnología). Al menos por ahora, los LLM solo pueden proporcionar respuestas lingüísticamente plausibles a las indicaciones, sin garantía de precisión o incluso veracidad (aunque compañías como OpenAI han afirmado que este es un problema que puede resolverse).
Por ejemplo, cuando le preguntamos a ChatGPT “¿Cuáles son las publicaciones más relevantes de Access Now sobre IA?” generó una lista de piezas sonoras muy impresionantes que, según los títulos, el estilo y el tono, bien podríamos haber escrito. Excepto que no lo hicimos. De una lista de cinco elementos sugeridos por ChatGPT, solo uno era una publicación real escrita por miembros del equipo de Access Now. Más allá de los blogs, periódicos y bibliotecas falsos de Access Now, también se enfrentan a una avalancha de personas que intentan encontrar artículos y libros inexistentes sugeridos por ChatGPT .
4. ¿Cómo se comparan los riesgos reales de la IA generativa con los mitos?
A pesar de la exageración, los sistemas de IA generativa como GPT-4 o Bard de Google no son ‘superinteligentes’, ni siquiera cerca. No son conscientes y no hay peligro de que tomen el poder y eliminen a la humanidad. De la misma forma básica en que su teléfono inteligente completa automáticamente un mensaje de texto, estos sistemas simplemente responden a las indicaciones generando respuestas plausibles y sofisticadas. El hecho de que puedan producir un soneto que suene a Shakespeare o un pingüino de aspecto genial no significa que puedan usarse para automatizar roles y responsabilidades que requieren precisión objetiva, confiabilidad, comprensión, experiencia, empatía, etc.
Si bien muchas personas, especialmente aquellas que invierten financieramente en la tecnología, son implacablemente optimistas acerca de que la IA generativa reemplace todo tipo de trabajos, debemos permanecer escépticos ante las promesas exageradas y centrarnos en los efectos observables. Gran parte del enfoque actual de los medios está en el llamado riesgo existencial presentado por una IA poderosa, es decir, la idea de que los sistemas de IA podrían volverse tan poderosos que eliminarían a la humanidad a propósito o accidentalmente. Pero investigadores como Joy Buolamwini, Safiya Noble, Timnit Gebru, Emily Bender, Melanie Mitchell y otros se han apresurado a desacreditar tales especulaciones de ciencia ficción. En cambio, señalan, el mundo debería prestar atención a los daños muy reales y desgarradores que la IA ya está perpetrando. Ejemplos de esto incluyen:
Desafortunadamente, es probable que la IA generativa se sume a este sombrío catálogo de daños. Ya estamos viendo, por ejemplo, el uso de sistemas de inteligencia artificial generativa de última generación para hacer que las campañas de desinformación sean más baratas y convincentes.
También existe un riesgo considerable de que los sistemas de IA solo ayuden a las grandes empresas tecnológicas a consolidar su poder, ya que son ellas las que tienen acceso a cantidades masivas de datos, poder computacional y experiencia técnica necesaria para aprovechar al máximo dichos sistemas. Dado el creciente impulso para integrar la IA en todo, desde la prestación de servicios sociales hasta la evaluación de solicitudes de empleo, esto plantea serias preocupaciones. ¿Realmente queremos que los sistemas de IA patentados y opacos se infiltren en todos los aspectos de nuestras vidas?
5. ¿Cómo hacemos que la IA sea segura?
Hay un caso sólido para prohibir ciertas aplicaciones de IA que representan un riesgo inaceptable para los derechos humanos. Sin embargo, por el momento, no hay un llamado fuerte para prohibir los modelos de IA generativa, incluso si los legisladores en varias jurisdicciones están debatiendo cómo controlar los daños de tales sistemas, por ejemplo, exigiendo transparencia en los datos en los que están capacitados. el trabajo oculto y explotador que implica hacerlos funcionar, y su impacto ambiental.
Stability AI, el creador de Stable Diffusion, actualmente enfrenta acciones legales por cómo usó datos protegidos por derechos de autor para entrenar sus modelos, mientras que OpenAI se encontró en problemas cuando la autoridad de protección de datos de Italia suspendió temporalmente el acceso a ChatGPT mientras investigaba si la herramienta cumplía con el Reglamento General de Protección de Datos (RGPD) de la UE.
Lo que está claro es que las empresas que desarrollan IA generativa deben trabajar para garantizar que dicha tecnología se desarrolle e implemente de acuerdo con los estándares de derechos humanos, así como con las regulaciones existentes. Si estas tecnologías, o sus implementaciones específicas, violan los derechos humanos, no debería depender de las personas adaptarse a esta nueva realidad tecnológica. En cambio, los desarrolladores de IA que afirman estar construyendo un futuro más brillante para toda la humanidad tienen que enfrentarse a hechos sobre cómo sus tecnologías en realidad dejan atrás a muchas personas.
Como lo expresaron Deborah Raji y Abeba Birhane, “si estas poderosas empresas no pueden lanzar sistemas que satisfagan las expectativas de aquellos que tienen más probabilidades de ser dañados por ellos, entonces sus productos no están listos para servir a estas comunidades y no merecen un lanzamiento generalizado”.
6. ¿ Dónde puedo obtener más información sobre la IA generativa y los derechos humanos?
Además de seguir la promoción continua de Access Now sobre este tema, recomendamos consultar el trabajo de nuestros socios, incluidos European Digital Rights, AlgorithmWatch, European Centre for Non-for-Profit Law, AI Now Institute y Distributed AI Research Institute.
Todos los días, las columnas de los periódicos y las redes sociales se llenan con cantidades iguales de optimismo exagerado acerca de cómo la ‘IA generativa’ cambiará el mundo y la fatalidad de la ciencia ficción sobre el fin de la humanidad. En medio de todo este ruido, tanto los comentaristas como las empresas están pasando por alto la realidad de cómo las aplicaciones de inteligencia artificial recientemente populares ya están afectando la vida de las personas y sus derechos fundamentales. En este artículo explicativo, estamos eliminando la exageración para llegar a la verdad sobre lo que la IA generativa puede (y no puede) hacer y por qué es importante para los derechos humanos en todo el mundo.
1. ¿Qué es la ‘IA generativa’ y por qué recién escucho sobre ella ahora?
Desde finales de 2022, cuando la herramienta ChatGPT de Open AI irrumpió en la corriente principal, todo el mundo ha estado hablando de IA generativa. Sin embargo, a pesar de ser una novedad para la mayoría de las personas, la tecnología subyacente ha existido durante años, principalmente en dos formas:
El año pasado, los impresionantes avances en los modelos multimodales los catapultaron a la conciencia pública. Las redes sociales se inundaron con imágenes extravagantes generadas por IA y avatares que se veían geniales y lindos, hasta que las personas se dieron cuenta de que eran generados por sistemas que usaban el trabajo de artistas humanos como datos de entrenamiento sin su consentimiento y sin la debida compensación.
2. ¿Cómo funciona la IA generativa?
No existe una definición universalmente acordada de inteligencia artificial y ha significado diferentes cosas a lo largo del tiempo. Pero hoy en día, cuando la mayoría de la gente usa el término, se refiere a un enfoque de la informática conocido como “aprendizaje automático“. El aprendizaje automático implica que los humanos introduzcan grandes cantidades de datos en un “algoritmo de aprendizaje” que extrae patrones y reglas de esos datos y usa esas reglas para hacer predicciones. Aunque se imaginó por primera vez en la década de 1950, el aprendizaje automático solo despegó realmente alrededor de 2012, con la llegada de computadoras potentes y nuevas cantidades masivas de datos disponibles generados por las redes sociales y otras actividades en línea: una combinación hecha en el paraíso del aprendizaje automático.
El aprendizaje automático se usa comúnmente para entrenar sistemas de reconocimiento facial con grandes conjuntos de datos de rostros. Con estos datos de entrenamiento, los sistemas ‘aprenden’ a identificar caras en imágenes y predecir si hay una coincidencia entre dos caras. Mientras tanto, los sistemas de IA generativa se entrenan en grandes conjuntos de datos de texto, imágenes y otros medios para producir contenido similar pero sintético. Estos sistemas también hacen predicciones sobre el texto que probablemente seguirá a un aviso determinado, pero generan contenido como salida; de ahí el término ‘IA generativa’. Dichos sistemas pueden imitar el trabajo de escritores o artistas famosos incluidos en sus datos de capacitación, pero también replicarán cualquier sesgo del contenido en el que se capacitaron, como lenguaje racista o imágenes sexistas.
3. ¿Cuáles son las limitaciones de los sistemas de IA generativa?
Como se mencionó, los sistemas de aprendizaje automático replican patrones a partir de sus datos de entrenamiento; generan contenido basado en lo que han visto antes. Pero dado que, a diferencia de los humanos, en realidad no pueden entender los datos ingresados o emitidos, esto puede llevarlos a replicar sesgos dañinos, incluidas suposiciones abiertamente racistas y sexistas. De la misma manera que se puede usar el filtrado para moderar el contenido en las plataformas de redes sociales, se pueden agregar filtros similares a los sistemas generativos de inteligencia artificial para tratar de detectar indicaciones que pueden conducir a resultados dañinos y para detectar los mismos resultados dañinos.
Pero al igual que con la moderación automatizada en las plataformas de redes sociales, existen serias limitaciones para detectar automáticamente cosas como el discurso de odio o el contenido ilegal. También es fácil “hacer jailbreak” a estos sistemas y hacer que produzcan contenido tóxico al pasar por alto los filtros existentes. Además, sabemos que los humanos que entrenan estos sistemas para reconocer este contenido y etiquetarlo como tal a menudo están mal pagados, con un apoyo de bienestar limitado o nulo (a pesar de estar expuestos a contenido horrendo día tras día). La IA generativa se basa en la explotación de esas personas, muchas de las cuales ahora se están uniendo para exigir el debido reconocimiento y reparación.
Un examen de algunos conjuntos de datos de entrenamiento de IA generativa populares ha demostrado que están llenos de misoginia, pornografía y estereotipos malignos. Y dado que estos sistemas a menudo actúan como ‘modelos básicos’ para otras aplicaciones y servicios, esos mismos sesgos se abren paso en otros sistemas y aplicaciones, como la aplicación de mejora de selfies y generación de avatares de Lensa, que produjo contenido sexualizado e imágenes de desnudos de mujeres negras, asiáticas y latinas debido a los prejuicios del sistema en el que se construyó.
Los LLM también están limitados, en un grado peligroso, por el hecho de que regularmente producen información completamente falsa en respuesta a las indicaciones; un fenómeno que ha sido llamado de diversas formas ‘fabricación’. ‘confabulación’, o incluso ‘alucinación’ (aunque este último término es problemático, ya que antropomorfiza la tecnología). Al menos por ahora, los LLM solo pueden proporcionar respuestas lingüísticamente plausibles a las indicaciones, sin garantía de precisión o incluso veracidad (aunque compañías como OpenAI han afirmado que este es un problema que puede resolverse).
Por ejemplo, cuando le preguntamos a ChatGPT “¿Cuáles son las publicaciones más relevantes de Access Now sobre IA?” generó una lista de piezas sonoras muy impresionantes que, según los títulos, el estilo y el tono, bien podríamos haber escrito. Excepto que no lo hicimos. De una lista de cinco elementos sugeridos por ChatGPT, solo uno era una publicación real escrita por miembros del equipo de Access Now. Más allá de los blogs, periódicos y bibliotecas falsos de Access Now, también se enfrentan a una avalancha de personas que intentan encontrar artículos y libros inexistentes sugeridos por ChatGPT .
4. ¿Cómo se comparan los riesgos reales de la IA generativa con los mitos?
A pesar de la exageración, los sistemas de IA generativa como GPT-4 o Bard de Google no son ‘superinteligentes’, ni siquiera cerca. No son conscientes y no hay peligro de que tomen el poder y eliminen a la humanidad. De la misma forma básica en que su teléfono inteligente completa automáticamente un mensaje de texto, estos sistemas simplemente responden a las indicaciones generando respuestas plausibles y sofisticadas. El hecho de que puedan producir un soneto que suene a Shakespeare o un pingüino de aspecto genial no significa que puedan usarse para automatizar roles y responsabilidades que requieren precisión objetiva, confiabilidad, comprensión, experiencia, empatía, etc.
Si bien muchas personas, especialmente aquellas que invierten financieramente en la tecnología, son implacablemente optimistas acerca de que la IA generativa reemplace todo tipo de trabajos, debemos permanecer escépticos ante las promesas exageradas y centrarnos en los efectos observables. Gran parte del enfoque actual de los medios está en el llamado riesgo existencial presentado por una IA poderosa, es decir, la idea de que los sistemas de IA podrían volverse tan poderosos que eliminarían a la humanidad a propósito o accidentalmente. Pero investigadores como Joy Buolamwini, Safiya Noble, Timnit Gebru, Emily Bender, Melanie Mitchell y otros se han apresurado a desacreditar tales especulaciones de ciencia ficción. En cambio, señalan, el mundo debería prestar atención a los daños muy reales y desgarradores que la IA ya está perpetrando. Ejemplos de esto incluyen:
Desafortunadamente, es probable que la IA generativa se sume a este sombrío catálogo de daños. Ya estamos viendo, por ejemplo, el uso de sistemas de inteligencia artificial generativa de última generación para hacer que las campañas de desinformación sean más baratas y convincentes.
También existe un riesgo considerable de que los sistemas de IA solo ayuden a las grandes empresas tecnológicas a consolidar su poder, ya que son ellas las que tienen acceso a cantidades masivas de datos, poder computacional y experiencia técnica necesaria para aprovechar al máximo dichos sistemas. Dado el creciente impulso para integrar la IA en todo, desde la prestación de servicios sociales hasta la evaluación de solicitudes de empleo, esto plantea serias preocupaciones. ¿Realmente queremos que los sistemas de IA patentados y opacos se infiltren en todos los aspectos de nuestras vidas?
5. ¿Cómo hacemos que la IA sea segura?
Hay un caso sólido para prohibir ciertas aplicaciones de IA que representan un riesgo inaceptable para los derechos humanos. Sin embargo, por el momento, no hay un llamado fuerte para prohibir los modelos de IA generativa, incluso si los legisladores en varias jurisdicciones están debatiendo cómo controlar los daños de tales sistemas, por ejemplo, exigiendo transparencia en los datos en los que están capacitados. el trabajo oculto y explotador que implica hacerlos funcionar, y su impacto ambiental.
Stability AI, el creador de Stable Diffusion, actualmente enfrenta acciones legales por cómo usó datos protegidos por derechos de autor para entrenar sus modelos, mientras que OpenAI se encontró en problemas cuando la autoridad de protección de datos de Italia suspendió temporalmente el acceso a ChatGPT mientras investigaba si la herramienta cumplía con el Reglamento General de Protección de Datos (RGPD) de la UE.
Lo que está claro es que las empresas que desarrollan IA generativa deben trabajar para garantizar que dicha tecnología se desarrolle e implemente de acuerdo con los estándares de derechos humanos, así como con las regulaciones existentes. Si estas tecnologías, o sus implementaciones específicas, violan los derechos humanos, no debería depender de las personas adaptarse a esta nueva realidad tecnológica. En cambio, los desarrolladores de IA que afirman estar construyendo un futuro más brillante para toda la humanidad tienen que enfrentarse a hechos sobre cómo sus tecnologías en realidad dejan atrás a muchas personas.
Como lo expresaron Deborah Raji y Abeba Birhane, “si estas poderosas empresas no pueden lanzar sistemas que satisfagan las expectativas de aquellos que tienen más probabilidades de ser dañados por ellos, entonces sus productos no están listos para servir a estas comunidades y no merecen un lanzamiento generalizado”.
6. ¿ Dónde puedo obtener más información sobre la IA generativa y los derechos humanos?
Además de seguir la promoción continua de Access Now sobre este tema, recomendamos consultar el trabajo de nuestros socios, incluidos European Digital Rights, AlgorithmWatch, European Centre for Non-for-Profit Law, AI Now Institute y Distributed AI Research Institute.
Original
Compartir esto: