La inteligencia artificial, o AI, está pasando por un período de expansión masiva. Esto no se debe a que las computadoras hayan logrado una conciencia similar a la humana, sino a los avances en el aprendizaje automático, donde las computadoras aprenden de enormes bases de datos cómo clasificar los datos nuevos. En la vanguardia están las redes neuronales que han aprendido a reconocer caras humanas o jugar a Go.
El reconocimiento de patrones en los datos también se puede usar como una herramienta de predicción. La IA se está aplicando a los ecocardiogramas para predecir las enfermedades del corazón, a los datos del lugar de trabajo para predecir si los empleados se van a ir, y a las redes sociales para detectar signos de depresión incipiente o tendencias suicidas. Cualquier paso de la vida donde hay datos abundantes, y eso significa prácticamente todos los aspectos de la vida, está siendo detectado por el gobierno o las empresas para la aplicación de la inteligencia artificial.
Una actividad que actualmente parece distante de IA es el humanitarismo; la organización de ayuda sobre el terreno a otros seres humanos en crisis debido a la guerra, el hambre u otro desastre. Pero las organizaciones humanitarias también adoptarán AI. ¿Por qué? Porque parece capaz de responder preguntas en el corazón del humanitarismo: preguntas sobre a quién deberíamos salvar y cómo ser efectivos a escala. La IA también suena fuertemente con los modos existentes de pensamiento y acción humanitarios, en particular los principios de neutralidad y universalidad. El humanitarismo (se cree) no toma partido, es imparcial en su aplicación y ofrece ayuda independientemente de los detalles de una situación local.
La forma en que el aprendizaje automático consume grandes cantidades de datos y produce predicciones indudablemente sugiere que puede captar la enormidad del desafío humanitario y proporcionar una respuesta impulsada por los datos. Pero la naturaleza de las operaciones de aprendizaje automático significa que realmente profundizarán algunos de los problemas del humanitarismo e introducirán otros propios.
Las matemáticas
Explorar estas preguntas requiere un breve desvío en las operaciones concretas del aprendizaje automático, si queremos evitar la desinformación y mistificación que se relaciona con el término IA. Porque no hay inteligencia en inteligencia artificial. Tampoco aprende realmente, aunque su nombre técnico es el aprendizaje automático.
IA es simplemente minimización matemática. ¿Recuerdas que en la escuela te ajustaría una línea recta a un conjunto de puntos, eligiendo la línea que minimiza las diferencias en general? El aprendizaje automático hace lo mismo para patrones complejos, ajustando las características de entrada a los resultados conocidos al minimizar una función de costo. El resultado se convierte en un modelo que se puede aplicar a nuevos datos para predecir el resultado.
Todos y cada uno de los datos pueden enviarse a través de algoritmos de aprendizaje automático. Cualquier cosa que se pueda reducir a números y etiquetar con un resultado se puede usar para crear un modelo. Las ecuaciones no conocen ni se preocupan si los números representan ventas de Amazon o víctimas del terremoto.
Esta banalidad del aprendizaje automático también es su poder. Es una compresión numérica generalizada de las preguntas que importan: no hay comprensión dentro del cálculo; los patrones indican correlación, no causalidad. La única inteligencia viene en el mismo sentido que la inteligencia militar; es decir, segmentación. Las operaciones consisten en minimizar la función de costo para optimizar el resultado.
Y los modelos producidos por el aprendizaje automático pueden ser difíciles de revertir en el razonamiento humano. ¿Por qué eligió a esta persona como con un riesgo de libertad condicional malo? ¿Qué representa ese patrón? No podemos decir necesariamente. Entonces hay una opacidad en el corazón de los métodos. No aumenta la acción humana, sino que la distorsiona.
Lógica de los poderosos
El aprendizaje automático no solo toma decisiones sin dar razones, sino que modifica nuestra idea de la razón. Es decir, cambia lo que es cognoscible y lo que se entiende como real.
Por ejemplo, en algunas jurisdicciones de los EE. UU., Si un algoritmo produce una predicción de que una persona detenida probablemente volverá a delinquir, se le denegará la libertad bajo fianza. La búsqueda de patrones en los datos se convierte en una autoridad de cálculo que desencadena consecuencias sustanciales.
El aprendizaje automático, entonces, no es solo un método sino una filosofía maquínica donde se entiende que el cálculo abstracto tiene acceso a una verdad que se considera superior a la percepción sensorial de la percepción ordinaria. Y como tal, los cálculos de la ciencia de datos pueden terminar contando más que testimonios.
Por supuesto, el campo humanitario no es ingenuo sobre los peligros de la dataficción. Es bien sabido que el aprendizaje automático podría propagar la discriminación porque aprende de los datos sociales, que a menudo son parciales. Por lo tanto, las instituciones humanitarias naturalmente tendrán más cuidado que la mayoría para garantizar todas las salvaguardas posibles contra los datos de capacitación sesgados.
Pero el problema va más allá del prejuicio explícito. El efecto más profundo del aprendizaje automático es producir las categorías a través de las cuales pensaremos en nosotros mismos y en los demás. El aprendizaje automático también produce un cambio hacia la apropiación: la ejecución hipotecaria de futuros sobre la base de la correlación en lugar de la causalidad. Esto construye el riesgo de la misma manera que Twitter determina los temas de tendencia, asignando y reteniendo los recursos de una manera que demarca algorítmicamente a los merecedores y los que no lo merecen.
Quizás deberíamos estar particularmente preocupados por estas tendencias porque a pesar de sus mejores intenciones, la práctica del humanitarismo a menudo muestra tendencias neocoloniales. La lA afirmar neutralidad y universalidad, los algoritmos afirman la superioridad del conocimiento abstracto generado en otros lugares. Al incorporar la lógica de los poderosos para determinar qué sucede con las personas de la periferia, la IA humanitaria se convierte en un mecanismo neocolonial que actúa en lugar de un control directo.
Tal como están las cosas, el aprendizaje automático y la llamada IA no serán ningún tipo de salvación para el humanitarismo. En cambio, profundizará las ya profundas dinámicas neocoloniales y neoliberales de las instituciones humanitarias a través de la distorsión algorítmica.
Pero ningún aparato es un sistema cerrado; el impacto del aprendizaje automático es contingente y puede cambiarse. Esto es tan importante para la IA humanitaria como para AI en general, ya que si una técnica alternativa no es movilizada por enfoques como los consejos populares, la próxima generación de escándalos humanitarios será impulsada por IA.
We use cookies on our website to give you the most relevant experience by remembering your preferences and repeat visits. By clicking “Accept All”, you consent to the use of ALL the cookies. However, you may visit "Cookie Settings" to provide a controlled consent.
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. These cookies ensure basic functionalities and security features of the website, anonymously.
Cookie
Duración
Descripción
cookielawinfo-checkbox-analytics
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Analytics".
cookielawinfo-checkbox-functional
11 months
The cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Functional".
cookielawinfo-checkbox-necessary
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookies is used to store the user consent for the cookies in the category "Necessary".
cookielawinfo-checkbox-others
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Other.
cookielawinfo-checkbox-performance
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Performance".
viewed_cookie_policy
11 months
The cookie is set by the GDPR Cookie Consent plugin and is used to store whether or not user has consented to the use of cookies. It does not store any personal data.
Functional cookies help to perform certain functionalities like sharing the content of the website on social media platforms, collect feedbacks, and other third-party features.
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.
Advertisement cookies are used to provide visitors with relevant ads and marketing campaigns. These cookies track visitors across websites and collect information to provide customized ads.
por Dan McQuillan
La inteligencia artificial, o AI, está pasando por un período de expansión masiva. Esto no se debe a que las computadoras hayan logrado una conciencia similar a la humana, sino a los avances en el aprendizaje automático, donde las computadoras aprenden de enormes bases de datos cómo clasificar los datos nuevos. En la vanguardia están las redes neuronales que han aprendido a reconocer caras humanas o jugar a Go.
El reconocimiento de patrones en los datos también se puede usar como una herramienta de predicción. La IA se está aplicando a los ecocardiogramas para predecir las enfermedades del corazón, a los datos del lugar de trabajo para predecir si los empleados se van a ir, y a las redes sociales para detectar signos de depresión incipiente o tendencias suicidas. Cualquier paso de la vida donde hay datos abundantes, y eso significa prácticamente todos los aspectos de la vida, está siendo detectado por el gobierno o las empresas para la aplicación de la inteligencia artificial.
Una actividad que actualmente parece distante de IA es el humanitarismo; la organización de ayuda sobre el terreno a otros seres humanos en crisis debido a la guerra, el hambre u otro desastre. Pero las organizaciones humanitarias también adoptarán AI. ¿Por qué? Porque parece capaz de responder preguntas en el corazón del humanitarismo: preguntas sobre a quién deberíamos salvar y cómo ser efectivos a escala. La IA también suena fuertemente con los modos existentes de pensamiento y acción humanitarios, en particular los principios de neutralidad y universalidad. El humanitarismo (se cree) no toma partido, es imparcial en su aplicación y ofrece ayuda independientemente de los detalles de una situación local.
La forma en que el aprendizaje automático consume grandes cantidades de datos y produce predicciones indudablemente sugiere que puede captar la enormidad del desafío humanitario y proporcionar una respuesta impulsada por los datos. Pero la naturaleza de las operaciones de aprendizaje automático significa que realmente profundizarán algunos de los problemas del humanitarismo e introducirán otros propios.
Las matemáticas
Explorar estas preguntas requiere un breve desvío en las operaciones concretas del aprendizaje automático, si queremos evitar la desinformación y mistificación que se relaciona con el término IA. Porque no hay inteligencia en inteligencia artificial. Tampoco aprende realmente, aunque su nombre técnico es el aprendizaje automático.
IA es simplemente minimización matemática. ¿Recuerdas que en la escuela te ajustaría una línea recta a un conjunto de puntos, eligiendo la línea que minimiza las diferencias en general? El aprendizaje automático hace lo mismo para patrones complejos, ajustando las características de entrada a los resultados conocidos al minimizar una función de costo. El resultado se convierte en un modelo que se puede aplicar a nuevos datos para predecir el resultado.
Todos y cada uno de los datos pueden enviarse a través de algoritmos de aprendizaje automático. Cualquier cosa que se pueda reducir a números y etiquetar con un resultado se puede usar para crear un modelo. Las ecuaciones no conocen ni se preocupan si los números representan ventas de Amazon o víctimas del terremoto.
Esta banalidad del aprendizaje automático también es su poder. Es una compresión numérica generalizada de las preguntas que importan: no hay comprensión dentro del cálculo; los patrones indican correlación, no causalidad. La única inteligencia viene en el mismo sentido que la inteligencia militar; es decir, segmentación. Las operaciones consisten en minimizar la función de costo para optimizar el resultado.
Y los modelos producidos por el aprendizaje automático pueden ser difíciles de revertir en el razonamiento humano. ¿Por qué eligió a esta persona como con un riesgo de libertad condicional malo? ¿Qué representa ese patrón? No podemos decir necesariamente. Entonces hay una opacidad en el corazón de los métodos. No aumenta la acción humana, sino que la distorsiona.
Lógica de los poderosos
El aprendizaje automático no solo toma decisiones sin dar razones, sino que modifica nuestra idea de la razón. Es decir, cambia lo que es cognoscible y lo que se entiende como real.
Por ejemplo, en algunas jurisdicciones de los EE. UU., Si un algoritmo produce una predicción de que una persona detenida probablemente volverá a delinquir, se le denegará la libertad bajo fianza. La búsqueda de patrones en los datos se convierte en una autoridad de cálculo que desencadena consecuencias sustanciales.
El aprendizaje automático, entonces, no es solo un método sino una filosofía maquínica donde se entiende que el cálculo abstracto tiene acceso a una verdad que se considera superior a la percepción sensorial de la percepción ordinaria. Y como tal, los cálculos de la ciencia de datos pueden terminar contando más que testimonios.
Por supuesto, el campo humanitario no es ingenuo sobre los peligros de la dataficción. Es bien sabido que el aprendizaje automático podría propagar la discriminación porque aprende de los datos sociales, que a menudo son parciales. Por lo tanto, las instituciones humanitarias naturalmente tendrán más cuidado que la mayoría para garantizar todas las salvaguardas posibles contra los datos de capacitación sesgados.
Pero el problema va más allá del prejuicio explícito. El efecto más profundo del aprendizaje automático es producir las categorías a través de las cuales pensaremos en nosotros mismos y en los demás. El aprendizaje automático también produce un cambio hacia la apropiación: la ejecución hipotecaria de futuros sobre la base de la correlación en lugar de la causalidad. Esto construye el riesgo de la misma manera que Twitter determina los temas de tendencia, asignando y reteniendo los recursos de una manera que demarca algorítmicamente a los merecedores y los que no lo merecen.
Quizás deberíamos estar particularmente preocupados por estas tendencias porque a pesar de sus mejores intenciones, la práctica del humanitarismo a menudo muestra tendencias neocoloniales. La lA afirmar neutralidad y universalidad, los algoritmos afirman la superioridad del conocimiento abstracto generado en otros lugares. Al incorporar la lógica de los poderosos para determinar qué sucede con las personas de la periferia, la IA humanitaria se convierte en un mecanismo neocolonial que actúa en lugar de un control directo.
Tal como están las cosas, el aprendizaje automático y la llamada IA no serán ningún tipo de salvación para el humanitarismo. En cambio, profundizará las ya profundas dinámicas neocoloniales y neoliberales de las instituciones humanitarias a través de la distorsión algorítmica.
Pero ningún aparato es un sistema cerrado; el impacto del aprendizaje automático es contingente y puede cambiarse. Esto es tan importante para la IA humanitaria como para AI en general, ya que si una técnica alternativa no es movilizada por enfoques como los consejos populares, la próxima generación de escándalos humanitarios será impulsada por IA.
Compartir esto: