por Vyacheslav Polonski traducción David Ormeño
La histeria sobre el futuro de la inteligencia artificial (IA) está en todas partes. No parecen faltar noticias sensacionalistas sobre cómo la IA podría curar enfermedades, acelerar la innovación humana y mejorar la creatividad humana. Con sólo mirar los titulares de los medios de comunicación, se podría pensar que ya estamos viviendo en un futuro en el que la IA se ha infiltrado en todos los aspectos de la sociedad.
Si bien es innegable que la IA ha abierto una gran cantidad de oportunidades prometedoras, también ha llevado al surgimiento de una mentalidad que puede describirse mejor como solucionismo de la IA. Esta es la filosofía de que, con suficientes datos, los algoritmos de aprendizaje automático pueden resolver todos los problemas de la humanidad.
Pero hay un gran problema con esta idea. En lugar de apoyar el progreso de la IA, en realidad pone en peligro el valor de la inteligencia de las máquinas al hacer caso omiso de importantes principios de seguridad de la IA y establecer expectativas poco realistas sobre lo que la IA puede hacer realmente por la humanidad.
El solucionismo de la IA
En tan sólo unos años, el solucionismo de la IA ha pasado de las bocas de los evangelistas de la tecnología en Silicon Valley a las mentes de los funcionarios gubernamentales y políticos de todo el mundo. El péndulo ha pasado de la noción distópica de que la IA destruirá a la humanidad a la creencia utópica de que nuestro salvador algorítmico está aquí.
Ahora estamos viendo que los gobiernos se comprometen a apoyar las iniciativas nacionales de IA y compiten en una carrera armamentista tecnológica y retórica para dominar el floreciente sector del aprendizaje automático. Por ejemplo, el gobierno del Reino Unido se ha comprometido a invertir 300 millones de libras esterlinas en la investigación de la IA para posicionarse como líder en este campo. Enamorado del potencial transformador de la IA, el presidente francés Emmanuel Macron se comprometió a convertir a Francia en un centro mundial de IA. Mientras tanto, el gobierno chino está aumentando su capacidad de inteligencia artificial con un plan nacional para crear una industria china de inteligencia artificial por valor de 150.000 millones de dólares para 2030. El solucionismo de la IA está en ascenso y está aquí para quedarse.
Redes neuronales – más fácil decirlo que hacerlo
Mientras que muchos manifiestos políticos pregonan los efectos transformadores de la inminente revolución de la IA, tienden a subestimar la complejidad del despliegue de sistemas avanzados de aprendizaje automático en el mundo real.
Una de las variedades más prometedoras de tecnologías de IA son las redes neuronales. Esta forma de aprendizaje automático se modela vagamente a partir de la estructura neuronal del cerebro humano, pero a una escala mucho menor. Muchos productos basados en la IA utilizan redes neuronales para inferir patrones y reglas a partir de grandes volúmenes de datos. Pero lo que muchos políticos no entienden es que el simple hecho de añadir una red neuronal a un problema no significa automáticamente que usted encontrará una solución. Del mismo modo, añadir una red neuronal a una democracia no significa que será instantáneamente más inclusiva, justa o personalizada.
Desafiando a la burocracia de datos
Los sistemas de IA necesitan muchos datos para funcionar, pero el sector público normalmente no tiene la infraestructura de datos adecuada para soportar el aprendizaje avanzado de máquinas. La mayoría de los datos permanecen almacenados en archivos fuera de línea. Las pocas fuentes digitalizadas de datos que existen tienden a estar enterradas en la burocracia. En la mayoría de los casos, los datos se distribuyen entre diferentes departamentos gubernamentales, cada uno de los cuales requiere permisos especiales para acceder a ellos. Por encima de todo, el sector público suele carecer del talento humano con las capacidades tecnológicas adecuadas para cosechar plenamente los beneficios de la inteligencia de la máquina.
Por estas razones, el sensacionalismo sobre la IA ha atraído a muchos críticos. Stuart Russell, profesor de ciencias de la computación en Berkeley, ha defendido durante mucho tiempo un enfoque más realista que se centra en aplicaciones cotidianas simples de la IA en lugar de la hipotética adquisición por robots superinteligentes. De forma similar, el profesor de robótica del MIT, Rodney Brooks, escribe que casi todas las innovaciones en robótica y IA tardan mucho, mucho, mucho más tiempo en desplegarse ampliamente de lo que la gente en el campo y fuera del campo imagina.
Una de las muchas dificultades para implementar sistemas de aprendizaje automático es que la IA es extremadamente susceptible a los ataques adversarios. Esto significa que una IA maliciosa puede apuntar a otra IA para forzarla a hacer predicciones erróneas o a comportarse de cierta manera. Muchos investigadores han advertido contra el despliegue de la IA sin normas de seguridad y mecanismos de defensa adecuados. Sin embargo, la seguridad de la IA sigue siendo un tema que a menudo se pasa por alto.
El aprendizaje de máquina no es mágico
Si queremos cosechar los beneficios y minimizar los daños potenciales de la IA, debemos empezar a pensar en cómo el aprendizaje automático puede aplicarse de manera significativa a áreas específicas del gobierno, las empresas y la sociedad. Esto significa que necesitamos tener una discusión sobre la ética de la IA y la desconfianza que mucha gente tiene hacia el aprendizaje automático.
Y lo que es más importante, debemos ser conscientes de las limitaciones de la IA y de los aspectos en los que los seres humanos aún deben tomar la iniciativa. En lugar de pintar una imagen poco realista del poder de la IA, es importante dar un paso atrás y separar las capacidades tecnológicas reales de la IA de la magia.
Durante mucho tiempo, Facebook creyó que problemas como la difusión de información errónea y la incitación al odio podían identificarse y detenerse algorítmicamente. Pero bajo la reciente presión de los legisladores, la compañía rápidamente se comprometió a reemplazar sus algoritmos con un ejército de más de 10.000 revisores humanos.
La profesión médica también ha reconocido que la IA no puede considerarse una solución para todos los problemas. El programa de IBM Watson for Oncology era una pieza de IA que tenía por objeto ayudar a los médicos a tratar el cáncer. Aunque fue desarrollado para ofrecer las mejores recomendaciones, a los expertos humanos les resultó difícil confiar en la máquina. Como resultado, el programa de IA fue abandonado en la mayoría de los hospitales donde fue probado.
Problemas similares surgieron en el ámbito jurídico cuando se utilizaron algoritmos en los tribunales de los Estados Unidos para condenar a los delincuentes. Un algoritmo calculó las puntuaciones de la evaluación del riesgo y asesoró a los jueces sobre la sentencia. Se determinó que el sistema amplificaba la discriminación racial estructural y posteriormente se abandonó.
Estos ejemplos demuestran que no existe una solución de IA para todo. Usar la IA simplemente por el bien de la IA no siempre puede ser productivo o útil. No todos los problemas se resuelven mejor aplicando inteligencia de máquina a ellos. Esta es la lección crucial para todos los que quieren impulsar las inversiones en los programas nacionales de IA: todas las soluciones tienen un coste y no todo lo que se puede automatizar debería hacerse.
por Vyacheslav Polonski traducción David Ormeño
La histeria sobre el futuro de la inteligencia artificial (IA) está en todas partes. No parecen faltar noticias sensacionalistas sobre cómo la IA podría curar enfermedades, acelerar la innovación humana y mejorar la creatividad humana. Con sólo mirar los titulares de los medios de comunicación, se podría pensar que ya estamos viviendo en un futuro en el que la IA se ha infiltrado en todos los aspectos de la sociedad.
Si bien es innegable que la IA ha abierto una gran cantidad de oportunidades prometedoras, también ha llevado al surgimiento de una mentalidad que puede describirse mejor como solucionismo de la IA. Esta es la filosofía de que, con suficientes datos, los algoritmos de aprendizaje automático pueden resolver todos los problemas de la humanidad.
Pero hay un gran problema con esta idea. En lugar de apoyar el progreso de la IA, en realidad pone en peligro el valor de la inteligencia de las máquinas al hacer caso omiso de importantes principios de seguridad de la IA y establecer expectativas poco realistas sobre lo que la IA puede hacer realmente por la humanidad.
El solucionismo de la IA
En tan sólo unos años, el solucionismo de la IA ha pasado de las bocas de los evangelistas de la tecnología en Silicon Valley a las mentes de los funcionarios gubernamentales y políticos de todo el mundo. El péndulo ha pasado de la noción distópica de que la IA destruirá a la humanidad a la creencia utópica de que nuestro salvador algorítmico está aquí.
Ahora estamos viendo que los gobiernos se comprometen a apoyar las iniciativas nacionales de IA y compiten en una carrera armamentista tecnológica y retórica para dominar el floreciente sector del aprendizaje automático. Por ejemplo, el gobierno del Reino Unido se ha comprometido a invertir 300 millones de libras esterlinas en la investigación de la IA para posicionarse como líder en este campo. Enamorado del potencial transformador de la IA, el presidente francés Emmanuel Macron se comprometió a convertir a Francia en un centro mundial de IA. Mientras tanto, el gobierno chino está aumentando su capacidad de inteligencia artificial con un plan nacional para crear una industria china de inteligencia artificial por valor de 150.000 millones de dólares para 2030. El solucionismo de la IA está en ascenso y está aquí para quedarse.
Redes neuronales – más fácil decirlo que hacerlo
Mientras que muchos manifiestos políticos pregonan los efectos transformadores de la inminente revolución de la IA, tienden a subestimar la complejidad del despliegue de sistemas avanzados de aprendizaje automático en el mundo real.
Una de las variedades más prometedoras de tecnologías de IA son las redes neuronales. Esta forma de aprendizaje automático se modela vagamente a partir de la estructura neuronal del cerebro humano, pero a una escala mucho menor. Muchos productos basados en la IA utilizan redes neuronales para inferir patrones y reglas a partir de grandes volúmenes de datos. Pero lo que muchos políticos no entienden es que el simple hecho de añadir una red neuronal a un problema no significa automáticamente que usted encontrará una solución. Del mismo modo, añadir una red neuronal a una democracia no significa que será instantáneamente más inclusiva, justa o personalizada.
Desafiando a la burocracia de datos
Los sistemas de IA necesitan muchos datos para funcionar, pero el sector público normalmente no tiene la infraestructura de datos adecuada para soportar el aprendizaje avanzado de máquinas. La mayoría de los datos permanecen almacenados en archivos fuera de línea. Las pocas fuentes digitalizadas de datos que existen tienden a estar enterradas en la burocracia. En la mayoría de los casos, los datos se distribuyen entre diferentes departamentos gubernamentales, cada uno de los cuales requiere permisos especiales para acceder a ellos. Por encima de todo, el sector público suele carecer del talento humano con las capacidades tecnológicas adecuadas para cosechar plenamente los beneficios de la inteligencia de la máquina.
Por estas razones, el sensacionalismo sobre la IA ha atraído a muchos críticos. Stuart Russell, profesor de ciencias de la computación en Berkeley, ha defendido durante mucho tiempo un enfoque más realista que se centra en aplicaciones cotidianas simples de la IA en lugar de la hipotética adquisición por robots superinteligentes. De forma similar, el profesor de robótica del MIT, Rodney Brooks, escribe que casi todas las innovaciones en robótica y IA tardan mucho, mucho, mucho más tiempo en desplegarse ampliamente de lo que la gente en el campo y fuera del campo imagina.
Una de las muchas dificultades para implementar sistemas de aprendizaje automático es que la IA es extremadamente susceptible a los ataques adversarios. Esto significa que una IA maliciosa puede apuntar a otra IA para forzarla a hacer predicciones erróneas o a comportarse de cierta manera. Muchos investigadores han advertido contra el despliegue de la IA sin normas de seguridad y mecanismos de defensa adecuados. Sin embargo, la seguridad de la IA sigue siendo un tema que a menudo se pasa por alto.
El aprendizaje de máquina no es mágico
Si queremos cosechar los beneficios y minimizar los daños potenciales de la IA, debemos empezar a pensar en cómo el aprendizaje automático puede aplicarse de manera significativa a áreas específicas del gobierno, las empresas y la sociedad. Esto significa que necesitamos tener una discusión sobre la ética de la IA y la desconfianza que mucha gente tiene hacia el aprendizaje automático.
Y lo que es más importante, debemos ser conscientes de las limitaciones de la IA y de los aspectos en los que los seres humanos aún deben tomar la iniciativa. En lugar de pintar una imagen poco realista del poder de la IA, es importante dar un paso atrás y separar las capacidades tecnológicas reales de la IA de la magia.
Durante mucho tiempo, Facebook creyó que problemas como la difusión de información errónea y la incitación al odio podían identificarse y detenerse algorítmicamente. Pero bajo la reciente presión de los legisladores, la compañía rápidamente se comprometió a reemplazar sus algoritmos con un ejército de más de 10.000 revisores humanos.
La profesión médica también ha reconocido que la IA no puede considerarse una solución para todos los problemas. El programa de IBM Watson for Oncology era una pieza de IA que tenía por objeto ayudar a los médicos a tratar el cáncer. Aunque fue desarrollado para ofrecer las mejores recomendaciones, a los expertos humanos les resultó difícil confiar en la máquina. Como resultado, el programa de IA fue abandonado en la mayoría de los hospitales donde fue probado.
Problemas similares surgieron en el ámbito jurídico cuando se utilizaron algoritmos en los tribunales de los Estados Unidos para condenar a los delincuentes. Un algoritmo calculó las puntuaciones de la evaluación del riesgo y asesoró a los jueces sobre la sentencia. Se determinó que el sistema amplificaba la discriminación racial estructural y posteriormente se abandonó.
Estos ejemplos demuestran que no existe una solución de IA para todo. Usar la IA simplemente por el bien de la IA no siempre puede ser productivo o útil. No todos los problemas se resuelven mejor aplicando inteligencia de máquina a ellos. Esta es la lección crucial para todos los que quieren impulsar las inversiones en los programas nacionales de IA: todas las soluciones tienen un coste y no todo lo que se puede automatizar debería hacerse.
Compartir esto: