Durante el encuentro “Conservatorio sobre inteligencia artificial y su impacto en la sociedad”, organizado a través de la entidad Red.es, el secretario de Estado para la Sociedad de la Información y la Agenda Digital, José María Lassalle, ha advertido del problema de que la automatización de funciones, cada vez más habitual en la sociedad, pueda exacerbar las discriminaciones sociales de la vida real si no se aplica ni desarrolla correctamente.
La inteligencia artificial que permite agilizar procesos y establecer modelos de comportamiento social y predicciones de forma automática con el análisis de ingentes cantidades de datos tiene enormes ventajas pero un uso erróneo podría perpetuar “desequilibrios, discriminaciones, exclusiones, intolerancias”, ha añadido.
En la jornada han participado responsables de instituciones científicas, empresas, universidades y organizaciones no gubernamentales, entre otras entidades, para debatir conjuntamente sobre cómo impulsar esta prometedora tecnología que es la inteligencia artificial sin fomentar las desigualdades sociales.
Una abultada representación del comité de expertos que elabora el libro sobre inteligencia artificial en este país y que estará listo previsiblemente en torno al verano, según sus responsables, ha intervenido también en este encuentro.
Nuria Oliver, directora de investigación en ciencias del dato en Vodafone y jefa de datos científicos en Data-Pop Alliance, además de miembro de diversas asociaciones de inteligencia artificial, ha destacado la progresiva implementación de decisiones automatizadas mediante inteligencia artificial por parte de todo tipo de entidades.
La población debe entender los algoritmos
La población tiene que poder interpretar los algoritmos que determinan esas decisiones automatizadas por parte de las empresas cuando tengan gran impacto en su vida. Por ejemplo, los que pronostican si alguien es supuestamente apto para un crédito de acuerdo a los requisitos de un banco o para el acceso a una universidad, y saber si esas entidades podrían estar usando sus sistemas de valoración de forma discriminatoria o no.
Algoritmos de cajas negras. EFE/Ricardo Segura
Un problema que existe es el sesgo o trato dispar que pueden acabar recibiendo ciertos grupos o colectivos e incluso discriminatorio por una mala aplicación de la tecnología, añade Lorena Jaume Palasí, cofundadora de la organización no gubernamental Algorith Watch, y miembro del Consejo de Expertos de la Fundación Cotec sobre innovación.
Las propias bases de datos con las que se elaboran los algoritmos no siempre tienen el tamaño suficiente para permitir predicciones y patrones de comportamiento del individuo con fiabilidad suficiente y la tecnología replica automáticamente los errores. Incluso puede haber sesgos desde la toma misma del dato y en el desarrollo del algoritmo o de la posterior arquitectura de decisiones.
Las máquinas no siempre interpretan los matices de los datos en el contexto correcto, y eso puede provocar discriminaciones raciales, de género o de cualquier otro tipo en los modelos de predicciones que se establezcan, añade la experta.
Ramón López de Mántaras, director de Inteligencia Artificial del CSIC y pionero de esta materia en España, ha asegurado que la inteligencia artificial o la capacidad de las máquinas para hacer determinadas tareas de forma excelente está lejísimos de ser como la humana.
La inteligencia artificial es extraordinariamente competente en ciertas funciones, incluso mejor que un humano por ejemplo en el diagnóstico médico bajo determinadas circunstancias pero desde el punto de vista cognitivo las máquinas “no entienden nada”, ni pueden realizar con excelencia varias tareas a la vez como un humano, ha subrayado.
Ha recordado que la inteligencia artificial es una disciplina en la que se trabaja desde hace mucho tiempo, aunque una serie de ingredientes en los últimos años como la generalización de internet, la posibilidad de acceso a ingentes cantidades de datos, el abaratamiento del uso de tecnologías con altas prestaciones y una mejora de los algoritmos han provocado este “boom” en su implementación.EFE
Fuente
Durante el encuentro “Conservatorio sobre inteligencia artificial y su impacto en la sociedad”, organizado a través de la entidad Red.es, el secretario de Estado para la Sociedad de la Información y la Agenda Digital, José María Lassalle, ha advertido del problema de que la automatización de funciones, cada vez más habitual en la sociedad, pueda exacerbar las discriminaciones sociales de la vida real si no se aplica ni desarrolla correctamente.
La inteligencia artificial que permite agilizar procesos y establecer modelos de comportamiento social y predicciones de forma automática con el análisis de ingentes cantidades de datos tiene enormes ventajas pero un uso erróneo podría perpetuar “desequilibrios, discriminaciones, exclusiones, intolerancias”, ha añadido.
En la jornada han participado responsables de instituciones científicas, empresas, universidades y organizaciones no gubernamentales, entre otras entidades, para debatir conjuntamente sobre cómo impulsar esta prometedora tecnología que es la inteligencia artificial sin fomentar las desigualdades sociales.
Una abultada representación del comité de expertos que elabora el libro sobre inteligencia artificial en este país y que estará listo previsiblemente en torno al verano, según sus responsables, ha intervenido también en este encuentro.
Nuria Oliver, directora de investigación en ciencias del dato en Vodafone y jefa de datos científicos en Data-Pop Alliance, además de miembro de diversas asociaciones de inteligencia artificial, ha destacado la progresiva implementación de decisiones automatizadas mediante inteligencia artificial por parte de todo tipo de entidades.
La población debe entender los algoritmos
La población tiene que poder interpretar los algoritmos que determinan esas decisiones automatizadas por parte de las empresas cuando tengan gran impacto en su vida. Por ejemplo, los que pronostican si alguien es supuestamente apto para un crédito de acuerdo a los requisitos de un banco o para el acceso a una universidad, y saber si esas entidades podrían estar usando sus sistemas de valoración de forma discriminatoria o no.
Un problema que existe es el sesgo o trato dispar que pueden acabar recibiendo ciertos grupos o colectivos e incluso discriminatorio por una mala aplicación de la tecnología, añade Lorena Jaume Palasí, cofundadora de la organización no gubernamental Algorith Watch, y miembro del Consejo de Expertos de la Fundación Cotec sobre innovación.
Las propias bases de datos con las que se elaboran los algoritmos no siempre tienen el tamaño suficiente para permitir predicciones y patrones de comportamiento del individuo con fiabilidad suficiente y la tecnología replica automáticamente los errores. Incluso puede haber sesgos desde la toma misma del dato y en el desarrollo del algoritmo o de la posterior arquitectura de decisiones.
Las máquinas no siempre interpretan los matices de los datos en el contexto correcto, y eso puede provocar discriminaciones raciales, de género o de cualquier otro tipo en los modelos de predicciones que se establezcan, añade la experta.
Ramón López de Mántaras, director de Inteligencia Artificial del CSIC y pionero de esta materia en España, ha asegurado que la inteligencia artificial o la capacidad de las máquinas para hacer determinadas tareas de forma excelente está lejísimos de ser como la humana.
La inteligencia artificial es extraordinariamente competente en ciertas funciones, incluso mejor que un humano por ejemplo en el diagnóstico médico bajo determinadas circunstancias pero desde el punto de vista cognitivo las máquinas “no entienden nada”, ni pueden realizar con excelencia varias tareas a la vez como un humano, ha subrayado.
Ha recordado que la inteligencia artificial es una disciplina en la que se trabaja desde hace mucho tiempo, aunque una serie de ingredientes en los últimos años como la generalización de internet, la posibilidad de acceso a ingentes cantidades de datos, el abaratamiento del uso de tecnologías con altas prestaciones y una mejora de los algoritmos han provocado este “boom” en su implementación.EFE
Fuente
Compartir esto: