¿Qué es un algoritmo? Es una palabra de moda, pero a muchos todavía nos cuesta comprender su significado.
El diccionario de la Real Academia Española lo define como “un conjunto ordenado y finito de operaciones que permite hallar la solución de un problema”.
Pero en la sociedad contemporánea, los algoritmos han adquirido un rol cada vez más central, haciendo que algunos los definan como una suerte de mano invisible que toma decisiones por nosotros.
“Todo lo que la gente hace y ve en la web es producto de algoritmos”, explican en un informe expertos del centro independiente de investigación Pew Research Center, con sede en Washington, Estados Unidos.
En otras palabras, son el mecanismo oculto responsable de lo que vemos en el muro Facebook, las sugerencias que nos muestra Netflix o los resultados que aparecen cuando introducimos una palabra en el buscador de Google.
Y, a veces, pueden incluso ser los responsables de que seamos seleccionados o rechazados para un trabajo, recibamos un préstamo o incluso se caiga la bolsa de Wall Street.
Falta de transparencia
Por todas esas razones cada vez preocupa más que los algoritmos usados por los gigantes tecnológicos no sean siempre justos en las decisiones que toman. Y los errores en los sistemas de reconocimiento facial son un ejemplo de ello.
Pero además, a menudo los algoritmos operan dentro de lo que se conoce como “cajas negras”, lo que significa que ni siquiera sus dueños pueden ver cómo están tomando esas decisiones.
Por eso algunas compañías tecnológicas, como IBM, están buscando soluciones a ese problema.
El gigante estadounidense acaba de presentar un nuevo servicio de software que “detecta automáticamente los sesgos (de los algoritmos) y proporciona la explicación sobre las decisiones que toma la inteligencia artificial”, se lee en un comunicado publicado este miércoles.
La idea es que con el Fairness 360 Kit sus clientes puedan observar en tiempo real -a través de un panel visual- cómo los algoritmos toman decisiones y qué factores usan para hacer recomendaciones al final del proceso.
“Estamos facilitando a las empresas que utilizan la inteligencia artificial una mayor transparencia y control paraafrontar el riesgo potencial de una toma de decisiones errónea”, explicó Beth Smith, directora general de Watson AI, el sistema de inteligencia artificial de IBM.
Microsoft es otra de las compañías que está trabajando en el tema.
La multinacional anunció en mayo, durante su conferencia anual de desarrolladores, que está trabajando en una herramienta para detectar sesgos en sus algoritmos.
“Por supuesto, no podemos esperar la perfección, siempre habrá algún sesgo no detectado o que no se puede eliminar, el objetivo es hacer todo lo que podamos”, dijo Rich Caruna, un investigador senior de la compañía.
Facebook, perjudicada tras el escándalo de Cambridge Analytica en abril, también declaró que está probando una herramienta para determinar si su algoritmo genera errores.
Y lo mismo se aplica a Google, que la semana pasada lanzó un sistema para explicar a sus usuarios cómo funcionan sus modelos de aprendizaje automático.
Pero, ¿cómo llegamos a este punto?
Un problema de diversidad
La dependencia en aprendizaje automático y los algoritmos ha hecho que el problema de los sesgos sea cada vez más importante para la comunidad vinculada a iniciativas de Inteligencia Artificial.
“Y parte del problema es que las bases de datos empleadas para ‘entrenar’ a los algoritmos no siempre es lo suficientemente diversa“, explica la reportera de tecnología de la BBC Zoe Kleinman.
Joy Buolamwini, por ejemplo, fundó la Liga de la Justicia Algorítmica mientras cursaba estudios de postgrado en el MIT en 2016, luego de descubrir que un sistema de reconocimiento facial solo notaba su rostro si lo cubría con una máscara blanca.
Y un año antes Google tuvo que disculparse cuando su algoritmo de clasificación de fotos confundió imágenes de personas negras con gorilas.
Por eso hay un debate creciente sobre la ética de la inteligencia artificial, dice Kay Firth-Butterfield, quien encabeza el programa de inteligencia artificial y aprendizaje automático en el Foro Económico Mundial,.
“Como abogada, algunas de las preguntas sobre cómo averiguamos qué hizo que un algoritmo funcionara mal me parecen muy interesantes”, declaró Firth-Butterfield en una entrevista reciente con el canal de televisión estadounidense CNBC.
“Cuando hablamos sobre sesgos, nos preocupa sobre todo la visión de quienes crearon los algoritmos, y son sobre todo hombres jóvenes y blancos, por eso necesitamos hacer que la industria sea mucho más diversa en Occidente”, añadió.
Necesidad de protección
Esos sesgos también pueden afectar a decisiones como el seguro médico, la escolaridad o el registro criminal, a medida que las decisiones gubernamentales se vuelven más automatizadas.
Y por eso AI Now -un instituto de investigación que estudia las implicaciones sociales de la inteligencia artificial- sostiene en un reporte reciente que es vital que las agencias gubernamentales dejen de usar algoritmos “de caja negra”.
“Los ciudadanos deberían saber cómo se toman las decisiones“, dijo Kate Crawford, exinvestigadora en Microsoft y fundadora de AI Now.
“Son sistemas complejos, y se espera que sean todavía más complejos a medida que las tecnologías de aprendizaje automático se hacen más accesibles para las empresas”, reconoció.
Pero es precisamente por eso que “deberíamos tener procesos de protección equivalentes para decisiones algorítmicas que para decisiones humanas”, sostiene la fundadora de AI Now.
We use cookies on our website to give you the most relevant experience by remembering your preferences and repeat visits. By clicking “Accept All”, you consent to the use of ALL the cookies. However, you may visit "Cookie Settings" to provide a controlled consent.
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. These cookies ensure basic functionalities and security features of the website, anonymously.
Cookie
Duración
Descripción
cookielawinfo-checkbox-analytics
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Analytics".
cookielawinfo-checkbox-functional
11 months
The cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Functional".
cookielawinfo-checkbox-necessary
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookies is used to store the user consent for the cookies in the category "Necessary".
cookielawinfo-checkbox-others
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Other.
cookielawinfo-checkbox-performance
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Performance".
viewed_cookie_policy
11 months
The cookie is set by the GDPR Cookie Consent plugin and is used to store whether or not user has consented to the use of cookies. It does not store any personal data.
Functional cookies help to perform certain functionalities like sharing the content of the website on social media platforms, collect feedbacks, and other third-party features.
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.
Advertisement cookies are used to provide visitors with relevant ads and marketing campaigns. These cookies track visitors across websites and collect information to provide customized ads.
¿Qué es un algoritmo? Es una palabra de moda, pero a muchos todavía nos cuesta comprender su significado.
El diccionario de la Real Academia Española lo define como “un conjunto ordenado y finito de operaciones que permite hallar la solución de un problema”.
Pero en la sociedad contemporánea, los algoritmos han adquirido un rol cada vez más central, haciendo que algunos los definan como una suerte de mano invisible que toma decisiones por nosotros.
“Todo lo que la gente hace y ve en la web es producto de algoritmos”, explican en un informe expertos del centro independiente de investigación Pew Research Center, con sede en Washington, Estados Unidos.
En otras palabras, son el mecanismo oculto responsable de lo que vemos en el muro Facebook, las sugerencias que nos muestra Netflix o los resultados que aparecen cuando introducimos una palabra en el buscador de Google.
Y, a veces, pueden incluso ser los responsables de que seamos seleccionados o rechazados para un trabajo, recibamos un préstamo o incluso se caiga la bolsa de Wall Street.
Falta de transparencia
Por todas esas razones cada vez preocupa más que los algoritmos usados por los gigantes tecnológicos no sean siempre justos en las decisiones que toman. Y los errores en los sistemas de reconocimiento facial son un ejemplo de ello.
Pero además, a menudo los algoritmos operan dentro de lo que se conoce como “cajas negras”, lo que significa que ni siquiera sus dueños pueden ver cómo están tomando esas decisiones.
Por eso algunas compañías tecnológicas, como IBM, están buscando soluciones a ese problema.
El gigante estadounidense acaba de presentar un nuevo servicio de software que “detecta automáticamente los sesgos (de los algoritmos) y proporciona la explicación sobre las decisiones que toma la inteligencia artificial”, se lee en un comunicado publicado este miércoles.
La idea es que con el Fairness 360 Kit sus clientes puedan observar en tiempo real -a través de un panel visual- cómo los algoritmos toman decisiones y qué factores usan para hacer recomendaciones al final del proceso.
“Estamos facilitando a las empresas que utilizan la inteligencia artificial una mayor transparencia y control paraafrontar el riesgo potencial de una toma de decisiones errónea”, explicó Beth Smith, directora general de Watson AI, el sistema de inteligencia artificial de IBM.
Microsoft es otra de las compañías que está trabajando en el tema.
La multinacional anunció en mayo, durante su conferencia anual de desarrolladores, que está trabajando en una herramienta para detectar sesgos en sus algoritmos.
“Por supuesto, no podemos esperar la perfección, siempre habrá algún sesgo no detectado o que no se puede eliminar, el objetivo es hacer todo lo que podamos”, dijo Rich Caruna, un investigador senior de la compañía.
Facebook, perjudicada tras el escándalo de Cambridge Analytica en abril, también declaró que está probando una herramienta para determinar si su algoritmo genera errores.
Y lo mismo se aplica a Google, que la semana pasada lanzó un sistema para explicar a sus usuarios cómo funcionan sus modelos de aprendizaje automático.
Pero, ¿cómo llegamos a este punto?
Un problema de diversidad
La dependencia en aprendizaje automático y los algoritmos ha hecho que el problema de los sesgos sea cada vez más importante para la comunidad vinculada a iniciativas de Inteligencia Artificial.
“Y parte del problema es que las bases de datos empleadas para ‘entrenar’ a los algoritmos no siempre es lo suficientemente diversa“, explica la reportera de tecnología de la BBC Zoe Kleinman.
Joy Buolamwini, por ejemplo, fundó la Liga de la Justicia Algorítmica mientras cursaba estudios de postgrado en el MIT en 2016, luego de descubrir que un sistema de reconocimiento facial solo notaba su rostro si lo cubría con una máscara blanca.
Y un año antes Google tuvo que disculparse cuando su algoritmo de clasificación de fotos confundió imágenes de personas negras con gorilas.
Por eso hay un debate creciente sobre la ética de la inteligencia artificial, dice Kay Firth-Butterfield, quien encabeza el programa de inteligencia artificial y aprendizaje automático en el Foro Económico Mundial,.
“Como abogada, algunas de las preguntas sobre cómo averiguamos qué hizo que un algoritmo funcionara mal me parecen muy interesantes”, declaró Firth-Butterfield en una entrevista reciente con el canal de televisión estadounidense CNBC.
“Cuando hablamos sobre sesgos, nos preocupa sobre todo la visión de quienes crearon los algoritmos, y son sobre todo hombres jóvenes y blancos, por eso necesitamos hacer que la industria sea mucho más diversa en Occidente”, añadió.
Necesidad de protección
Esos sesgos también pueden afectar a decisiones como el seguro médico, la escolaridad o el registro criminal, a medida que las decisiones gubernamentales se vuelven más automatizadas.
Y por eso AI Now -un instituto de investigación que estudia las implicaciones sociales de la inteligencia artificial- sostiene en un reporte reciente que es vital que las agencias gubernamentales dejen de usar algoritmos “de caja negra”.
“Los ciudadanos deberían saber cómo se toman las decisiones“, dijo Kate Crawford, exinvestigadora en Microsoft y fundadora de AI Now.
“Son sistemas complejos, y se espera que sean todavía más complejos a medida que las tecnologías de aprendizaje automático se hacen más accesibles para las empresas”, reconoció.
Pero es precisamente por eso que “deberíamos tener procesos de protección equivalentes para decisiones algorítmicas que para decisiones humanas”, sostiene la fundadora de AI Now.
Compartir esto: