En esta era en la que buscamos automatizar todo para solucionar
nuestros problemas los algoritmos están a la orden del día. Existe uno
para casi todo y quienes los diseñan trabajan arduamente para
perfeccionarlos casi con frecuencia diaria, y aunque se venden como
altamente efectivos y minuciosamente estudiados, en realidad acarrean
una serie de errores humanos que nos hacen plantear la pregunta de si
son realmente confiables.
Como ejemplo, cabe destacar una historia reciente que inundó los portales noticiosos hace unos meses cuyo protagonista fue el algoritmo de Google Maps. Un día que parecía ser cualquiera, un centenar de conductores en Colorado tomaron un atajo recomendado por Google Maps al haber un accidente en la vía hacia el Aeropuerto Internacional de Denver, solo que no sabían que la vía sería prácticamente un pantano que terminó por dejar atrapados a la mayoría de los vehículos.
Cualquiera
podría preguntarse cómo es que esto pudo suceder si estamos hablando
del señor Google, pero la verdad es que ese ejemplo en el pantano de
Colorado dejó en evidencia la realidad de los algoritmos. A pesar de lo
precisos e infalibles que puedan parecer, los algoritmos son creados por
humanos, y, en consecuencia, pueden existir errores humanos, desde
malos cálculos, pasando por información errada y hasta por sesgos
culturales.
¿Algoritmos infalibles?
De vuelta al caso de Google Maps, la compañía reconoció
que se trató de un error de información del camino, pues no estaba
marcado como privado, dejando muy claro que su método no es perfecto ni
mucho menos infalible:
“Tomamos
muchos factores en cuenta para determinar las rutas, incluyendo el
tamaño del camino y lo directo de la ruta. Mientras que trabajamos para
proveer las mejores direcciones, pueden surgir algunos problemas por
imprevistos como el tiempo. Alentamos a los conductores a seguir las
leyes locales, mantenerse atentos y a usar su mejor criterio al
conducir”.
Esto sucede precisamente porque no siempre la información que los usuarios suben a Google Maps es exacta, en tanto que puede que te haya pasado que buscabas una dirección y el lugar no estaba ubicado en el mapa en el punto específico real, sino algunos metros más lejos. Y esto por mencionar un caso sencillo, pero hay otros casos en los que los errores humanos han llevado los algoritmos –y a sus empresas– al desastre.
Algoritmos sesgados, consecuencias catastróficas
Todos
recordamos los problemas por los que Facebook ha pasado en los últimos
tres años. Tan solo hablar de Cambridge Analytica es mencionar las dos
palabras que más han atormentado la mente de Mark Zuckerberg. No
obstante, hay otro aspecto que también fue todo un escándalo para la
compañía que fue alabada como la primera gran red social: los algoritmos
de recomendación de fake news.
En 2016, Donald Trump se alzó como
vencedor en las elecciones presidenciales de Estados Unidos frente a
Hillary Clinton. Aunque básicamente el mundo entero veía los resultados
con estupor y otros con total desconcierto, puede que Facebook haya
tenido que ver con ese triunfo del magnate.
El
auge de las fake news se dio durante esta voraz campaña política en la
que parecía que Estados Unidos se jugaba la moral de su país. Tanto
demócratas como republicanos se acusaban de ser más inmorales que los
otros, anteponiendo el discurso patriótico que Trump supo aprovechar con
su eslogan “Make America Great Again”. Lo que alimentó la campaña no
fueron las noticias ni las opiniones de expertos, sino los memes y
páginas de Facebook de grupos extremistas que se encargaron de destrozar
la imagen de Clinton y su combo, con informaciones falsas que
terminaron por comprar el voto del elector.
Una vez se descubrió
este serio problema, usuarios y expertos comenzaron a exigirle a
Facebook que atendiera el problema de la desinformación antes de que
fuera demasiado tarde, pero la historia que todos conocemos es que,
efectivamente, se hizo demasiado tarde para que Facebook frenara la
proliferación de fake news en su plataforma.
Tres años después,
Facebook aún no ha sido capaz de ponerle fin a las fake news en su
plataforma, a pesar de los aparentes esfuerzos por solucionarlo. ¿Qué ha
fallado? Dicho por los mismos empleados de la compañía en el documental
‘The Facebook Dilemma’, básicamente el problema se hizo tan grande que
no hay poder humano que pueda con él.
No hay suficientes empleados
que hagan frente a las fake news, no solo por las dimensiones del
problema, sino porque no se han logrado definir los parámetros de lo que
hace que una información sea falsa o una opinión. Y esto, en el país de
la “libertad de expresión”, es un verdadero problema.
Otras aristas del problema de las fake news: Infowars
Precisamente
el concepto de la libertad de expresión en un país como Estados Unidos
complica mucho la definición de parámetros y, por supuesto, la
fiabilidad de un algoritmo. Seguro recordarán el caso de Alex Jones e
Infowars durante 2018, un presentador extremista pro Trump, fanático de
las teorías conspirativas.
Al publicar videos en las redes de él comentando sobre temas de relevancia como los tiroteos masivos, comenzó por decir que la matanza de la preparatoria de Sandy Hook fue toda una mentira de los medios y que las víctimas habían sido actores pagados. Tras meses de denuncias de sus detractores, compañías como YouTube, Apple, Facebook y Twitter terminaron por expulsarlo de sus plataformas, no sin antes meses de permisividad y mano suave con este tipo de contenido.
En el caso de Facebook y Twitter,
eliminar a Alex Jones y a Infowars fue toda una faena, pues, expresado
por sus principales voceros, Jones y su colectivo conspiracionista no
estaban violando sus políticas de contenido, sino que estaba expresando
una opinión y ese era su derecho.
Terribles y peligrosas recomendaciones
Cerrado
el capítulo de Infowars, puede que los vigilantes del internet creían
ganada una batalla hasta que explotó el escándalo por las
recomendaciones sobre pedofilia y explotación infantil en YouTube. A
principios de 2019, un usuario en Reddit publicó
que el algoritmo de YouTube redirigía videos de niños con poca ropa a
ciertos usuarios, promoviendo la pedofilia y además lucrándose por ello.
Evidentemente
que el llamado de atención se tornó un problema mayor que llevó a
YouTube a reconsiderar la manera en la que trabajaban con su algoritmo
de recomendaciones. Sin embargo, las soluciones no eran tales, pues
consideraron que la mejor idea era eliminar todo el contenido infantil en lugar de hacer algo con respecto a los pedófilos.
Los
reportes sobre cómo funcionaba este algoritmo resultan algo difíciles
de leer, pero es una realidad que existe y que los algoritmos no están
resolviendo. Aunque problemas como este y el del contenido extremista es
sumamente serio y requiere de un estudio aparte, existen otros aspectos
sobre los algoritmos que se deben tomar en cuenta.
Algoritmos imprecisos
En el caso de los algoritmos para tecnologías de reconocimiento facial, se corre el riesgo de que esté construido sobre un sesgo cultural que bien puede ser racial o de orientación sexual. Tal ha sido el caso de Uber, cuyo escándalo se remonta a mediados del 2018, cuando salió la noticia de que su sistema de reconocimiento facial había bloqueado el acceso a un conductor transgénero por haber cambiado de sexo durante su última revisión. Además, también se pudo conocer que el algoritmo tampoco estaba diseñado para detectar a personas de pieles oscuras.
Así
lo denunció a principios de 2019 la congresista Alexandria
Ocasio-Cortez durante un evento en el que criticó a empresas como IBM
por desarrollar algoritmos de reconocimiento facial con sesgo racial que
facilitaban el reconocimiento de rostros blancos por encima de los de
color. Pero no solo prevalece la preferencia del color de la piel para
reconocer más rápido, sino también para crear perfiles delictivos
basándose en rostros de color, según declaró la congresista.
Socialist Rep. Alexandria Ocasio-Cortez (D-NY) claims that algorithms, which are driven by math, are racist pic.twitter.com/X2veVvAU1H
¿Y
qué sucede con los algoritmos que buscan diagnosticar enfermedades? IBM
ha estado trabajando especialmente en proyectos de inteligencia
artificial para la salud del futuro, por ejemplo, con esta inteligencia
artificial que promete detectar el cáncer de mama un año antes de su aparición al identificar patrones que coincidieran algunos aspectos malignos presentes en las biopsias.
Quizás
una de las mayores preocupaciones de los médicos y expertos en el área
científica es la precisión de estos algoritmos que predicen y
diagnostican enfermedades basándose en aspectos muy generales. Es un
conocimiento popular el que cada organismo es muy distinto, de ahí que
existan los médicos, quienes, analizando el caso con exámenes, pueden
llegar a un diagnóstico mucho más preciso.Facebook desarrolla entornos virtuales para entrenar sus tecnologías de IA y RA
¿Qué se necesita para que un algoritmo sea confiable?
No obstante, un grupo de investigadores de Australia creó la plataforma MATILDA
cuyas siglas en inglés significan “Melbourne Algorithm Test Instance
Library Data Analytics”, cuyo objetivo es recabar información sobre cada
algoritmo para identificar sus fortalezas y debilidades para recomendar
cuál algoritmo utilizar bajo un escenario determinado y por qué.
De
esta manera se puede ver su fiabilidad y factibilidad en un caso
específico una vez haya sido analizado para determinar su mejor uso.
Para que un algoritmo sea confiable se requiere que haya sido probado
antes de llevarlo a la acción y adelantarse lo más posible a potenciales
fallas y sus soluciones, no solo ponerlo en práctica y cruzar los dedos
para que funcione.
Ya hemos visto que los algoritmos, al ser
creados por humanos, pueden presentar serios problemas por información
incorrecta o por imprevistos. Es por ello que no es recomendable confiar
en ellos ciegamente y menos en casos tan delicados en los que vidas
humanas corren peligro.
¿Y tú, confías o confiarías en el poder de los algoritmos o consideras que hay que tratarlos con pinza?
We use cookies on our website to give you the most relevant experience by remembering your preferences and repeat visits. By clicking “Accept All”, you consent to the use of ALL the cookies. However, you may visit "Cookie Settings" to provide a controlled consent.
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. These cookies ensure basic functionalities and security features of the website, anonymously.
Cookie
Duración
Descripción
cookielawinfo-checkbox-analytics
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Analytics".
cookielawinfo-checkbox-functional
11 months
The cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Functional".
cookielawinfo-checkbox-necessary
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookies is used to store the user consent for the cookies in the category "Necessary".
cookielawinfo-checkbox-others
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Other.
cookielawinfo-checkbox-performance
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Performance".
viewed_cookie_policy
11 months
The cookie is set by the GDPR Cookie Consent plugin and is used to store whether or not user has consented to the use of cookies. It does not store any personal data.
Functional cookies help to perform certain functionalities like sharing the content of the website on social media platforms, collect feedbacks, and other third-party features.
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.
Advertisement cookies are used to provide visitors with relevant ads and marketing campaigns. These cookies track visitors across websites and collect information to provide customized ads.
En esta era en la que buscamos automatizar todo para solucionar nuestros problemas los algoritmos están a la orden del día. Existe uno para casi todo y quienes los diseñan trabajan arduamente para perfeccionarlos casi con frecuencia diaria, y aunque se venden como altamente efectivos y minuciosamente estudiados, en realidad acarrean una serie de errores humanos que nos hacen plantear la pregunta de si son realmente confiables.
Como ejemplo, cabe destacar una historia reciente que inundó los portales noticiosos hace unos meses cuyo protagonista fue el algoritmo de Google Maps. Un día que parecía ser cualquiera, un centenar de conductores en Colorado tomaron un atajo recomendado por Google Maps al haber un accidente en la vía hacia el Aeropuerto Internacional de Denver, solo que no sabían que la vía sería prácticamente un pantano que terminó por dejar atrapados a la mayoría de los vehículos.
Cualquiera podría preguntarse cómo es que esto pudo suceder si estamos hablando del señor Google, pero la verdad es que ese ejemplo en el pantano de Colorado dejó en evidencia la realidad de los algoritmos. A pesar de lo precisos e infalibles que puedan parecer, los algoritmos son creados por humanos, y, en consecuencia, pueden existir errores humanos, desde malos cálculos, pasando por información errada y hasta por sesgos culturales.
¿Algoritmos infalibles?
De vuelta al caso de Google Maps, la compañía reconoció que se trató de un error de información del camino, pues no estaba marcado como privado, dejando muy claro que su método no es perfecto ni mucho menos infalible:
Esto sucede precisamente porque no siempre la información que los usuarios suben a Google Maps es exacta, en tanto que puede que te haya pasado que buscabas una dirección y el lugar no estaba ubicado en el mapa en el punto específico real, sino algunos metros más lejos. Y esto por mencionar un caso sencillo, pero hay otros casos en los que los errores humanos han llevado los algoritmos –y a sus empresas– al desastre.
Algoritmos sesgados, consecuencias catastróficas
Todos recordamos los problemas por los que Facebook ha pasado en los últimos tres años. Tan solo hablar de Cambridge Analytica es mencionar las dos palabras que más han atormentado la mente de Mark Zuckerberg. No obstante, hay otro aspecto que también fue todo un escándalo para la compañía que fue alabada como la primera gran red social: los algoritmos de recomendación de fake news.
En 2016, Donald Trump se alzó como vencedor en las elecciones presidenciales de Estados Unidos frente a Hillary Clinton. Aunque básicamente el mundo entero veía los resultados con estupor y otros con total desconcierto, puede que Facebook haya tenido que ver con ese triunfo del magnate.
El auge de las fake news se dio durante esta voraz campaña política en la que parecía que Estados Unidos se jugaba la moral de su país. Tanto demócratas como republicanos se acusaban de ser más inmorales que los otros, anteponiendo el discurso patriótico que Trump supo aprovechar con su eslogan “Make America Great Again”. Lo que alimentó la campaña no fueron las noticias ni las opiniones de expertos, sino los memes y páginas de Facebook de grupos extremistas que se encargaron de destrozar la imagen de Clinton y su combo, con informaciones falsas que terminaron por comprar el voto del elector.
Una vez se descubrió este serio problema, usuarios y expertos comenzaron a exigirle a Facebook que atendiera el problema de la desinformación antes de que fuera demasiado tarde, pero la historia que todos conocemos es que, efectivamente, se hizo demasiado tarde para que Facebook frenara la proliferación de fake news en su plataforma.
Tres años después, Facebook aún no ha sido capaz de ponerle fin a las fake news en su plataforma, a pesar de los aparentes esfuerzos por solucionarlo. ¿Qué ha fallado? Dicho por los mismos empleados de la compañía en el documental ‘The Facebook Dilemma’, básicamente el problema se hizo tan grande que no hay poder humano que pueda con él.
No hay suficientes empleados que hagan frente a las fake news, no solo por las dimensiones del problema, sino porque no se han logrado definir los parámetros de lo que hace que una información sea falsa o una opinión. Y esto, en el país de la “libertad de expresión”, es un verdadero problema.
Otras aristas del problema de las fake news: Infowars
Precisamente el concepto de la libertad de expresión en un país como Estados Unidos complica mucho la definición de parámetros y, por supuesto, la fiabilidad de un algoritmo. Seguro recordarán el caso de Alex Jones e Infowars durante 2018, un presentador extremista pro Trump, fanático de las teorías conspirativas.
Al publicar videos en las redes de él comentando sobre temas de relevancia como los tiroteos masivos, comenzó por decir que la matanza de la preparatoria de Sandy Hook fue toda una mentira de los medios y que las víctimas habían sido actores pagados. Tras meses de denuncias de sus detractores, compañías como YouTube, Apple, Facebook y Twitter terminaron por expulsarlo de sus plataformas, no sin antes meses de permisividad y mano suave con este tipo de contenido.
En el caso de Facebook y Twitter, eliminar a Alex Jones y a Infowars fue toda una faena, pues, expresado por sus principales voceros, Jones y su colectivo conspiracionista no estaban violando sus políticas de contenido, sino que estaba expresando una opinión y ese era su derecho.
Terribles y peligrosas recomendaciones
Cerrado el capítulo de Infowars, puede que los vigilantes del internet creían ganada una batalla hasta que explotó el escándalo por las recomendaciones sobre pedofilia y explotación infantil en YouTube. A principios de 2019, un usuario en Reddit publicó que el algoritmo de YouTube redirigía videos de niños con poca ropa a ciertos usuarios, promoviendo la pedofilia y además lucrándose por ello.
Evidentemente que el llamado de atención se tornó un problema mayor que llevó a YouTube a reconsiderar la manera en la que trabajaban con su algoritmo de recomendaciones. Sin embargo, las soluciones no eran tales, pues consideraron que la mejor idea era eliminar todo el contenido infantil en lugar de hacer algo con respecto a los pedófilos.
Los reportes sobre cómo funcionaba este algoritmo resultan algo difíciles de leer, pero es una realidad que existe y que los algoritmos no están resolviendo. Aunque problemas como este y el del contenido extremista es sumamente serio y requiere de un estudio aparte, existen otros aspectos sobre los algoritmos que se deben tomar en cuenta.
Algoritmos imprecisos
En el caso de los algoritmos para tecnologías de reconocimiento facial, se corre el riesgo de que esté construido sobre un sesgo cultural que bien puede ser racial o de orientación sexual. Tal ha sido el caso de Uber, cuyo escándalo se remonta a mediados del 2018, cuando salió la noticia de que su sistema de reconocimiento facial había bloqueado el acceso a un conductor transgénero por haber cambiado de sexo durante su última revisión. Además, también se pudo conocer que el algoritmo tampoco estaba diseñado para detectar a personas de pieles oscuras.
Así lo denunció a principios de 2019 la congresista Alexandria Ocasio-Cortez durante un evento en el que criticó a empresas como IBM por desarrollar algoritmos de reconocimiento facial con sesgo racial que facilitaban el reconocimiento de rostros blancos por encima de los de color. Pero no solo prevalece la preferencia del color de la piel para reconocer más rápido, sino también para crear perfiles delictivos basándose en rostros de color, según declaró la congresista.
¿Y qué sucede con los algoritmos que buscan diagnosticar enfermedades? IBM ha estado trabajando especialmente en proyectos de inteligencia artificial para la salud del futuro, por ejemplo, con esta inteligencia artificial que promete detectar el cáncer de mama un año antes de su aparición al identificar patrones que coincidieran algunos aspectos malignos presentes en las biopsias.
Quizás una de las mayores preocupaciones de los médicos y expertos en el área científica es la precisión de estos algoritmos que predicen y diagnostican enfermedades basándose en aspectos muy generales. Es un conocimiento popular el que cada organismo es muy distinto, de ahí que existan los médicos, quienes, analizando el caso con exámenes, pueden llegar a un diagnóstico mucho más preciso.Facebook desarrolla entornos virtuales para entrenar sus tecnologías de IA y RA
¿Qué se necesita para que un algoritmo sea confiable?
No obstante, un grupo de investigadores de Australia creó la plataforma MATILDA cuyas siglas en inglés significan “Melbourne Algorithm Test Instance Library Data Analytics”, cuyo objetivo es recabar información sobre cada algoritmo para identificar sus fortalezas y debilidades para recomendar cuál algoritmo utilizar bajo un escenario determinado y por qué.
De esta manera se puede ver su fiabilidad y factibilidad en un caso específico una vez haya sido analizado para determinar su mejor uso. Para que un algoritmo sea confiable se requiere que haya sido probado antes de llevarlo a la acción y adelantarse lo más posible a potenciales fallas y sus soluciones, no solo ponerlo en práctica y cruzar los dedos para que funcione.
Ya hemos visto que los algoritmos, al ser creados por humanos, pueden presentar serios problemas por información incorrecta o por imprevistos. Es por ello que no es recomendable confiar en ellos ciegamente y menos en casos tan delicados en los que vidas humanas corren peligro.
¿Y tú, confías o confiarías en el poder de los algoritmos o consideras que hay que tratarlos con pinza?
Via
Compartir esto: