Por extraño que parezca, la sencilla frase “No soy un robot” puede
resultar extremadamente confusa para la inteligencia artificial.
Y
es que, cuando de computadoras se trata, detrás de la misma por lo
general está test del código Captcha -más tarde rebautizado como reCaptcha–
que funciona como una prueba de Turing inversa, haciendo que la máquina
sea la que distingue entre robots y humanos (y no al revés).
El
invento lleva casi dos décadas en el mercado y, aunque ha evolucionado a
lo largo de los años, la esencia de su desafío-respuesta sigue siendo
la misma.
Se basa en un algoritmo público que pide al usuario introducir correctamente un conjunto de caracteres en una imagen distorsionada.
Y, por el momento, las máquinas no son capaces de comprender esa secuencia de manera adecuada.
Detrás de la idea está el guatemalteco Luis von Ahn,
40, un informático y profesor de ciencias de la computación en la
Universidad Carnegie Mellon (Estados Unidos) quien le vendió su invento a
Google hace 10 años.
Von Ahn es todo un pionero. Fue uno de los primeros en apostar por el crowdsourcing
(la colaboración abierta, entre varias personas, para externalizar
tareas) y sus investigaciones le han valido varios premios
internacionales.
Cuando BBC Mundo lo entrevistó en 2011, Von Ahn
trabajaba para Google, y aunque decía que no le gustaba tener jefes
aseguraba que no le decían lo que tenía que hacer. “Puedo hacer lo que
quiera”, aseguró.
En ese momento, estaba a punto de desarrollar su siguiente proyecto, Duolingo,
con el que soñaba traducir todo el contenido de internet. Hoy es la app
educativa más descargada del mundo y ha superado los 200 millones de
usuarios.
Pero el desarrollo del Captcha es tal vez el más famoso y reconocido de los inventos de Luis von Ahn, y aunque ha sido blanco de algunas críticas, se sigue usando a lo largo y ancho de internet.
Los
“captchas”, como se les conoce popularmente, son usados por sitios web y
aplicaciones para evitar que los robots participen en las plataformas,
envíen correos basura o usan ciertos servicios.
¿Imposible de engañar?
Una
de las principales controversias pone en entredicho si el sistema es
completamente imposible de burlar por los bots (cuentas automatizadas;
es decir, máquinas).
Von Ahan actualizó su sistema Captcha (creado
en el 2000) por reCaptcha (2007), con el que mejoraba algunas
debilidades y hacía que la prueba consistiera en reconocer un texto mediante imágenes.
En 2009, le vendió los dos a Google.
ReCaptcha solucionaba el problema de la
digitalización de textos, pues las palabras resultan más difíciles de
reconocer para las máquinas si contienen letras deformes o “defectos” de impresión. Por eso es más confiable.
Sin
embargo, algunas implementaciones de los “captchas” han sido pobremente
implementadas, y algunos proyectos de investigación -como la de
Vicarious, una firma californiana de inteligencia artificial- aseguraron
que sus máquinas son capaces de burlar ciertos tipos de códigos Captcha
y reCaptcha.
Pero Google sigue actualizando su ReCaptcha para que sea más efectivo. De hecho, a finales de octubre anunció su tercera generación.
Nuevos parámetros
“ReCaptcha
v3 te ayuda a detectar tráfico abusivo en tu página web sin que el
usuario sufra fricciones. Ofrece una puntuación basada en interacciones
en tu sitio web y te da más flexibilidad para tomar las acciones
adecuadas”, se lee en el blog de Google.
“Si tienes una página
web, debes protegerte de los bots, que tratan de filtrar contraseñas,
publicar spam y eliminar tu contenido”, aseguran los desarrolladores,
que admiten que la casilla “No soy un robot” no vale en todos los casos.
También es probable que la nueva versión nos pida
que resolvamos problemas, aunque Google no dio mucha más información al
respecto.
Lo que sí sabemos es que las versiones 1 y 2 de
ReCaptcha analizaban el comportamiento de los usuarios en una sola
página web, mientras que la tercera observará también movimientos del
mouse e incluso tiempos entre clics.
Con esos parámetros, Google asignará puntuacionesa los visitantes de los sitios web de manera “invisible”.
Según le dijo a la BBC el especialista en ciberseguridad Simon Edwards cuando Vicarious lanzó su investigación (2017), no suelen verse ataques en Captcha, pero era necesaria una actualización.
“Esta tecnología lleva un tiempo usándose, se necesita una mejor versión de Captcha,” declaró el especialista.
El lado negativo, sin embargo, es que ese tipo de interacciones facilitan el Big Data y le dan (todavía) más información a Google sobre nuestros comportamientos en la red.
We use cookies on our website to give you the most relevant experience by remembering your preferences and repeat visits. By clicking “Accept All”, you consent to the use of ALL the cookies. However, you may visit "Cookie Settings" to provide a controlled consent.
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. These cookies ensure basic functionalities and security features of the website, anonymously.
Cookie
Duración
Descripción
cookielawinfo-checkbox-analytics
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Analytics".
cookielawinfo-checkbox-functional
11 months
The cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Functional".
cookielawinfo-checkbox-necessary
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookies is used to store the user consent for the cookies in the category "Necessary".
cookielawinfo-checkbox-others
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Other.
cookielawinfo-checkbox-performance
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Performance".
viewed_cookie_policy
11 months
The cookie is set by the GDPR Cookie Consent plugin and is used to store whether or not user has consented to the use of cookies. It does not store any personal data.
Functional cookies help to perform certain functionalities like sharing the content of the website on social media platforms, collect feedbacks, and other third-party features.
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.
Advertisement cookies are used to provide visitors with relevant ads and marketing campaigns. These cookies track visitors across websites and collect information to provide customized ads.
Por extraño que parezca, la sencilla frase “No soy un robot” puede resultar extremadamente confusa para la inteligencia artificial.
Y es que, cuando de computadoras se trata, detrás de la misma por lo general está test del código Captcha -más tarde rebautizado como reCaptcha– que funciona como una prueba de Turing inversa, haciendo que la máquina sea la que distingue entre robots y humanos (y no al revés).
El invento lleva casi dos décadas en el mercado y, aunque ha evolucionado a lo largo de los años, la esencia de su desafío-respuesta sigue siendo la misma.
Se basa en un algoritmo público que pide al usuario introducir correctamente un conjunto de caracteres en una imagen distorsionada.
Y, por el momento, las máquinas no son capaces de comprender esa secuencia de manera adecuada.
Detrás de la idea está el guatemalteco Luis von Ahn, 40, un informático y profesor de ciencias de la computación en la Universidad Carnegie Mellon (Estados Unidos) quien le vendió su invento a Google hace 10 años.
Von Ahn es todo un pionero. Fue uno de los primeros en apostar por el crowdsourcing (la colaboración abierta, entre varias personas, para externalizar tareas) y sus investigaciones le han valido varios premios internacionales.
Cuando BBC Mundo lo entrevistó en 2011, Von Ahn trabajaba para Google, y aunque decía que no le gustaba tener jefes aseguraba que no le decían lo que tenía que hacer. “Puedo hacer lo que quiera”, aseguró.
En ese momento, estaba a punto de desarrollar su siguiente proyecto, Duolingo, con el que soñaba traducir todo el contenido de internet. Hoy es la app educativa más descargada del mundo y ha superado los 200 millones de usuarios.
Pero el desarrollo del Captcha es tal vez el más famoso y reconocido de los inventos de Luis von Ahn, y aunque ha sido blanco de algunas críticas, se sigue usando a lo largo y ancho de internet.
Los “captchas”, como se les conoce popularmente, son usados por sitios web y aplicaciones para evitar que los robots participen en las plataformas, envíen correos basura o usan ciertos servicios.
¿Imposible de engañar?
Una de las principales controversias pone en entredicho si el sistema es completamente imposible de burlar por los bots (cuentas automatizadas; es decir, máquinas).
Von Ahan actualizó su sistema Captcha (creado en el 2000) por reCaptcha (2007), con el que mejoraba algunas debilidades y hacía que la prueba consistiera en reconocer un texto mediante imágenes.
En 2009, le vendió los dos a Google.
ReCaptcha solucionaba el problema de la digitalización de textos, pues las palabras resultan más difíciles de reconocer para las máquinas si contienen letras deformes o “defectos” de impresión. Por eso es más confiable.
Sin embargo, algunas implementaciones de los “captchas” han sido pobremente implementadas, y algunos proyectos de investigación -como la de Vicarious, una firma californiana de inteligencia artificial- aseguraron que sus máquinas son capaces de burlar ciertos tipos de códigos Captcha y reCaptcha.
Pero Google sigue actualizando su ReCaptcha para que sea más efectivo. De hecho, a finales de octubre anunció su tercera generación.
Nuevos parámetros
“ReCaptcha v3 te ayuda a detectar tráfico abusivo en tu página web sin que el usuario sufra fricciones. Ofrece una puntuación basada en interacciones en tu sitio web y te da más flexibilidad para tomar las acciones adecuadas”, se lee en el blog de Google.
“Si tienes una página web, debes protegerte de los bots, que tratan de filtrar contraseñas, publicar spam y eliminar tu contenido”, aseguran los desarrolladores, que admiten que la casilla “No soy un robot” no vale en todos los casos.
También es probable que la nueva versión nos pida que resolvamos problemas, aunque Google no dio mucha más información al respecto.
Lo que sí sabemos es que las versiones 1 y 2 de ReCaptcha analizaban el comportamiento de los usuarios en una sola página web, mientras que la tercera observará también movimientos del mouse e incluso tiempos entre clics.
Con esos parámetros, Google asignará puntuacionesa los visitantes de los sitios web de manera “invisible”.
Según le dijo a la BBC el especialista en ciberseguridad Simon Edwards cuando Vicarious lanzó su investigación (2017), no suelen verse ataques en Captcha, pero era necesaria una actualización.
“Esta tecnología lleva un tiempo usándose, se necesita una mejor versión de Captcha,” declaró el especialista.
El lado negativo, sin embargo, es que ese tipo de interacciones facilitan el Big Data y le dan (todavía) más información a Google sobre nuestros comportamientos en la red.
Fuente
Compartir esto: