Por Sara Morrison
Cuando le digo a la gente que escribo sobre la privacidad de los datos, suelo recibir algo parecido a estas dos respuestas:
“¿Me está escuchando Facebook? Tengo un anuncio de comida para loros, y la única explicación posible es que Facebook escuchó a mi amigo hablarme de su nuevo loro mascota, porque mencionó exactamente esa marca, de la que nunca había oído hablar”.
(No, Facebook no lo hace.)
Esta es la otra:
“Seguro que eso es importante para alguien, pero yo no tengo nada que ocultar. ¿Por qué debería preocuparme por la privacidad de los datos?”.
Todos los días se recopilan toneladas de datos personales y granulares sobre nosotros a través de nuestros teléfonos, ordenadores, coches, casas, televisores, altavoces inteligentes… cualquier cosa que esté conectada a Internet, básicamente, así como cosas que no lo están, como las compras con tarjeta de crédito e incluso la información de tu carné de conducir. No tenemos mucho control sobre gran parte de esta recopilación de datos, y a menudo no nos damos cuenta de cuándo o cómo se utilizan. Eso incluye cómo se puede utilizar para influir en nosotros.
Tal vez sea en forma de un anuncio para comprar comida para loros. Pero también puede tomar la forma de una recomendación para ver un video de YouTube sobre cómo los líderes mundiales globalistas y las estrellas de Hollywood están dirigiendo una red de pedofilia que solo el presidente Trump puede detener.
“Las plataformas de Internet como YouTube utilizan IA que ofrece recomendaciones personalizadas basadas en miles de puntos de datos que recopilan sobre nosotros”, dijo a Recode Brandi Geurkink, una activista senior de la Fundación Mozilla que está investigando el motor de recomendación de YouTube.
Entre esos datos se encuentra tu comportamiento en otros productos de la empresa matriz de YouTube, Google, como tus hábitos de navegación en Chrome. Y también tu comportamiento en el propio YouTube: por dónde te desplazas en una página, en qué vídeos haces clic, qué hay en esos vídeos, qué cantidad de ellos ves. Todo esto se registra y se utiliza para hacer recomendaciones cada vez más personalizadas, que pueden ser servidas a través de la reproducción automática (activada por defecto) antes de que puedas hacer clic.
Y añadió: “Esta IA está optimizada para mantenerte en la plataforma, de modo que sigas viendo anuncios y YouTube siga ganando dinero. No está diseñada para optimizar tu bienestar o “satisfacción”, a pesar de lo que afirma YouTube. Como resultado, la investigación ha demostrado cómo este sistema puede dar a la gente su propia experiencia privada y adictiva que puede llenarse fácilmente de teorías conspirativas, desinformación sobre la salud y desinformación política.”
El daño en el mundo real que esto puede causar quedó bastante claro el 6 de enero, cuando cientos de personas irrumpieron en el edificio del Capitolio para intentar anular la certificación de unas elecciones de las que estaban convencidos, sin fundamento, que había ganado Trump. Este engaño masivo fue alimentado por sitios web que, según han demostrado las investigaciones, promueven y amplifican las teorías conspirativas y la información errónea electoral.
“Los sistemas de amplificación y recomendación algorítmica que emplean las plataformas difunden contenidos evocadores (de emociones) por encima de los verdaderos”, dijo la diputada Anna Eshoo (D-CA) en una declaración reciente. “El horrible daño a nuestra democracia causado el 6 de enero demostró cómo estas plataformas de medios sociales jugaron un papel en la radicalización y envalentonamiento de los terroristas para atacar nuestro Capitolio. Estas empresas estadounidenses deben replantearse fundamentalmente los sistemas algorítmicos que están en desacuerdo con la democracia.”
Durante años, Facebook, Twitter, YouTube y otras plataformas han ofrecido a sus usuarios los contenidos que sus algoritmos les dicen que querrán ver, basándose en los datos que tienen sobre sus usuarios. Los vídeos que ves, las publicaciones de Facebook y las personas con las que interactúas, los tuits a los que respondes, tu ubicación… todo ello ayuda a construir un perfil tuyo, que los algoritmos de estas plataformas utilizan para ofrecerte aún más vídeos, publicaciones y tuits con los que interactuar, canales a los que suscribirte, grupos a los que unirte y temas que seguir. Tú no buscas ese contenido, sino que él te busca a ti.
Esto es bueno para los usuarios cuando les ayuda a encontrar contenidos inofensivos que ya les interesan, y para las plataformas porque esos usuarios pasan más tiempo en ellas. No es bueno para los usuarios que se radicalizan con contenidos dañinos, pero sigue siendo bueno para las plataformas porque esos usuarios pasan más tiempo en ellas. Es su modelo de negocio, ha sido muy rentable, y no tienen ningún deseo de cambiarlo, ni están obligados a hacerlo.
“Las plataformas digitales no deberían ser foros para sembrar el caos y difundir la desinformación”, dijo la senadora Amy Klobuchar (demócrata de Nueva York), frecuente crítica de las grandes tecnológicas. “Los estudios han demostrado cómo los algoritmos de las redes sociales empujan a los usuarios hacia contenidos polarizados, lo que permite a las empresas capitalizar la división. Si los datos personales se están utilizando para promover la división, los consumidores tienen derecho a saberlo.”
Pero ese derecho no es legal. No existe una ley federal de privacidad de datos, y las plataformas son notoriamente opacas sobre el funcionamiento de sus algoritmos de recomendación, incluso cuando se han vuelto cada vez más transparentes sobre los datos de los usuarios que recopilan y les han dado cierto control sobre ellos. Pero estas empresas también han luchado contra los intentos de detener el rastreo cuando no es en sus propios términos, o no han actuado sobre sus propias políticas que lo prohíben.
A lo largo de los años, los legisladores han presentado proyectos de ley que abordan los algoritmos de recomendación, ninguno de los cuales ha llegado a ninguna parte. El congresista Louis Gohmert (R-TX) intentó eliminar las protecciones de la Sección 230 a las empresas de medios sociales que utilizaban algoritmos para recomendar (o suprimir) contenidos con su “Ley de Disuasión de Algoritmos Sesgados“. Un grupo bipartidista de senadores presentó la “Ley de Transparencia de la Burbuja de Filtros“, que obligaría a las plataformas a dar a los usuarios “la opción de participar en una plataforma sin ser manipulados por algoritmos impulsados por datos específicos del usuario.” Por su parte, los Reps. Eshoo y Tom Malinowski (demócrata de Nueva Jersey) planean reintroducir su “Ley de protección de los estadounidenses contra algoritmos peligrosos”, que eliminaría las protecciones de la Sección 230 de las plataformas que amplifican el contenido odioso o extremista.
Por su parte, las plataformas han hecho esfuerzos para frenar algunos contenidos extremistas y la desinformación. Pero estos esfuerzos se producen después de años de permitirlos sin control -y de beneficiarse de ellos- y con resultados desiguales. Estas medidas también son reactivas y limitadas; no hacen nada para detener o frenar el desarrollo de teorías conspirativas o campañas de desinformación. Al parecer, los algoritmos no son tan buenos a la hora de eliminar los contenidos perjudiciales como de difundirlos. (Facebook y YouTube no respondieron a la solicitud de comentarios).
Es prácticamente imposible impedir que las empresas recopilen datos sobre ti: aunque no utilices sus servicios, siguen haciendo de las suyas. Pero al menos puedes limitar la forma en que los algoritmos los utilizan en tu contra. Twitter y Facebook te ofrecen opciones cronológicas inversas, en las que los tuits y las publicaciones de las personas a las que sigues aparecen en el orden en que se añaden, en lugar de dar prioridad al contenido y a las personas que creen que te interesan más. YouTube tiene un “modo incógnito” que, según dice, no utilizará tu historial de búsquedas y visualizaciones para recomendarte vídeos. También hay más navegadores privados para limitar la recogida de datos y evitar que los sitios te vinculen con tus visitas o datos anteriores. O simplemente puedes dejar de usar esos servicios por completo.
E incluso en los algoritmos, hay un espacio. El hecho de que una teoría de la conspiración o la desinformación se abran paso en tu línea de tiempo o en los vídeos sugeridos no significa que tengas que leer o ver, o que vayas a creerlos automática e inmediatamente si lo haces. Las conspiraciones pueden ser mucho más fáciles de encontrar (incluso cuando no las estabas buscando); tú sigues eligiendo si seguir o no el camino que te muestran. Pero ese camino no siempre es obvio. Puede que pienses que QAnon es estúpido, pero compartirás el contenido de #SaveTheChildren. Puede que no creas en QAnon, pero votarás a un congresista que sí lo haga. Puede que no caigas en la madriguera del conejo, pero tus amigos y familiares lo harán.
O puede que un algoritmo te recomiende algo equivocado cuando estés más desesperado y susceptible. ¿Nunca serás tan vulnerable? Facebook y YouTube conocen la respuesta mejor que tú, y están dispuestos a explotarla. Puede que tengas más que ocultar de lo que crees.
Por Sara Morrison
Cuando le digo a la gente que escribo sobre la privacidad de los datos, suelo recibir algo parecido a estas dos respuestas:
“¿Me está escuchando Facebook? Tengo un anuncio de comida para loros, y la única explicación posible es que Facebook escuchó a mi amigo hablarme de su nuevo loro mascota, porque mencionó exactamente esa marca, de la que nunca había oído hablar”.
(No, Facebook no lo hace.)
Esta es la otra:
“Seguro que eso es importante para alguien, pero yo no tengo nada que ocultar. ¿Por qué debería preocuparme por la privacidad de los datos?”.
Todos los días se recopilan toneladas de datos personales y granulares sobre nosotros a través de nuestros teléfonos, ordenadores, coches, casas, televisores, altavoces inteligentes… cualquier cosa que esté conectada a Internet, básicamente, así como cosas que no lo están, como las compras con tarjeta de crédito e incluso la información de tu carné de conducir. No tenemos mucho control sobre gran parte de esta recopilación de datos, y a menudo no nos damos cuenta de cuándo o cómo se utilizan. Eso incluye cómo se puede utilizar para influir en nosotros.
Tal vez sea en forma de un anuncio para comprar comida para loros. Pero también puede tomar la forma de una recomendación para ver un video de YouTube sobre cómo los líderes mundiales globalistas y las estrellas de Hollywood están dirigiendo una red de pedofilia que solo el presidente Trump puede detener.
“Las plataformas de Internet como YouTube utilizan IA que ofrece recomendaciones personalizadas basadas en miles de puntos de datos que recopilan sobre nosotros”, dijo a Recode Brandi Geurkink, una activista senior de la Fundación Mozilla que está investigando el motor de recomendación de YouTube.
Entre esos datos se encuentra tu comportamiento en otros productos de la empresa matriz de YouTube, Google, como tus hábitos de navegación en Chrome. Y también tu comportamiento en el propio YouTube: por dónde te desplazas en una página, en qué vídeos haces clic, qué hay en esos vídeos, qué cantidad de ellos ves. Todo esto se registra y se utiliza para hacer recomendaciones cada vez más personalizadas, que pueden ser servidas a través de la reproducción automática (activada por defecto) antes de que puedas hacer clic.
Y añadió: “Esta IA está optimizada para mantenerte en la plataforma, de modo que sigas viendo anuncios y YouTube siga ganando dinero. No está diseñada para optimizar tu bienestar o “satisfacción”, a pesar de lo que afirma YouTube. Como resultado, la investigación ha demostrado cómo este sistema puede dar a la gente su propia experiencia privada y adictiva que puede llenarse fácilmente de teorías conspirativas, desinformación sobre la salud y desinformación política.”
El daño en el mundo real que esto puede causar quedó bastante claro el 6 de enero, cuando cientos de personas irrumpieron en el edificio del Capitolio para intentar anular la certificación de unas elecciones de las que estaban convencidos, sin fundamento, que había ganado Trump. Este engaño masivo fue alimentado por sitios web que, según han demostrado las investigaciones, promueven y amplifican las teorías conspirativas y la información errónea electoral.
“Los sistemas de amplificación y recomendación algorítmica que emplean las plataformas difunden contenidos evocadores (de emociones) por encima de los verdaderos”, dijo la diputada Anna Eshoo (D-CA) en una declaración reciente. “El horrible daño a nuestra democracia causado el 6 de enero demostró cómo estas plataformas de medios sociales jugaron un papel en la radicalización y envalentonamiento de los terroristas para atacar nuestro Capitolio. Estas empresas estadounidenses deben replantearse fundamentalmente los sistemas algorítmicos que están en desacuerdo con la democracia.”
Durante años, Facebook, Twitter, YouTube y otras plataformas han ofrecido a sus usuarios los contenidos que sus algoritmos les dicen que querrán ver, basándose en los datos que tienen sobre sus usuarios. Los vídeos que ves, las publicaciones de Facebook y las personas con las que interactúas, los tuits a los que respondes, tu ubicación… todo ello ayuda a construir un perfil tuyo, que los algoritmos de estas plataformas utilizan para ofrecerte aún más vídeos, publicaciones y tuits con los que interactuar, canales a los que suscribirte, grupos a los que unirte y temas que seguir. Tú no buscas ese contenido, sino que él te busca a ti.
Esto es bueno para los usuarios cuando les ayuda a encontrar contenidos inofensivos que ya les interesan, y para las plataformas porque esos usuarios pasan más tiempo en ellas. No es bueno para los usuarios que se radicalizan con contenidos dañinos, pero sigue siendo bueno para las plataformas porque esos usuarios pasan más tiempo en ellas. Es su modelo de negocio, ha sido muy rentable, y no tienen ningún deseo de cambiarlo, ni están obligados a hacerlo.
“Las plataformas digitales no deberían ser foros para sembrar el caos y difundir la desinformación”, dijo la senadora Amy Klobuchar (demócrata de Nueva York), frecuente crítica de las grandes tecnológicas. “Los estudios han demostrado cómo los algoritmos de las redes sociales empujan a los usuarios hacia contenidos polarizados, lo que permite a las empresas capitalizar la división. Si los datos personales se están utilizando para promover la división, los consumidores tienen derecho a saberlo.”
Pero ese derecho no es legal. No existe una ley federal de privacidad de datos, y las plataformas son notoriamente opacas sobre el funcionamiento de sus algoritmos de recomendación, incluso cuando se han vuelto cada vez más transparentes sobre los datos de los usuarios que recopilan y les han dado cierto control sobre ellos. Pero estas empresas también han luchado contra los intentos de detener el rastreo cuando no es en sus propios términos, o no han actuado sobre sus propias políticas que lo prohíben.
A lo largo de los años, los legisladores han presentado proyectos de ley que abordan los algoritmos de recomendación, ninguno de los cuales ha llegado a ninguna parte. El congresista Louis Gohmert (R-TX) intentó eliminar las protecciones de la Sección 230 a las empresas de medios sociales que utilizaban algoritmos para recomendar (o suprimir) contenidos con su “Ley de Disuasión de Algoritmos Sesgados“. Un grupo bipartidista de senadores presentó la “Ley de Transparencia de la Burbuja de Filtros“, que obligaría a las plataformas a dar a los usuarios “la opción de participar en una plataforma sin ser manipulados por algoritmos impulsados por datos específicos del usuario.” Por su parte, los Reps. Eshoo y Tom Malinowski (demócrata de Nueva Jersey) planean reintroducir su “Ley de protección de los estadounidenses contra algoritmos peligrosos”, que eliminaría las protecciones de la Sección 230 de las plataformas que amplifican el contenido odioso o extremista.
Por su parte, las plataformas han hecho esfuerzos para frenar algunos contenidos extremistas y la desinformación. Pero estos esfuerzos se producen después de años de permitirlos sin control -y de beneficiarse de ellos- y con resultados desiguales. Estas medidas también son reactivas y limitadas; no hacen nada para detener o frenar el desarrollo de teorías conspirativas o campañas de desinformación. Al parecer, los algoritmos no son tan buenos a la hora de eliminar los contenidos perjudiciales como de difundirlos. (Facebook y YouTube no respondieron a la solicitud de comentarios).
Es prácticamente imposible impedir que las empresas recopilen datos sobre ti: aunque no utilices sus servicios, siguen haciendo de las suyas. Pero al menos puedes limitar la forma en que los algoritmos los utilizan en tu contra. Twitter y Facebook te ofrecen opciones cronológicas inversas, en las que los tuits y las publicaciones de las personas a las que sigues aparecen en el orden en que se añaden, en lugar de dar prioridad al contenido y a las personas que creen que te interesan más. YouTube tiene un “modo incógnito” que, según dice, no utilizará tu historial de búsquedas y visualizaciones para recomendarte vídeos. También hay más navegadores privados para limitar la recogida de datos y evitar que los sitios te vinculen con tus visitas o datos anteriores. O simplemente puedes dejar de usar esos servicios por completo.
E incluso en los algoritmos, hay un espacio. El hecho de que una teoría de la conspiración o la desinformación se abran paso en tu línea de tiempo o en los vídeos sugeridos no significa que tengas que leer o ver, o que vayas a creerlos automática e inmediatamente si lo haces. Las conspiraciones pueden ser mucho más fáciles de encontrar (incluso cuando no las estabas buscando); tú sigues eligiendo si seguir o no el camino que te muestran. Pero ese camino no siempre es obvio. Puede que pienses que QAnon es estúpido, pero compartirás el contenido de #SaveTheChildren. Puede que no creas en QAnon, pero votarás a un congresista que sí lo haga. Puede que no caigas en la madriguera del conejo, pero tus amigos y familiares lo harán.
O puede que un algoritmo te recomiende algo equivocado cuando estés más desesperado y susceptible. ¿Nunca serás tan vulnerable? Facebook y YouTube conocen la respuesta mejor que tú, y están dispuestos a explotarla. Puede que tengas más que ocultar de lo que crees.
Fuente: ReCode/Vox
Compartir esto: