Hace ya unos años escribí en mi página un artículo titulado El verdadero debate sobre la privacidad no es el que piensas.
En él, explicaba lo ocurrido en Holanda en 1940.
El cómo la creación ese año de un censo que además de recopilar los datos habituales, incluía preferencias religiosas (algo que, recalco, el gobierno hizo para poder optimizar mejor los recursos económicos y por tanto destinar partidas más justas según los intereses reales de la ciudadanía) facilitó lamentablemente el trabajo de los nazis.
En muchas de mis charlas estos últimos años, de hecho, meto una diapositiva desgarradora:
El 90% de los judíos holandeses murieron en el Holocausto.
Sencilla y llanamente, cuando los nazis invadieron el país, ya tenían el trabajo hecho.
No porque el gobierno Holandés creara ese censo precisamente para eso (el fin era lógico y totalmente positivo). Sino porque el problema de la privacidad, el verdadero debate, son los usos tergiversados que de esa información se pueden llegar a sacar.
Volviendo a nuestros días, ha habido bastante debate últimamente a colación de dos noticias recientes:
Y en ambos casos sale a colación la importancia de proteger los sistemas de potenciales usos tergiversados, en especial, con el discurso del cifrado de punto a punto.
Ahora claro, explícale tú a tu madre qué es un cifrado de punto a punto, y más importante aún, por qué debería interesarle protegerlo y demandarlo.
Entendiendo la privacidad de la mano de los archivos fotográficos de nuestra cámara
Imaginemos que en vez de hablar de los chats que tenemos en servicios como WhatsApp, hablamos de las fotos que hemos sacado con una cámara digital.
Sobra decir que probablemente no nos interese, por privacidad, que un tercero pueda ver sin nuestro consentimiento las fotos (acceder al contenido de los chats de WhatsApp). Y eso se consigue, por ejemplo, cifrando ese documento (esa foto, ese chat de WhatsApp).
Ahora bien, ¿significa entonces que si el contenido va cifrado, estamos totalmente libres de posibles usos tergiversados?
Pues lamentablemente no.
Ese contenido (la foto en nuestra cámara, los chats en WhatsApp) está asociado a una serie de variables llamadas metadatos, que son precisamente las que permiten etiquetar correctamente ese contenido en servicios de terceros.
En el caso de una foto sacada con una cámara digital, al contenido en sí (lo que es la imagen) se le acompaña con lo que en el argot técnico se le llama los metadatos EXIF, que son un conjunto de información que, entre otras cosas, informa a cualquier otro sistema que lea estos datos de:
- Dónde se sacó la foto.
- Con qué tecnología (qué modelo de cámara es, qué lente utiliza…).
- Si fue o no retocada.
- A qué hora y día se sacó.
- Etc etc etc.
Un tercero que acceda a esos metadatos EXIF sin poder ver la foto, en efecto no sabrá qué contiene (quién sale en la foto), pero sí sabrá todo esto.
E iría aún más, ya que esta información, unida a toda la información de cada archivo de la cámara de fotos que tienes entre manos, permite a ese tercero, que recordemos que no puede ver ninguna de las fotos, sacar conjeturas tales como:
- Dónde vives (no es muy habitual que la gente saque más fotos lejos de su casa que cerca de ella).
- Qué rutinas tienes (puedes saber fácilmente a qué horas nunca sacas fotos, ergo estarás ocupado trabajando o durmiendo).
- Qué nivel socioeconómico tienes (en base a conocer la cámara o cámaras que utilizas).
- Etc etc etc.
Datos que claramente pueden servir para perfilar mucho más fino a un ciudadano. Pese a que, como decimos, no puedas ver su cara (el contenido de la foto no lo puedes leer) ni tan siquiera sepas su nombre.
Como siempre dejo claro, no importa el quién, sino el qué.
Y esto mismo, aplicado a un único usuario, aplícalo ahora a millones de usuarios en todo el mundo (todos los que utilizan cámaras digitales, todos los que chatean por WhatsApp).
De pronto, esa empresa que se vanagloria de que el contenido que comparten sus clientes en su plataforma va cifrado de punto a punto (no pueden leerlo), sí conoce, gracias a los metadatos de comunicación (lo que vienen a ser los datos EXIF pero de un chat de WhatsApp) ya no solo tus costumbres diarias, sino también, como conoce la del resto, puede perfilar hasta el detalle con quién te relacionas (quién es tu pareja, quién es tu mejor amigo…), dónde vives, a qué hora miras los chats y por tanto estás disponible, dónde trabajas….
Y todo esto tanto a nivel micro (usuarios específicos) como a nivel macro (países, ciudades…).
Que Facebook es una empresa que vive precisamente de analizar estos datos y revenderle impactos publicitarios basados en ese profiling a terceros. Su fin último, por tanto, es la publicidad.
Pero como ya se ha demostrado, el problema de una falta de privacidad no tiene que venir exclusivamente por la empresa que está detrás, sino también por los usos tergiversados que de ella se contemplen.
El caso de Cambridge Analytica, una empresa supuestamente de estadística con fines académicos, que años más tarde descubrimos que utilizaba la información de Facebook para ayudar a partidos políticos a ganar las elecciones, y que tuvo un impacto crítico en la subida al poder de movimientos populistas como el de Donald Trump en las elecciones norteamericanas o el Brexit en Reino Unido, es un fiel reflejo.
Eso y el qué pasará el día que Facebook, o Google, o Amazon tengan que vender esa información al mejor postor para hacer frente a unos inversionistas cabreados por las cuentas de resultados.
Qué será de nosotros cuando esa información, en vez de usarse para fines publicitarios, sea utilizada por ejemplo por un gobierno dictatorial y racista, o por un movimiento en contra de los derechos humanos.
De esto va la privacidad, y no de que simplemente «no quiero que lean mis mensajes».
Hace tiempo expliqué cómo el gobierno de EEUU gracias al software de la NSA literalmente MATABA a gente basándose en esos mismos metadatos de comunicación (dicho por ellos mismos, ojo) que hoy Facebook asegura que no son importantes.
En juego ya no solo están nuestros derechos como consumidores, sino también nuestros derechos como seres humanos.
Hacen falta muchísimas más garantías a la hora de tratar con datos de tinte personal. Y los metadatos de comunicación son, como hemos visto, datos personales con muchísimo valor informativo.
Hace ya unos años escribí en mi página un artículo titulado El verdadero debate sobre la privacidad no es el que piensas.
En él, explicaba lo ocurrido en Holanda en 1940.
En muchas de mis charlas estos últimos años, de hecho, meto una diapositiva desgarradora:
No porque el gobierno Holandés creara ese censo precisamente para eso (el fin era lógico y totalmente positivo). Sino porque el problema de la privacidad, el verdadero debate, son los usos tergiversados que de esa información se pueden llegar a sacar.
Volviendo a nuestros días, ha habido bastante debate últimamente a colación de dos noticias recientes:
Y en ambos casos sale a colación la importancia de proteger los sistemas de potenciales usos tergiversados, en especial, con el discurso del cifrado de punto a punto.
Ahora claro, explícale tú a tu madre qué es un cifrado de punto a punto, y más importante aún, por qué debería interesarle protegerlo y demandarlo.
Entendiendo la privacidad de la mano de los archivos fotográficos de nuestra cámara
Imaginemos que en vez de hablar de los chats que tenemos en servicios como WhatsApp, hablamos de las fotos que hemos sacado con una cámara digital.
Sobra decir que probablemente no nos interese, por privacidad, que un tercero pueda ver sin nuestro consentimiento las fotos (acceder al contenido de los chats de WhatsApp). Y eso se consigue, por ejemplo, cifrando ese documento (esa foto, ese chat de WhatsApp).
Ahora bien, ¿significa entonces que si el contenido va cifrado, estamos totalmente libres de posibles usos tergiversados?
Pues lamentablemente no.
Ese contenido (la foto en nuestra cámara, los chats en WhatsApp) está asociado a una serie de variables llamadas metadatos, que son precisamente las que permiten etiquetar correctamente ese contenido en servicios de terceros.
En el caso de una foto sacada con una cámara digital, al contenido en sí (lo que es la imagen) se le acompaña con lo que en el argot técnico se le llama los metadatos EXIF, que son un conjunto de información que, entre otras cosas, informa a cualquier otro sistema que lea estos datos de:
Un tercero que acceda a esos metadatos EXIF sin poder ver la foto, en efecto no sabrá qué contiene (quién sale en la foto), pero sí sabrá todo esto.
E iría aún más, ya que esta información, unida a toda la información de cada archivo de la cámara de fotos que tienes entre manos, permite a ese tercero, que recordemos que no puede ver ninguna de las fotos, sacar conjeturas tales como:
Datos que claramente pueden servir para perfilar mucho más fino a un ciudadano. Pese a que, como decimos, no puedas ver su cara (el contenido de la foto no lo puedes leer) ni tan siquiera sepas su nombre.
Como siempre dejo claro, no importa el quién, sino el qué.
Y esto mismo, aplicado a un único usuario, aplícalo ahora a millones de usuarios en todo el mundo (todos los que utilizan cámaras digitales, todos los que chatean por WhatsApp).
De pronto, esa empresa que se vanagloria de que el contenido que comparten sus clientes en su plataforma va cifrado de punto a punto (no pueden leerlo), sí conoce, gracias a los metadatos de comunicación (lo que vienen a ser los datos EXIF pero de un chat de WhatsApp) ya no solo tus costumbres diarias, sino también, como conoce la del resto, puede perfilar hasta el detalle con quién te relacionas (quién es tu pareja, quién es tu mejor amigo…), dónde vives, a qué hora miras los chats y por tanto estás disponible, dónde trabajas….
Y todo esto tanto a nivel micro (usuarios específicos) como a nivel macro (países, ciudades…).
Que Facebook es una empresa que vive precisamente de analizar estos datos y revenderle impactos publicitarios basados en ese profiling a terceros. Su fin último, por tanto, es la publicidad.
Pero como ya se ha demostrado, el problema de una falta de privacidad no tiene que venir exclusivamente por la empresa que está detrás, sino también por los usos tergiversados que de ella se contemplen.
El caso de Cambridge Analytica, una empresa supuestamente de estadística con fines académicos, que años más tarde descubrimos que utilizaba la información de Facebook para ayudar a partidos políticos a ganar las elecciones, y que tuvo un impacto crítico en la subida al poder de movimientos populistas como el de Donald Trump en las elecciones norteamericanas o el Brexit en Reino Unido, es un fiel reflejo.
Eso y el qué pasará el día que Facebook, o Google, o Amazon tengan que vender esa información al mejor postor para hacer frente a unos inversionistas cabreados por las cuentas de resultados.
Qué será de nosotros cuando esa información, en vez de usarse para fines publicitarios, sea utilizada por ejemplo por un gobierno dictatorial y racista, o por un movimiento en contra de los derechos humanos.
De esto va la privacidad, y no de que simplemente «no quiero que lean mis mensajes».
Hace tiempo expliqué cómo el gobierno de EEUU gracias al software de la NSA literalmente MATABA a gente basándose en esos mismos metadatos de comunicación (dicho por ellos mismos, ojo) que hoy Facebook asegura que no son importantes.
En juego ya no solo están nuestros derechos como consumidores, sino también nuestros derechos como seres humanos.
Hacen falta muchísimas más garantías a la hora de tratar con datos de tinte personal. Y los metadatos de comunicación son, como hemos visto, datos personales con muchísimo valor informativo.
Fuente: Cyberbrainers
Compartir esto: