Ya sentó Alan Turing las bases de lo que, hoy por hoy, conocemos por Big Data. Y es que los principios e hipótesis establecidos por este genio matemático y científico fueron la piedra angular del análisis predictivo en tiempo real.
No cayó en balde la reflexión de Turing: “En vez de intentar producir un programa que simule la mente adulta, ¿por qué no tratar de producir uno que simule la mente del niño? Si ésta se sometiera entonces a un curso educativo adecuado se obtendría el cerebro de adulto“. Nada más lejos de la realidad, es justo esa “educación” la que nos ha conducido hasta el Big Data.
En efecto, los orígenes de esta nueva técnica se remontan a la minería de datos (“data mining”), que tuvo como fundamento las ideas de este criptógrafo, y que consiste, tal y como indica INTECO, en “encontrar información útil o patrones dentro de aquellos grandes volúmenes de información donde en apariencia no existe nada útil“, dando lugar todo ello a un desarrollo tecnológico centrado en el análisis masivo de datos en tiempo real.
Esta nueva técnica desarrollada gracias a la evolución y desarrollo de los sistemas de información, nos han brindado la oportunidad de aplicar al “data mining” una velocidad de análisis, explotación y decisión sobre bases de datos que permite elaborar predicciones automatizadas sin que sea necesaria la intervención humana.
Dicha tecnología está permitiendo la detección, o mejor dicho la predicción de situaciones indeseadas que puedan ser constitutivas de delito. Por ejemplo, esta técnica puede utilizarse para la detección de fraude financiero, o de actos criminales mediante el análisis de comportamientos anormales (e.g. análisis de imágenes, escuchas, etc.). Igualmente, puede utilizarse para la prevención de accidentes laborales mediante el vaticinio de fallos en sistemas automáticos o maquinaria industrial.
Sin embargo, del mismo modo que esta nueva técnica puede utilizarse en aras de proteger a la sociedad, el uso abusivo de la misma sin las debidas garantías puede dar un poder inmenso a quien maneje la información al poder controlar de manera más exhaustiva comportamientos, desplazamientos o actividades de los ciudadanos.
Para evitar cualquier injerencia sobre los afectados, debe implementarse varias recomendaciones que, en su mayoría, ya han sido propuestas por el Grupo del Artículo 29 en varias opiniones (ej. “Opinion 03/2013 on purpose limitation”).
En primer lugar, es necesario informar al usuario mediante una Política de Privacidad comprensible y suficientemente accesible que permita a los afectados conocer efectivamente el uso de sus datos personales para este fin.En caso contrario, el afectado puede perder el control sobre sus datos al carecer de información precisa y detallada sobre las finalidades del tratamiento.
Dentro de la información proporcionada al afectado, deberá facilitarse la posibilidad de corregir o actualizar sus datos personales. Ello se materializa a través de nuestra legislación con los denominados derechos ARCO. Además, en relación con la actualización de los datos personales, debería proporcionársele la posibilidad de portar sus datos personales a otros sistemas de información. De esta manera, los logros conseguidos por una empresa en relación con el Big Data redundarían en beneficio de los consumidores.
En segundo y último lugar, las implicaciones jurídicas del Big Datadependerán de si se ha llevado a cabo un proceso de disociación anterior o durante su tratamiento, siendo la mejor opción la implantación del proceso de anonimizado con anterioridad al tratamiento de los datos personales. En todo caso, el proceso de disociación debe ser irreversible.
En el supuesto de que no garantice la irreversibilidad del proceso, deberá llevarse a cabo un procedimiento de disociación de manera que los datos personales se encuentren parcialmente disociados (ej. mediante el empleo de códigos identificadores de pacientes que, recordemos, hacen identificable a las personas físicas). Como requisito adicional, si el proceso de disociación no es completo deberán implementarse sobre los datos personales las medidas de seguridad de al menos nivel básico y medio (art.81 del RLOPD).
Con independencia de lo propuesto anteriormente, debe tenerse en cuenta que nos encontramos ante el preludio del Big Data y que, en consecuencia, las garantías a implantar se irán estableciendo poco a poco en función de su desarrollo. Como diría Turing: “Sólo podemos ver poco del futuro, pero lo suficiente para darnos cuenta de que hay mucho que hacer“. En cualquier caso, cuando seamos realmente conscientes del porvenir del Big Data y sus efectos, tengamos en cuenta los derechos de los ciudadanos que puedan verse afectados.
Ya sentó Alan Turing las bases de lo que, hoy por hoy, conocemos por Big Data. Y es que los principios e hipótesis establecidos por este genio matemático y científico fueron la piedra angular del análisis predictivo en tiempo real.
No cayó en balde la reflexión de Turing: “En vez de intentar producir un programa que simule la mente adulta, ¿por qué no tratar de producir uno que simule la mente del niño? Si ésta se sometiera entonces a un curso educativo adecuado se obtendría el cerebro de adulto“. Nada más lejos de la realidad, es justo esa “educación” la que nos ha conducido hasta el Big Data.
En efecto, los orígenes de esta nueva técnica se remontan a la minería de datos (“data mining”), que tuvo como fundamento las ideas de este criptógrafo, y que consiste, tal y como indica INTECO, en “encontrar información útil o patrones dentro de aquellos grandes volúmenes de información donde en apariencia no existe nada útil“, dando lugar todo ello a un desarrollo tecnológico centrado en el análisis masivo de datos en tiempo real.
Esta nueva técnica desarrollada gracias a la evolución y desarrollo de los sistemas de información, nos han brindado la oportunidad de aplicar al “data mining” una velocidad de análisis, explotación y decisión sobre bases de datos que permite elaborar predicciones automatizadas sin que sea necesaria la intervención humana.
Dicha tecnología está permitiendo la detección, o mejor dicho la predicción de situaciones indeseadas que puedan ser constitutivas de delito. Por ejemplo, esta técnica puede utilizarse para la detección de fraude financiero, o de actos criminales mediante el análisis de comportamientos anormales (e.g. análisis de imágenes, escuchas, etc.). Igualmente, puede utilizarse para la prevención de accidentes laborales mediante el vaticinio de fallos en sistemas automáticos o maquinaria industrial.
Sin embargo, del mismo modo que esta nueva técnica puede utilizarse en aras de proteger a la sociedad, el uso abusivo de la misma sin las debidas garantías puede dar un poder inmenso a quien maneje la información al poder controlar de manera más exhaustiva comportamientos, desplazamientos o actividades de los ciudadanos.
Para evitar cualquier injerencia sobre los afectados, debe implementarse varias recomendaciones que, en su mayoría, ya han sido propuestas por el Grupo del Artículo 29 en varias opiniones (ej. “Opinion 03/2013 on purpose limitation”).
En primer lugar, es necesario informar al usuario mediante una Política de Privacidad comprensible y suficientemente accesible que permita a los afectados conocer efectivamente el uso de sus datos personales para este fin.En caso contrario, el afectado puede perder el control sobre sus datos al carecer de información precisa y detallada sobre las finalidades del tratamiento.
Dentro de la información proporcionada al afectado, deberá facilitarse la posibilidad de corregir o actualizar sus datos personales. Ello se materializa a través de nuestra legislación con los denominados derechos ARCO. Además, en relación con la actualización de los datos personales, debería proporcionársele la posibilidad de portar sus datos personales a otros sistemas de información. De esta manera, los logros conseguidos por una empresa en relación con el Big Data redundarían en beneficio de los consumidores.
En segundo y último lugar, las implicaciones jurídicas del Big Datadependerán de si se ha llevado a cabo un proceso de disociación anterior o durante su tratamiento, siendo la mejor opción la implantación del proceso de anonimizado con anterioridad al tratamiento de los datos personales. En todo caso, el proceso de disociación debe ser irreversible.
En el supuesto de que no garantice la irreversibilidad del proceso, deberá llevarse a cabo un procedimiento de disociación de manera que los datos personales se encuentren parcialmente disociados (ej. mediante el empleo de códigos identificadores de pacientes que, recordemos, hacen identificable a las personas físicas). Como requisito adicional, si el proceso de disociación no es completo deberán implementarse sobre los datos personales las medidas de seguridad de al menos nivel básico y medio (art.81 del RLOPD).
Con independencia de lo propuesto anteriormente, debe tenerse en cuenta que nos encontramos ante el preludio del Big Data y que, en consecuencia, las garantías a implantar se irán estableciendo poco a poco en función de su desarrollo. Como diría Turing: “Sólo podemos ver poco del futuro, pero lo suficiente para darnos cuenta de que hay mucho que hacer“. En cualquier caso, cuando seamos realmente conscientes del porvenir del Big Data y sus efectos, tengamos en cuenta los derechos de los ciudadanos que puedan verse afectados.
Compartir esto: