Puede que no sepas que el consenso general en la comunidad tecnológica es que Cambridge Analytica era casi con toda seguridad un artista de mierda. Oh, no me malinterpreten, lo que intentaron hacer, y/o afirmaron hacer, fue súper turbio y amoral y habría sido ruinoso para una democracia razonable e informada si hubiera tenido éxito. Pero todavía no he encontrado a nadie creíble que piense que su enfoque “psicográfico” realmente funcione.
Es decir: aún no funciona.
Sin embargo, podemos dar las gracias a Cambridge Analytica, por haber levantado sin querer la bandera roja antes de que los verdaderos invasores estén en la puerta. Porque en esta era de saltos y crecimientos exponenciales continuos en la recolección de datos, que es también una era de avances revolucionarios y transformadores en la IA, es probablemente sólo cuestión de tiempo antes de que los electorados puedan ser manipulados sutilmente al por mayor.
No se fíe de mi palabra. Tomemos como ejemplo el caso del investigador senior de inteligencia artificial/aprendizaje profundo de Google François Chollet, en un hilo de Twitter verdaderamente notable:
Para simplificar la cuestión:
En resumen, Facebook puede medir simultáneamente todo sobre nosotros y controlar la información que consumimos. Cuando tienes acceso tanto a la percepción como a la acción, estás ante un problema de IA. Puedes empezar a establecer un bucle de optimización para el comportamiento humano… Un bucle en el que observas el estado actual de tus objetivos y sigues sintonizando la información que les das de comer, hasta que empiezas a observar las opiniones y comportamientos que querías ver… Una buena parte del campo de la investigación de la IA (especialmente los bits en los que Facebook ha estado invirtiendo) tiene que ver con el desarrollo de algoritmos para resolver estos problemas de optimización de la manera más eficiente posible.
¿Suena esto excesivamente paranoico? Entonces permítanme señalar su atención a otro hilo reciente de Twitter, en el que Jeremy Ashkenas enumera un conjunto de aplicaciones de patentes más distópicas de Facebook:
Una vez más, permítanme resumir lo más destacado:
un sistema que vigila los movimientos de los ojos […] registra información sobre las acciones que los usuarios realizan en un sistema de terceros, incluyendo el historial de visualización de páginas web, anuncios co los que interactuó, compras realizadas […] “Los conjuntos de datos de usuarios de confianza son utilizados como un conjunto de entrenamiento para entrenar un modelo de aprendizaje de máquina” […]”El sistema puede monitorear tales acciones en la red social en línea, en un sistema de terceros, en otros sistemas adecuados, o en cualquier combinación…” [..]”El sistema puede monitorear tales acciones en la red social en línea, en un sistema de terceros, en otros sistemas adecuados, o en cualquier combinación…]”.
¿Son citas fuera de contexto? ¡Seguro que lo son! Así que les animo a que exploren el contexto. Creo que descubrirás que, como dice Ashkenas, “estas solicitudes de patente no significan necesariamente que Facebook quiera usar ninguna de estas técnicas. En vez de eso, ilustran el tipo de posibilidades que la administración de Facebook imagina”.
Una explosión de datos. Una revolución en la IA, que utiliza los datos como su alma. ¿Cómo podría un ejecutivo de tecnología no imaginarse usar estos dramáticos desarrollos en formas nuevas e innovadoras? No quiero que me den una paliza en Facebook. Son un blanco especialmente fácil, pero no son los únicos peces en este barril:
Aquí hay otro hilo de Twitter relacionado con la privacidad, esta vez de Dylan Curran, que ilustra la cantidad de datos que Facebook y Google tienen sobre ti:
Pero parece justo decir que Google se toma los peligros inherentes y la responsabilidad implícita de toda esta recopilación de datos, y los servicios que proporciona con estos datos, mucho, mucho más en serio que Facebook. El enfoque de Facebook frente a posibles malversaciones ha sido… bueno… permítanme señalarles otro hilo de Twitter, este de Yonatan Zunger, ex-Ingeniero Distinguido de Google, quien creo que habla en nombre de todos nosotros aquí, mientras reacciona a los informes del Director Técnico de Facebook diciendo que “la empresa está ahora trazando las posibles amenazas de los malos actores antes de lanzar sus productos”.
Pero lo más importante es que el problema no se limita a Facebook, o Google, o las grandes empresas de tecnología. Es más agudo con ellos, ya que tienen más datos y más poder, y, en el caso de Facebook, muy poco sentido aparente de que con un gran poder viene una gran responsabilidad.
Pero el verdadero problema es mucho más fundamental. Cuando su modelo de negocio convierte datos en dinero, entonces usted está, implícitamente, involucrado en el capitalismo de vigilancia.
La vigilancia y la privacidad no se limitan a los negocios, por supuesto; considere las gafas de reconocimiento facial que ya están en uso por la policía china, o el colosal programa indio de Aadhaar impulsado por huellas dactilares y retina, o los intentos tenaces de los gobiernos del Reino Unido y Estados Unidos de usar su teléfono o su Alexa como dispositivo de vigilancia. Pero las corporaciones actualmente parecen ser el borde agudo y amoral de esta cuña en particular, y no tenemos un entendimiento real de cómo mitigar o eliminar los múltiples y crecientes peligros de su capitalismo de vigilancia.
No estoy diciendo que toda la recolección de datos es ipso facto mala; pero estoy diciendo que, dada la creciente cantidad de sensores y datos en nuestro mundo, y la capacidad de vincular esos datos a los individuos, cualquier iniciativa que apoye la privacidad, el seudónimo y el anonimato debe ser considerada deseable hasta que se demuestre lo contrario, dados los océanos cada vez más crecientes de datos cuyas mareas amenazan con arrasar esas islas solitarias.
No estoy diciendo que la IA sea mala. Su potencial para mejorar nuestro mundo es inmenso. Pero como toda herramienta poderosa, necesitamos empezar a pensar en cómo sus potenciales usos indebidos y efectos secundarios antes de apresurarnos a usarla a escala.
Y estoy diciendo que deberíamos estar casi agradecidos a Cambridge Analytica, por vender aceite de serpiente que afirmaba hacer lo que los medicamentos del mañana realmente harán. No exageremos con un pánico moral masivo. Demasiado tarde. Está bien, pero tratemos de aprovechar esta sensación de pánico para anticiparnos con calma y racionalidad a los peligros reales, antes de que lleguen.
Fuente
Puede que no sepas que el consenso general en la comunidad tecnológica es que Cambridge Analytica era casi con toda seguridad un artista de mierda. Oh, no me malinterpreten, lo que intentaron hacer, y/o afirmaron hacer, fue súper turbio y amoral y habría sido ruinoso para una democracia razonable e informada si hubiera tenido éxito. Pero todavía no he encontrado a nadie creíble que piense que su enfoque “psicográfico” realmente funcione.
Es decir: aún no funciona.
Sin embargo, podemos dar las gracias a Cambridge Analytica, por haber levantado sin querer la bandera roja antes de que los verdaderos invasores estén en la puerta. Porque en esta era de saltos y crecimientos exponenciales continuos en la recolección de datos, que es también una era de avances revolucionarios y transformadores en la IA, es probablemente sólo cuestión de tiempo antes de que los electorados puedan ser manipulados sutilmente al por mayor.
No se fíe de mi palabra. Tomemos como ejemplo el caso del investigador senior de inteligencia artificial/aprendizaje profundo de Google François Chollet, en un hilo de Twitter verdaderamente notable:
Para simplificar la cuestión:
¿Suena esto excesivamente paranoico? Entonces permítanme señalar su atención a otro hilo reciente de Twitter, en el que Jeremy Ashkenas enumera un conjunto de aplicaciones de patentes más distópicas de Facebook:
Una vez más, permítanme resumir lo más destacado:
¿Son citas fuera de contexto? ¡Seguro que lo son! Así que les animo a que exploren el contexto. Creo que descubrirás que, como dice Ashkenas, “estas solicitudes de patente no significan necesariamente que Facebook quiera usar ninguna de estas técnicas. En vez de eso, ilustran el tipo de posibilidades que la administración de Facebook imagina”.
Una explosión de datos. Una revolución en la IA, que utiliza los datos como su alma. ¿Cómo podría un ejecutivo de tecnología no imaginarse usar estos dramáticos desarrollos en formas nuevas e innovadoras? No quiero que me den una paliza en Facebook. Son un blanco especialmente fácil, pero no son los únicos peces en este barril:
Aquí hay otro hilo de Twitter relacionado con la privacidad, esta vez de Dylan Curran, que ilustra la cantidad de datos que Facebook y Google tienen sobre ti:
Pero parece justo decir que Google se toma los peligros inherentes y la responsabilidad implícita de toda esta recopilación de datos, y los servicios que proporciona con estos datos, mucho, mucho más en serio que Facebook. El enfoque de Facebook frente a posibles malversaciones ha sido… bueno… permítanme señalarles otro hilo de Twitter, este de Yonatan Zunger, ex-Ingeniero Distinguido de Google, quien creo que habla en nombre de todos nosotros aquí, mientras reacciona a los informes del Director Técnico de Facebook diciendo que “la empresa está ahora trazando las posibles amenazas de los malos actores antes de lanzar sus productos”.
Pero lo más importante es que el problema no se limita a Facebook, o Google, o las grandes empresas de tecnología. Es más agudo con ellos, ya que tienen más datos y más poder, y, en el caso de Facebook, muy poco sentido aparente de que con un gran poder viene una gran responsabilidad.
Pero el verdadero problema es mucho más fundamental. Cuando su modelo de negocio convierte datos en dinero, entonces usted está, implícitamente, involucrado en el capitalismo de vigilancia.
La vigilancia y la privacidad no se limitan a los negocios, por supuesto; considere las gafas de reconocimiento facial que ya están en uso por la policía china, o el colosal programa indio de Aadhaar impulsado por huellas dactilares y retina, o los intentos tenaces de los gobiernos del Reino Unido y Estados Unidos de usar su teléfono o su Alexa como dispositivo de vigilancia. Pero las corporaciones actualmente parecen ser el borde agudo y amoral de esta cuña en particular, y no tenemos un entendimiento real de cómo mitigar o eliminar los múltiples y crecientes peligros de su capitalismo de vigilancia.
No estoy diciendo que toda la recolección de datos es ipso facto mala; pero estoy diciendo que, dada la creciente cantidad de sensores y datos en nuestro mundo, y la capacidad de vincular esos datos a los individuos, cualquier iniciativa que apoye la privacidad, el seudónimo y el anonimato debe ser considerada deseable hasta que se demuestre lo contrario, dados los océanos cada vez más crecientes de datos cuyas mareas amenazan con arrasar esas islas solitarias.
No estoy diciendo que la IA sea mala. Su potencial para mejorar nuestro mundo es inmenso. Pero como toda herramienta poderosa, necesitamos empezar a pensar en cómo sus potenciales usos indebidos y efectos secundarios antes de apresurarnos a usarla a escala.
Y estoy diciendo que deberíamos estar casi agradecidos a Cambridge Analytica, por vender aceite de serpiente que afirmaba hacer lo que los medicamentos del mañana realmente harán. No exageremos con un pánico moral masivo. Demasiado tarde. Está bien, pero tratemos de aprovechar esta sensación de pánico para anticiparnos con calma y racionalidad a los peligros reales, antes de que lleguen.
Fuente
Compartir esto: