Imagínate que vives en una ciudad inteligente que conoce tu rostro y sigue todos tus movimientos: los lugares a los que vas, la gente que ves y todas las cosas que haces en el camino.
Con el tiempo, la inteligencia artificial (IA) autónoma crea un perfil que informa sobre la probabilidad de que usted cometa un delito. Cuando el riesgo es alto, la policía toma medidas preventivas. Bienvenidos a la hiper-vigilancia y a la próxima generación de policía predictiva.
Tanto India como China están implementando actualmente este nivel de vigilancia para reducir los índices de criminalidad y detectar a los terroristas antes de que ataquen.
Japón también está estudiando sistemas de predicción antes de los Juegos Olímpicos de Tokio 2020. Londres y otras partes del Reino Unido han estado utilizando una tecnología similar durante algún tiempo.
Puede que ya esté ocurriendo en la ciudad donde vives.
Una vigilancia generalizada y en tiempo real como ésta es posible porque los ordenadores más potentes y con mayor número de funciones pueden procesar los torrentes de datos de reconocimiento facial y análisis de la marcha procedentes de miles de cámaras de vídeo, todas ellas coordinadas por una avanzada inteligencia artificial que puede dar sentido a todo ello.
No hace mucho tiempo, confiábamos en las patrullas policiales de ojos de águila para garantizar la seguridad pública. Eso fue cuando vivíamos en pequeñas comunidades donde la gente se conocía de vista.
Pero a medida que las ciudades continuaban creciendo, y se volvían demasiado grandes para el oficial de policía solo, la televisión de circuito cerrado (CCTV), el reconocimiento de rostros y los sistemas de predicción más temprana entraron en uso.
La moralidad de la hiper-vigilancia
Hay división de opiniones sobre la ética de la policía predictiva.
Los defensores de la privacidad y los defensores de las libertades civiles están preocupados, por este nivel de vigilancia, por temor a que se convierta en un instrumento de discriminación.
Mientras tanto, los defensores de la seguridad pública y la lucha contra el terrorismo sostienen que la tecnología predictiva tiene un gran potencial para frustrar los ataques terroristas y otras amenazas a la seguridad pública.
Ambos argumentos tienen fuerza y validez, por lo que la cuestión es: ¿dónde trazamos exactamente la línea entre el interés público y la libertad individual?
Con el tiempo, los viajeros llegaron a aceptar que la situación redundaba en su propio interés y en el de sus compañeros de viaje.
La privacidad comienza y termina en la puerta principal
Generalmente se acepta que usted tiene derecho a la privacidad en su propio hogar. Cuando usted cierra la puerta principal, puede esperar razonablemente que nadie esté mirando y escuchando.
La excepción es cuando usted está en casa pero participa en actividades criminales que amenazan a la comunidad. Aquí es donde trazamos la línea en este caso entre los derechos individuales y el bien común.
Pero cuando sales, cualquiera puede mirarte si quiere. También podrían escuchar por casualidad la conversación que usted está teniendo. No hay derecho a la privacidad de la mirada pública, y nunca lo ha habido.
Pero mirar es diferente a hacer predicciones – y la incómoda verdad es que la tecnología policial predictiva tiene el potencial de ser usada como una herramienta de opresión. Gestionar este riesgo en una sociedad abierta y democrática es sin duda un reto, pero no un reto insuperable con frenos y contrapesos.
Sopesar los riesgos y los beneficios
Dada la experiencia general de la policía predictiva, parece que hay razones de peso para seguir utilizándola.
En Australia, por ejemplo, se informó de que 15 atentados terroristas se habían frustrado en los últimos tres años gracias a la labor policial respaldada por algoritmos informáticos.
La pregunta es, ¿cómo minimizamos los riesgos a un nivel aceptable?
La respuesta corta es establecer un marco legal que garantice la transparencia ética en cualquier método de policía predictiva de inteligencia artificial, incluida la forma en que se combinan los algoritmos.
También garantizaría rigurosamente que los datos introducidos en los sistemas de predicción son exactos e imparciales. Como con cualquier sistema de computadora, la salida es sólo tan buena como la entrada – basura dentro, basura fuera, como dice el dicho.
Esto es necesario para abordar las preocupaciones actuales sobre los sesgos inherentes a los sistemas de predicción.
Se ha observado que no todas las fuerzas policiales son iguales. En Estados Unidos hay no menos de 12.000 policías locales. No cabe duda de que habrá diferencias, que se reflejarán en la calidad del liderazgo y en la disponibilidad de recursos.
Pero cuando se trata de la IA en el trabajo policial, creo que siempre debería haber un lugar en la aplicación de la ley para los instintos finamente afilados de un oficial humano experimentado, templado por un sistema de frenos y contrapesos.
De esta manera, cuando la era de la hiper-vigilancia llegue a tu ciudad natal, será un humano responsable, no una máquina – por muy inteligente que sea – quien decida si una persona representa un riesgo grave para la seguridad pública.
We use cookies on our website to give you the most relevant experience by remembering your preferences and repeat visits. By clicking “Accept All”, you consent to the use of ALL the cookies. However, you may visit "Cookie Settings" to provide a controlled consent.
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. These cookies ensure basic functionalities and security features of the website, anonymously.
Cookie
Duración
Descripción
cookielawinfo-checkbox-analytics
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Analytics".
cookielawinfo-checkbox-functional
11 months
The cookie is set by GDPR cookie consent to record the user consent for the cookies in the category "Functional".
cookielawinfo-checkbox-necessary
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookies is used to store the user consent for the cookies in the category "Necessary".
cookielawinfo-checkbox-others
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Other.
cookielawinfo-checkbox-performance
11 months
This cookie is set by GDPR Cookie Consent plugin. The cookie is used to store the user consent for the cookies in the category "Performance".
viewed_cookie_policy
11 months
The cookie is set by the GDPR Cookie Consent plugin and is used to store whether or not user has consented to the use of cookies. It does not store any personal data.
Functional cookies help to perform certain functionalities like sharing the content of the website on social media platforms, collect feedbacks, and other third-party features.
Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.
Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics the number of visitors, bounce rate, traffic source, etc.
Advertisement cookies are used to provide visitors with relevant ads and marketing campaigns. These cookies track visitors across websites and collect information to provide customized ads.
por David Tuffley
Imagínate que vives en una ciudad inteligente que conoce tu rostro y sigue todos tus movimientos: los lugares a los que vas, la gente que ves y todas las cosas que haces en el camino.
Con el tiempo, la inteligencia artificial (IA) autónoma crea un perfil que informa sobre la probabilidad de que usted cometa un delito. Cuando el riesgo es alto, la policía toma medidas preventivas. Bienvenidos a la hiper-vigilancia y a la próxima generación de policía predictiva.
Tanto India como China están implementando actualmente este nivel de vigilancia para reducir los índices de criminalidad y detectar a los terroristas antes de que ataquen.
Japón también está estudiando sistemas de predicción antes de los Juegos Olímpicos de Tokio 2020. Londres y otras partes del Reino Unido han estado utilizando una tecnología similar durante algún tiempo.
Puede que ya esté ocurriendo en la ciudad donde vives.
Una vigilancia generalizada y en tiempo real como ésta es posible porque los ordenadores más potentes y con mayor número de funciones pueden procesar los torrentes de datos de reconocimiento facial y análisis de la marcha procedentes de miles de cámaras de vídeo, todas ellas coordinadas por una avanzada inteligencia artificial que puede dar sentido a todo ello.
No hace mucho tiempo, confiábamos en las patrullas policiales de ojos de águila para garantizar la seguridad pública. Eso fue cuando vivíamos en pequeñas comunidades donde la gente se conocía de vista.
Pero a medida que las ciudades continuaban creciendo, y se volvían demasiado grandes para el oficial de policía solo, la televisión de circuito cerrado (CCTV), el reconocimiento de rostros y los sistemas de predicción más temprana entraron en uso.
La moralidad de la hiper-vigilancia
Hay división de opiniones sobre la ética de la policía predictiva.
Los defensores de la privacidad y los defensores de las libertades civiles están preocupados, por este nivel de vigilancia, por temor a que se convierta en un instrumento de discriminación.
Mientras tanto, los defensores de la seguridad pública y la lucha contra el terrorismo sostienen que la tecnología predictiva tiene un gran potencial para frustrar los ataques terroristas y otras amenazas a la seguridad pública.
Ambos argumentos tienen fuerza y validez, por lo que la cuestión es: ¿dónde trazamos exactamente la línea entre el interés público y la libertad individual?
La respuesta será diferente en cada caso. Cada jurisdicción debe negociar la respuesta teniendo en cuenta todas las preocupaciones de las partes interesadas.
Desde que los terroristas atacaron en Estados Unidos el 11 de septiembre de 2001, el grado de vigilancia y registro en los aeropuertos ha aumentado drásticamente.
Con el tiempo, los viajeros llegaron a aceptar que la situación redundaba en su propio interés y en el de sus compañeros de viaje.
La privacidad comienza y termina en la puerta principal
Generalmente se acepta que usted tiene derecho a la privacidad en su propio hogar. Cuando usted cierra la puerta principal, puede esperar razonablemente que nadie esté mirando y escuchando.
La excepción es cuando usted está en casa pero participa en actividades criminales que amenazan a la comunidad. Aquí es donde trazamos la línea en este caso entre los derechos individuales y el bien común.
Pero cuando sales, cualquiera puede mirarte si quiere. También podrían escuchar por casualidad la conversación que usted está teniendo. No hay derecho a la privacidad de la mirada pública, y nunca lo ha habido.
Pero mirar es diferente a hacer predicciones – y la incómoda verdad es que la tecnología policial predictiva tiene el potencial de ser usada como una herramienta de opresión. Gestionar este riesgo en una sociedad abierta y democrática es sin duda un reto, pero no un reto insuperable con frenos y contrapesos.
Sopesar los riesgos y los beneficios
Dada la experiencia general de la policía predictiva, parece que hay razones de peso para seguir utilizándola.
En Australia, por ejemplo, se informó de que 15 atentados terroristas se habían frustrado en los últimos tres años gracias a la labor policial respaldada por algoritmos informáticos.
La pregunta es, ¿cómo minimizamos los riesgos a un nivel aceptable?
La respuesta corta es establecer un marco legal que garantice la transparencia ética en cualquier método de policía predictiva de inteligencia artificial, incluida la forma en que se combinan los algoritmos.
También garantizaría rigurosamente que los datos introducidos en los sistemas de predicción son exactos e imparciales. Como con cualquier sistema de computadora, la salida es sólo tan buena como la entrada – basura dentro, basura fuera, como dice el dicho.
Esto es necesario para abordar las preocupaciones actuales sobre los sesgos inherentes a los sistemas de predicción.
Se ha observado que no todas las fuerzas policiales son iguales. En Estados Unidos hay no menos de 12.000 policías locales. No cabe duda de que habrá diferencias, que se reflejarán en la calidad del liderazgo y en la disponibilidad de recursos.
Asociación Humano/IA
El trabajo policial no es perfecto y los oficiales humanos no lo hacen bien todo el tiempo.
Pero cuando se trata de la IA en el trabajo policial, creo que siempre debería haber un lugar en la aplicación de la ley para los instintos finamente afilados de un oficial humano experimentado, templado por un sistema de frenos y contrapesos.
La tecnología debe estar siempre subordinada al ser humano, asumiendo el papel de ayudante en la toma de decisiones.
De esta manera, cuando la era de la hiper-vigilancia llegue a tu ciudad natal, será un humano responsable, no una máquina – por muy inteligente que sea – quien decida si una persona representa un riesgo grave para la seguridad pública.
Compartir esto: