Criterios éticos para un buen uso de la IA

El uso de herramientas de inteligencia artificial (IA) en el ámbito de la seguridad urbana es un fenómeno en creciente expansión. Cada vez son más las fuerzas y cuerpos de seguridad que apuestan por estas tecnologías a la hora de mejorar y agilizar su trabajo, ya sea, por ejemplo, en tareas como la detección de matrículas de vehículos o la robotización de ciertas funciones administrativas, entre otras. Sin embargo, el entusiasmo acrítico que genera la IA en algunos operadores dificulta un análisis sosegado sobre la conveniencia de su utilización, sobre todo a la hora de tomar en cuenta los criterios éticos que deben guiar su uso. En este sentido, se hace necesario reflexionar sobre los retos que supone la aplicación de la inteligencia artificial, las cuales pueden transformar el proceso de toma de decisiones operativas en el ámbito de la seguridad en una operación puramente mecánica. 

Estas fueron algunas de las conclusiones a las que se llegaron en la segunda sesión del ciclo de encuentros virtuales participativos sobre “Nuevas tecnologías aplicadas a la seguridad urbana”, que se celebró el 2 de diciembre. Estos webinars son una iniciativa del Foro Español para la Seguridad Urbana (FEPSU). A continuación os compartimos algunas de las consideraciones y puntos de análisis que guiaron el debate:

Usos específicos de la IA

Desde su inicio como disciplina en los años 50, la IA ha buscado utilizar ordenadores para realizar tareas que se relacionan con un comportamiento inteligente: razonar, tomar decisiones, reconocer patrones, resolver problemas matemáticos, etc. Sin embargo, aunque en las últimas dos décadas ha habido un incremento exponencial en la generación de datos y en la potencia de cálculo de los ordenadores, hoy en día este tipo de herramientas son capaces de realizar solamente una única tarea a la vez.

Iniciativas como el proyecto Magneto, financiado por el programa Horizonte 2020 de la Comisión Europea, están desarrollando un motor de correlación que permita la elaboración de hipótesis para la toma de decisiones en la prevención e investigación del crimen organizado, a través de la conjunción de diversas herramientas de IA, como el reconocimiento facial o la transcripción automática de audio a texto. La criminóloga Ainoa Torrado, que trabaja en la implementación de este proyecto en la Policía Municipal de Sabadell, asegura que el uso de estas tecnologías permite a los agentes centrarse más en el análisis de la información que en el tratamiento de los datos y, de esta manera, mejorar la capacidad de investigación y solucionar los delitos de forma más rápida. 

Para el Subdirector del Instituto de Investigación en inteligencia artificial (CSIC-UAB), Felip Manyà, existen áreas específicas de actuación de las agencias de seguridad pública donde hoy en día la utilización de herramientas de inteligencia artificial tienen más potencial, como la videovigilancia, la robótica en entornos de riesgo y el control del tráfico. Sin embargo, para entender mejor la intervención pública con herramientas que utilicen IA hay que ver a estos sistemas como un complemento a la labor policial, antes que como un sustituto. 

Entre la utopía y la distopía

Cuando se habla de los riesgos que puede suponer el uso de la IA, suelen generarse dos tipos de discursos antagónicos: por un lado, una visión optimista que cree que es una tecnología que va a solucionar todos los problemas; por otro lado, una visión pesimista, centrada en la discriminación algorítmica y que ve a la inteligencia artificial como una herramienta para el control y la vigilancia. Según el Director del Centro CRÍMINA de la Universidad Miguel Hernández de Elche, Fernando Miró Llinares, la realidad se sitúa en un punto medio entre estos dos puntos de vista y, por este motivo, para establecer criterios éticos que mejoren la aplicación de la IA en el ámbito de la seguridad primero hay que desmontar los mitos que rodean su uso. 

En primer lugar, hay que tener en cuenta que muchos de los riesgos que supone el uso de la IA, como la discriminación algorítmica, tienen que ver en realidad con la baja calidad de los datos que se usan y no tanto con la herramienta en sí. Muchos datos, por la forma en que fueron recolectados o por la interpretación que se les da antes de introducirlos en el algoritmo, reproducen sesgos que pueden tener consecuencias graves si se utilizan para guiar actuaciones policiales. Es por este motivo que los algoritmos deben poder ser corregibles, para poder reducir el sesgo de sus datos, aunque esto suponga disminuir su capacidad predictiva. 

Aún así, el principal riesgo en el uso de la IA es ahora mismo la violación de la privacidad de la ciudadanía, ya que los sistemas actuales tienen una enorme capacidad de control sobre las personas y reducen a gran escala la libertad individual. Aunque las normativas europeas sobre protección de datos sean más avanzadas que las de otros países como Estados Unidos o China, donde la inteligencia artificial se ha desarrollado más rápidamente; se hace necesario elaborar normas que sean rígidas en la esencia ética de las mismas, pero lo suficientemente flexibles como para permitir dar lugar a las diferentes aplicaciones de la IA que surjan con el tiempo. 

Principios éticos sólidos

Una de las herramientas de inteligencia artificial que más debate ha generado ha sido el reconocimiento facial. Sobre todo porque se ha detectado que su uso por parte de las fuerzas y cuerpos de seguridad muchas veces deriva en una hiperreacción de los agentes frente a las detecciones de esta tecnología, provocando que se centren más en la búsqueda de los delincuentes que en el resto de funciones de la acción policial. Además, también ha provocado un aumento en las detenciones con los mismos sesgos de los datos introducidos en el algoritmo, por ejemplo los sesgos raciales

Por esta razón, Miró Llinares destaca que hay que tener en cuenta los siguientes principios éticos a la hora de poner en marcha una tecnología de IA en la actividad policial: la prohibición de subordinación a la máquina; la supervisión constante de los sistemas de IA por parte de una persona; la prevención del daño que pueda ocasionar su uso; la prohibición de la discriminación como resultado de estos procesos; y, lo más importante, la explicabilidad de su funcionamiento, lo que incluye la obligación de trazabilidad de los datos, la auditabilidad de sus procedimientos y la participación democrática de su uso.

Este último punto, sin embargo, es más difícil de controlar cuando se trata de tecnologías de deep learning, ya que uno de sus problemas es que no tienen capacidad explicativa sobre las decisiones que toman y, por lo tanto, esto puede ser un peligro, ya que si las actuaciones policiales se basan únicamente en sistemas de este tipo, se puede perder la confianza de los ciudadanos y ciudadanas. Por este motivo, en todo uso de la IA se debe exigir la trazabilidad de los datos y debe hacerse una reflexión profunda sobre el uso que se dará a esta información, sin que la predicción signifique una actuación policial inmediata. 

Estas han sido algunas de las principales conclusiones de esta segunda sesión del ciclo de webinars sobre “Nuevas tecnologías aplicadas a la seguridad urbana”, que ha contado con las intervenciones iniciales de Felip Manyà, Subdirector del Instituto de Investigación en inteligencia artificial (CSIC-UAB); Fernando Miró Llinares, Catedrático de Derecho Penal de la Universidad Miguel Hernández de Elche y Director del Centro CRÍMINA para el estudio y prevención de la delincuencia; y Ainoa Torrado, Criminóloga participante del proyecto Magneto de la iniciativa Horizonte 2020 de la Comisión Europea. La conversación ha sido moderada por Francesc Guillén Lasierra, jurista, criminólogo y estudioso de las políticas públicas de seguridad. 

Encontrarás el relato completo de la jornada en el siguiente enlace.

Documentos compartidos

El proyecto europeo MAGNETO (H2020), una aplicación práctica del uso de la inteligencia artificial en la seguridad. Presentación de Ainoa Torrado.

Hacia un uso (y diseño) ético de la IA en la seguridad ciudadana. Presentación de Fernando Miró Llinares

El futuro de la IA: hacia inteligencias artificiales realmente inteligentes. Artículo de Ramón López de Mántaras.

Estrategia española de I+D+I en inteligencia artificial. Ministerio de Ciencia, Innovación y Universidades, 2019.

Amenazas de la inteligencia artifical. Blog del Departament d’Interior de la Generalitat de Catalunya, 2020.

Inteligencia artificial: un arma de doble filo

La inteligencia artificial (IA) puede ser una herramienta muy útil para la seguridad urbana. Esta tecnología se utiliza para usos que van desde el software de lectura de matrículas de vehículos, hasta el reconocimiento facial y otras aplicaciones relacionadas con la vigilancia policial predictiva. Pero esta herramienta también está siendo cada vez más utilizada por ciberdelincuentes, quienes se aprovechan de su uso para encontrar nuevas formas de amenazar y atacar la seguridad de los sistemas informáticos de la ciudadanía y de las instituciones. Así lo establece un informe recientemente publicado por la ONU y la Europol, del que te compartimos en FEPSU algunas de sus principales conclusiones. 

Potenciar el uso positivo de la IA

El pasado 19 de noviembre se publicó un documento elaborado conjuntamente por Europol, el Instituto Interregional de Investigación sobre Justicia y Crimen (UNICRI) de las Naciones Unidas y Trend Micro que analiza los usos delictivos actuales y previstos de la IA. Este informe proporciona información sobre ataques existentes y potenciales que aprovechan la inteligencia artificial y recomendaciones para las administraciones, fuerzas y cuerpos de seguridad, legisladores y otras instituciones sobre cómo mitigar estos riesgos.

“La IA promete al mundo una mayor eficiencia, automatización y autonomía. En un momento en el que el público está cada vez más preocupado por el posible uso indebido de la IA, tenemos que ser transparentes sobre las amenazas, pero también analizar los beneficios potenciales de la tecnología de IA», asegura Edvardas Šileris, director del Centro Europeo de Ciberdelincuencia de Europol. “Este informe nos ayudará no solo a anticipar posibles usos maliciosos y abusos de la IA, sino también a prevenir y mitigar esas amenazas de manera proactiva. Así es como podemos desbloquear el potencial que tiene la IA y beneficiarnos del uso positivo de los sistemas de IA», agrega Šileris. 

La IA como objetivo y como medio

El informe concluye que los ciberdelincuentes aprovecharán la IA como vector de ataque y como superficie de ataque, es decir como medio y como objetivo para conseguir sus fines criminales. Las falsificaciones profundas (deep fake) son actualmente el uso más conocido de la IA como vector de ataque. Sin embargo, el informe advierte que se necesitará nueva tecnología de detección en el futuro para mitigar el riesgo de campañas de desinformación y extorsión, así como las amenazas que apuntan a conjuntos de datos de IA.

En este sentido, personas con el objetivo de realizar un crimen podrían utilizar esta tecnología para desarrollar convincentes ataques de ingeniería social a gran escala o malware de raspado de documentos, para hacer que los ataques sean más eficientes. Por otro lado, la IA podría respaldar la evasión de reconocimiento de imágenes y biometría de voz; los ataques de ransomware, mediante la evasión y la focalización inteligente; o la contaminación de datos, mediante la identificación de puntos ciegos en las reglas de detección. Además, el informe también advierte que se están desarrollando sistemas de IA para mejorar la efectividad del malware y para interrumpir los sistemas de reconocimiento facial y anti-malware.

“A medida que las aplicaciones de inteligencia artificial comienzan a tener un gran impacto en el mundo real, se hace evidente que esta será una tecnología fundamental para nuestro futuro”, afirma Irakli Beridze, director del Centro de Inteligencia Artificial y Robótica de UNICRI. “Sin embargo, así como los beneficios para la sociedad de la IA son muy reales, también lo es la amenaza del uso malintencionado», apunta también Beridze.

Prepararse ante las amenazas

Desde las instituciones como Europol y UNICRI advierten que los ciberdelincuentes siempre han sido los primeros en adoptar la última tecnología, algo que sucede también con la IA. “Como revela este informe, ya se está utilizando para adivinar contraseñas, romper CAPTCHA y clonar voz, y hay muchas más innovaciones maliciosas en proceso”, explica Martin Roesler, jefe de investigación de amenazas prospectivas de Trend Micro, empresa lider en sistemas de ciberseguridad. En este sentido, desde las organizaciones que han participado en la elaboración de este informe, se proponen varias recomendaciones para evitar los estragos que podría ocasionar el uso de la inteligencia artificial con fines criminales. 

Por un lado, aprovechar el potencial de la IA como herramienta de lucha contra el crimen para preparar la industria y la policía de la ciberseguridad para el futuro y continuar con la investigación sobre las posibilidades de la inteligencia artificial para estimular el desarrollo de tecnología defensiva. Para conseguir esto, se deberán promover y desarrollar marcos de diseño de IA seguros y hacer campañas de comunicación par reducir la retórica políticamente cargada sobre el uso de la inteligencia artificial con fines de ciberseguridad. Finalmente, será un factor clave la cooperación entre asociaciones público-privadas y el establecimiento de grupos de expertos multidisciplinarios.

Debates éticos: la máquina contra el humano

Por otro lado, a los aspectos mencionados por el informe de la ONU y EUROPOL, habría que agregar que el uso de la IA por parte de las fuerzas y cuerpos de seguridad supone también el planteamiento de ciertos debates éticos en el uso de algoritmos y máquinas para vigilar y perseguir a seres humanos. Sobre todo, el uso de software de reconocimiento facial supone el peligro de que la tecnología pueda equivocarse o no ser neutral en el perfilamiento de las personas que reconoce. En este sentido, las decisiones que toma esta tecnología, ¿deben gozar de presunción de veracidad? Si no es así, ¿qué instrumentos habría que establecer para prevenir o controlar los posibles errores que se cometan?

Como toda tecnología, su uso debería limitarse a ser un apoyo o una herramienta para la actuación humana en la seguridad urbana, pero jamás debería ser un sustitutivo de esta. Además, se deberían establecer los términos en los que hay que situar la rendición de cuentas en intervenciones llevadas a cabo siguiendo los dictados de estos algoritmos. 

Estos y otros debates serán los que abordaremos en la segunda sesión del ciclo de encuentros virtuales sobre “Nuevas tecnologías aplicadas a la seguridad urbana”, donde además reflexionaremos sobre las potencialidades de la inteligencia artificial para la prevención y la seguridad, así como sus posibles riesgos y amenazas en manos de organizaciones y personas con fines delictivos. Se trata de una actividad gratuita, organizada por FEPSU, que se celebrará el miércoles 2 de diciembre de 2020, de 12h30 a 14h, a través de Zoom. Inscríbete en este enlace

Para acceder al informe completo elaborado por Europol, UNICRI y Trend Micro, puedes visitar el siguiente enlace.

Hacia una prevención inteligente

La digitalización está cada vez más presente en todos los aspectos de nuestra vida y la pandemia del coronavirus ha venido a acelerar este proceso. Esta revolución digital supone también nuevos desafíos para la seguridad urbana, lo que obliga también a cambiar y adaptar las respuestas preventivas a estos retos. Este fue el tema central de la 25ª edición del Congreso Alemán de Prevención (DPT), organizado por la ciudad de Kassel y que se realizó en línea los días 28 y 29 de septiembre. El Foro Europeo de Seguridad Urbana (Efus)y el foro alemán DEFUS participaron, como cada año, en esta conferencia, que es la más grande del mundo sobre prevención del delito. En FEPSU te compartimos algunas de las conclusiones a las que se llegaron en este encuentro. 

Nuevos desafíos, nuevas soluciones

Este año, el Congreso Alemán de Prevención se centró en el impacto de la revolución digital en la seguridad urbana y la prevención del delito. El panel inaugural invitó a los asistentes a reflexionar sobre los avances que se han dado en lo que se denomina Prevención Inteligente, que es la aplicación de estrategias digitales y nuevas tecnologías en el diseño de planes de prevención del crimen. El panel de discusión participaron Johannes Baldauf (Facebook), Markus Beckedahl (Netzpolitik, plataforma en línea para el derecho digital a la libertad), Matthias Heeder (cineasta en Rhizomfilm) y Gesa Stückmann (Jurista).

Los participantes de la mesa redonda discutieron también sobre las formas en que las tecnologías digitales presentan oportunidades, pero también riesgos de seguridad. Para responder a estos riesgos hacen falta, evidentemente, formas nuevas e “inteligentes” de iniciativas de prevención. Aún así, la comprensión de los actores que trabajan para favorecer la seguridad de las ciudades aún está evolucionando en el objetivo de llegar hacia esta una prevención inteligente. 

Vigilancia predictiva: riesgos y ventajas

Efus participó también en en seminario web centrado en la vigilancia policial predictiva y los derechos humanos, dirigido por la matemática Dra. Ingrid Bausch-Gall, de Amnistía Internacional. El debate en este evento partió de la diferenciación entre los dos tipos de modelos de vigilancia policial predictiva que existen en la actualidad. 

Un primer modelo se basa en datos geoespaciales y tiene como objetivo predecir ubicaciones probables de delitos, sobre todo robos domiciliarios. El segundo, utiliza datos vinculados a atributos personales y tiene como objetivo identificar a las personas en riesgo de ser víctimas o autores de actividades delictivas. Si bien ambos enfoques conllevan el riesgo de una estigmatización injustificada de ciertos grupos de población, este último se considera más preocupante y supone ser más precavidos con su aplicación. 

Como cualquier tecnología que se desarrolle para apoyar la toma decisiones, la vigilancia policial predictiva es tan buena como los datos de los que se alimenta durante su proceso de aprendizaje y en ningún caso debe sustituir la puesta en práctica de políticas de seguridad basadas en datos empíricos y buenas prácticas. En su webinar, la Dra. Ingrid Bausch Gall destacó que, antes de aplicarlos en un modelo de vigilancia policial, es necesario abordar una serie de preguntas sobre estos datos: ¿De dónde vienen? ¿Con qué propósito fueron recolectados? ¿A quién pertenecen? Las respuestas a estas preguntas determinarán si el modelo que se aplica favorecerá a un mejor desarrollo de la seguridad en la comunidad o si, en cambio, supondrá una estigmatización de los colectivos más desfavorecidos. 

La tecnología no sustituye los recursos humanos

Otro problema surge a partir del uso de los datos: ¿Qué hacer con la información proporcionada por el algoritmo de vigilancia predictiva? La mayoría de las veces, los cuerpos y fuerzas de seguridad envían más patrullas a los vecindarios identificados como en riesgo, basándose en análisis simplistas de los datos. Lo primero que hay que tener claro es que la tecnología no puede reemplazar a los recursos humanos y plantearse la pregunta sobre si este tipo de vigilancia policial predictiva podría tener consecuencias no deseadas en otras áreas o si estira innecesariamente los recursos de las fuerzas del orden. 

Dentro del debate que se llevó a cabo en congreso DPT, los panelistas también consideraron la cuestión de si una mayor presencia policial es una respuesta adecuada. En su forma actual, la vigilancia policial predictiva se ocupa sobre todo de la interceptación de la actividad delictiva, pero menos de la prevención social, aunque puede servir para prevenir la delincuencia a largo plazo y debería encaminarse hacia este modelo de prevención comunitaria.

En su intervención, la Dra. Ingrid Bausch Gall enumeró una serie de recomendaciones para mitigar los riesgos que la actuación policial predictiva representa para los derechos fundamentales, como el derecho a la privacidad, la protección de datos y la no discriminación. 

Con respecto al desarrollo de algoritmos policiales predictivos, para salvaguardarse de los peligros que pudiera implicar su puesta en marcha se debe garantizar la verificabilidad de estos algoritmos a través de evaluadores independientes, así como equipos de desarrollo diversos y transdisciplinarios que incluyan a miembros de la sociedad civil.

El despliegue de la tecnología, además, debe ser fácil de usar y no solo accesible a los expertos. En este sentido, los cuerpos y fuerzas de seguridad deben describir claramente los propósitos del uso de estas tecnologías y considerar los resultados desde una perspectiva crítica e imparcial.

Hacia una mejor vigilancia predictiva

Para avanzar hacia una mejor integración de las nuevas tecnologías y el uso de los datos en la prevención del crimen, desde Efus se propone explorar los beneficios y desafíos del uso de la vigilancia policial predictiva, ya que varios cuerpos y fuerzas de seguridad en Europa están trabajando o comenzando a desarrollar este tipo de modelos. 

Efus se centra en esta área de enfoque a través de proyectos como Cutting Crime Impact (CCI). Durante los últimos dos años los socios de CCI han estado examinando varios modelos de vigilancia policial predictiva actualmente en uso en Europa y elaborando guías de aplicación y uso de las diversas tecnologías disponibles para una mejor prevención del crimen y la delincuencia. 

En FEPSU estaremos abordando estos y otros temas relacionados con el uso de nuevas tecnologías aplicadas a la seguridad urbana en un ciclo de conferencias web que tendrán lugar los días miércoles 18 de noviembre y 2 de diciembre de 2020, de 12h30 a 14h. En nuestro blog también encontrarás una serie de artículos sobre cómo la tecnología está transformando el ejercicio de la policía y las maneras de trabajar en la prevención.