El Parlamento Europeo, en contra de la vigilancia policial preventiva

El Parlamento Europeo ha decidido poner freno al uso de la inteligencia artificial (IA) para la vigilancia policial predictiva. En una resolución aprobada a inicios de octubre con 377 votos a favor, 248 en contra y 62 abstenciones; los eurodiputados y eurodiputadas han llamado a prohibir las actuaciones policiales predictivas basadas en datos obtenidos a partir de tecnologías como, por ejemplo, los dispositivos de reconocimiento facial. En FEPSU hacemos un repaso de los puntos más importantes de esta resolución que cambiará la forma en que estas herramientas se utilizan por parte de las fuerzas y cuerpos de seguridad

Peligro de discriminación

Combatir la discriminación y garantizar el derecho a la privacidad. Estas han sido las principales razones por las que el Parlamento Europeo ha decidido oponerse al uso de herramientas de inteligencia artificial para actuaciones de vigilancia predictiva. Los eurodiputados y las eurodiputadas han exigido fuertes salvaguardas para aquellas ocasiones en que se utilicen herramientas de IA en la aplicación de la ley.

En la resolución, los parlamentarios han señalado el riesgo de sesgo algorítmico en las aplicaciones de IA y han enfatizado que se necesita supervisión humana y fuertes poderes legales para prevenir la discriminación por parte de estas herramientas, especialmente en su uso por parte de las fuerzas y cuerpos de seguridad o en las fronteras. “Los operadores humanos siempre deben tomar las decisiones finales y los sujetos monitoreados por sistemas impulsados ​​por inteligencia artificial deben tener acceso a la reparación”, aseguran los eurodiputados y las eurodiputadas.

Según el texto de la resolución, los sistemas de identificación basados ​​en inteligencia artificial cometen errores a la hora de identificar a grupos étnicos minoritarios, personas LGBTIQ+, ancianos y mujeres en tasas más altas, lo que es particularmente preocupante en el contexto de la aplicación de la ley y la actuación judicial. “Para garantizar que se respeten los derechos fundamentales al utilizar estas tecnologías, los algoritmos deben ser transparentes, rastreables y suficientemente documentados”, subrayan los eurodiputados y las eurodiputadas, en relación a los criterios éticos para un buen uso de la IA. Además, siempre que sea posible, las autoridades públicas deberían utilizar software de código abierto para ser más transparentes.

Prohibición del reconocimiento facial

En este sentido, para respetar la privacidad y la dignidad humana, los parlamentarios y las parlamentarias han solicitado una prohibición permanente del reconocimiento facial de personas en los espacios públicos, ya que, en su opinión, la ciudadanía solo debe ser monitoreada cuando existan sospechas de un delito. El Parlamento Europeo ha pedido, además, que se prohíba el uso de bases de datos privadas de reconocimiento facial (como el sistema Clearview AI, que ya está en uso) y la vigilancia policial predictiva basada en datos de comportamiento.

Los eurodiputados y las eurodiputadas también han abogado por prohibir los sistemas de puntuación social, que intentan calificar la confiabilidad de los ciudadanos en función de su comportamiento o personalidad. Además, los y las representantes del Parlamento Europeo han mostrado su preocupación por el uso de datos biométricos para identificar a las personas de forma remota. Por ejemplo, las puertas de control fronterizo que utilizan el reconocimiento automatizado y el proyecto iBorderCtrl (un «sistema inteligente de detección de mentiras» para la entrada de viajeros a la Unión Europea) deberían descontinuarse, según la resolución. Los parlamentarios y las parlamentarias han instado a la Comisión Europea a abrir procedimientos de infracción contra los Estados miembros si es necesario. 

“Los derechos fundamentales son incondicionales. Por primera vez en la historia, pedimos una moratoria en el despliegue de sistemas de reconocimiento facial con fines de aplicación de la ley, ya que la tecnología ha demostrado ser ineficaz y, a menudo, conduce a resultados discriminatorios. Nos oponemos claramente a la vigilancia policial predictiva basada en el uso de IA, así como a cualquier procesamiento de datos biométricos que conduzca a una vigilancia masiva. Esta es una gran victoria para todos los ciudadanos europeos”, ha manifestado el europarlamentario búlgaro, Petar Vitanov. 

Una tecnología en debate: antecedentes

En FEPSU hemos abordado en distintas ocasiones los debates que despierta el uso de la inteligencia artificial en las actuaciones policiales, especialmente aquellas dirigidas hacia la predicción de comportamientos delictivos. Una de las preguntas que ha suscitado este tema ha sido: ¿Qué tan efectiva es la vigilancia policial predictiva? La digitalización de las bases de datos ha abierto puertas para cambios en los métodos policiales para pronosticar la posibilidad de que se cometan delitos. Sin embargo, al mismo tiempo se ha cuestionado su eficacia para la prevención del delito, algo que los eurodiputados y las eurodiputadas seguramente han tenido en cuenta a la hora de emitir su dictamen. 

En este espacio habíamos advertido ya que la UE estaba buscando dar pasos firmes hacia la regulación de la inteligencia artificial en materia de seguridad, como demuestra esta resolución del Parlamento Europeo. A inicios de junio hicimos un repaso de los sistemas de inteligencia artificial que estarán prohibidos en Europa, si finalmente sale adelante la propuesta de normativa europea que busca poner fin al uso del reconocimiento facial para la vigilancia y los algoritmos que manipulen el comportamiento humano.

Sin embargo, esta propuesta de legislación elaborada por la UE ha despertado reacciones diversas entre los expertos en tecnología, seguridad y derecho, ya que, aunque es un marco normativo novedoso, sigue teniendo lagunas en su texto que invitan a pensar en los siguientes pasos que se deben tomar. En este artículo analizamos los distintos puntos de vista encontrados que ha suscitado el debate sobre la regulación de la IA. 

Para estar al tanto de las últimas novedades en lo que respecta al uso de la inteligencia artificial y otras tecnologías en materia de prevención del delito y seguridad urbana, no dudes en seguir nuestras redes sociales (Twitter y Facebook), donde encontrarás artículos, eventos y recursos diversos para mantenerte informado.

¿Por qué la policía necesita reconectarse con lo local?

Las definiciones respecto a qué significa que la población esté y se sienta segura ha ido cambiando a lo largo de los años. Sin duda, la crisis sanitaria provocada por la Covid-19 y las restricciones sociales sin precedentes que se impusieron para limitar su extensión han tenido un efecto acelerador en este cambio de paradigma. Dentro de este contexto, las fuerzas y cuerpos de seguridad se enfrentan al reto de recuperar la percepción de seguridad en aquellos lugares que dejaron de ser percibidos como seguros, para que la ciudadanía pueda volver a disfrutar de sus libertades sin miedo y en armonía con los demás. En este sentido, el centro de estudios británico The Police Foundation ha publicado un artículo en el que aboga por recuperar el trabajo de los policías locales en el terreno y así reconectar con la ciudadanía, para mejorar la percepción de seguridad de la población. En FEPSU te compartimos algunas de sus conclusiones.

Cambios de paradigma

En el artículo Police in place. Why the police need to reconnect locally, el director de investigación de The Police Foundation, Andy Higgins, hace un repaso sobre cómo a lo largo de los últimos años emerge en distintas partes del mundo una sensación de deterioro local, que lleva a la población a percibir como inseguros lugares que antes eran vistos como espacios públicos seguros.

Al mismo tiempo, la Covid-19 no solo redujo durante un tiempo el rango de lugares en los que desarrollábamos nuestras actividades, sino que también nuestras rutinas diarias de pronto se vieron cubiertas por un peligro invisible y por un mayor escrutinio, aprehensión e indignación hacia las acciones de aquellos con quienes compartimos nuestros espacios. Por este motivo, para Higgins, se vuelve necesario repensar lo que significa estar y sentirse seguros en el espacio público y entre nuestros vecinos y vecinas, mientras emergemos hacia un mundo diferente después de haber experimentado una pandemia global.

Dentro de este contexto, se hace necesaria una acción policial preventiva y cercana a la población, que actúe desde los barrios para atajar aquellas problemáticas sociales que se dan a nivel local.

No perder de vista lo local

Higgins explica que la tarea de las agencias encargadas de mantener la seguridad se ha complejizado en esta era moderna, en la que las personas viven interconectadas y se relacionan entre ellas en distintos dominios, físicos y virtuales, los cuales contienen riesgos para la seguridad. Además, debido a esta complejidad, muchas veces los problemas locales de los vecindarios parecen triviales y se les acaba dedicando menos recursos y espacios de reflexión.

«Nuestra búsqueda por respuestas a los problemas sociales que sean más sofisticadas, basadas en la evidencia y eficientes también nos ha empujado hacia lo universal y nos ha alejado de lo situado. Hemos estado, quizá, muy ocupados buscando lo que funciona, sin tener en cuenta que muy pocas cosas funcionan igual en todos lados, y que las intervenciones basadas en los lugares, específicas y orientadas a problemas concretos suelen tener resultados más efectivos», señala el investigador de The Police Foundation.

Por este motivo, en la actualidad se vuelve más necesario que nunca prestar atención a las particularidades de cada lugar y las relaciones que estas generan, para poder entender mejor lo que hace que los lugares sean más o menos seguros y que la gente que vive en ellos se sientan más o menos seguros.

No solo hace falta recuperar modelos de policía comunitaria de décadas pasadas o replicar estrategias de resolución de conflictos predeterminadas, sino que hoy más que nunca se hace necesario reconectar con el compromiso de desarrollar un entendimiento sofisticado de las necesidades de la comunidad junto a la necesidad de la policía de estar realmente presente en los lugares, hablar con las personas que viven y pasan tiempo ahí, así como entender los problemas en sus contextos locales.

Una policía situada

La gestión de las restricciones sociales aplicadas durante la pandemia de la Covid-19 nos ha dejado muchas enseñanzas respecto a lo que debe ser la acción policial de proximidad. Durante los meses más duros de la crisis sanitaria, la policía se vio ante un nuevo reto: ¿cómo conseguir la complicidad de la población para implementar las medidas de control social más restrictivas para la vida de las personas desde la Segunda Guerra Mundial?

La naturaleza de estas normas, que no podían ser impuestas, empujaron a los policías, sobre todo locales, a buscar el consenso y activar la complicidad de la población a través de la persuasión. Sin embargo, esto no fue igual de sencillo en todos los lugares, ya que cada contexto presenta sus propias particularidades respecto a la relación entre agentes policiales y población.

Como destaca Higgins, «la gente sigue reglas y coopera con los agentes, no porque teman las consecuencias de una desobediencia, sino porque creen que es lo correcto que hay que hacer». Por lo tanto, la única forma de conseguir legitimidad y autoridad a partir de la cual provocar la complicidad y la cooperación de la ciudadanía es que los agentes locales de policía sean percibidos como justos, bienintencionados, dignos de confianza y respetuosos, así como personas capaces de escuchar y permitir que los demás se expresen.

«Solo una policía arraigada en el terreno, conectada con las comunidades y familiarizada con las historias que viven y explican, puede generar un entendimiento mutuo y conseguir la confianza en las comunidades», subraya el director de investigación de The Police Foundation. Por estas razones es vital que la policía sea capaz de tener a la población de su lado cuando suceda lo inesperado o cuando la situación social se ponga tensa. Esto significa recolocar a los agentes policiales ahí donde puedan escuchar, hacer contacto cercano, volverse familiares y llegar a conocer y a sentir y comprender algo de lo que significa estar y vivir en ese lugar y en ese momento concreto.

En FEPSU hemos abordado en distintas ocasiones la importancia de que la policía local trabaje con distintos actores relevantes para la comunidad, desde el municipio y los agentes sociales, hasta las autoridades estatales o regionales. Por ejemplo, hemos destacado los beneficios y las limitaciones de las aplicaciones de alerta de delitos para mejorar la prevención y la seguridad. También nos hemos preguntado qué tan efectiva es la vigilancia policial predictiva o cómo funciona la tecnología de sensores portátiles y su potencial para la seguridad en el trabajo de las policías locales. Síguenos en Twitter y Facebook para estar al tanto de los próximos artículos, eventos y novedades.

La legislación europea sobre inteligencia artificial, a debate

¿Cuáles son las luces y sombras de la nueva ley europea sobre inteligencia artificial? Esta es la pregunta a la que han intentado responder los profesores de la Universitat Oberta de Catalunya (UOC), Josep Curto, profesor de los Estudios de Informática, Multimedia y Telecomunicación, y Sergio de Juan-Creix, profesor colaborador de Derecho del grado de Comunicación. Esta propuesta de legislación elaborada por la Unión Europea ha despertado reacciones diversas entre los expertos en tecnología, seguridad y derecho, ya que, aunque es un marco normativo novedoso, sigue teniendo lagunas en su texto que invitan a pensar en los siguientes pasos que se deben tomar. En FEPSU te compartimos algunas de las principales conclusiones a las que han llegado estos docentes de la UOC en un artículo publicado en su web

Una legislación con mucha expectativa

La propuesta de legislación de la Unión Europea sobre inteligencia artificial que salió a la luz hace unos meses era el paso necesario después de la puesta en marcha del Reglamento General de Protección de Datos (RGPD). Según el profesor de los Estudios de Informática, Multimedia y Telecomunicación de la UOC, Josep Curto, antes de esta propuesta se ha vivido en Europa un periódo de “todo vale”, en el que se han construido sistemas de IA sin tener en cuenta los límites que se deben establecer a el desarrollo de esta tecnología para garantizar su uso seguro. 

Además, como apunta el profesor colaborador de Derecho del grado de Comunicación de la UOC, Sergio de Juan-Creix, hay algunos aspectos importantes sobre la inteligencia artificial que han quedado fuera de la regulación. Por ejemplo, los neuroderechos, es decir el área relacionada con nuestra privacidad e identidad mental, es uno de los campos que ha quedado más desamparado en la nueva normativa propuesta. 

“La inteligencia artificial es la herramienta necesaria para predecir tu comportamiento y, basándose en esto, ofrecerte productos o servicios en función de cómo eres o cuál es tu estado de ánimo, anticipándote a él o moldeándolo al gusto del oferente. Esto va más allá de la privacidad o incluso de la intimidad porque para hacerlo necesitan tener cierto control predictivo sobre tu mente”, afirma De Juan-Creix, experto en derecho digital.

El abogado también destaca que esa intrusión puede traducirse en una manipulación a gran escala y puede tener un impacto directo en nuestras decisiones. Por otro lado, la propuesta de legislación europea también omite, en el ámbito técnico, las recomendaciones sobre los enfoques de preservación de la privacidad, los sistemas conocidos como privacy-preserving machine learning

El limbo de la responsabilidad civil

Para los profesores de la UOC, otro de los aspectos que podrían llegar a crear controversia si continúan sin regularse son los referidos a la responsabilidad civil, ya que no está del todo delimitado quién es el responsable en caso de que la tecnología incurra en un fallo ni cómo se puede hacer entendible esto para la población, lo cual podría tener graves consecuencias para un uso seguro de los dispositivos que utilicen IA.

Estas consideraciones requerirán un largo proceso de negociación, de implantación y, finalmente, asimilación por parte de la ciudadanía. Un proceso que, sin embargo, será clave que se lleve a cabo para garantizar que se sigan una serie de criterios éticos en el uso de estas tecnologías y para prevenir cualquier tipo de amenaza a la seguridad

Los dos expertos de la UOC recuerdan que esta propuesta todavía está en fase de aprobación y su redacción final puede variar significativamente, e incluso abordar en el futuro todos estos espacios en blanco. De hacerlo, habría otro punto revisable en su opinión, y es el de cómo las empresas articularían el cumplimiento de la normativa. “El tejido de empresas en Europa es amplio, y la forma en la que van a consumir inteligencia artificial va a ser muy diferente, por lo que va a ser muy fácil cometer errores”, señala Curto. 

Igualmente, las multas previstas podrían revisarse, ya que las indicadas en la propuesta —hasta veinte millones de euros o el 4 % de la facturación anual— son similares a las presentadas en la regulación del reglamento general. Esto, como apunta Curto, no es del todo eficaz, ya que en los últimos años muchas empresas han recibido sanciones relacionadas con la gestión y la protección de los datos de sus clientes y aun así algunas de ellas siguen realizando las mismas prácticas, ya que operan en múltiples países al mismo tiempo y buscan estrategias para saltarse el cumplimiento de la norma. 

Una posible solución a la evasión de multas por parte de las empresas podría ser, por ejemplo, realizar acciones coordinadas entre países respecto a las empresas investigadas para que las sanciones acumuladas fueran realmente eficaces. Otra opción sería elevar la cuantía de las multas.

Un debate abierto

En FEPSU ya hemos abordado en distintas ocasiones los debates que suscita el uso de la inteligencia artificial, sobre todo por parte de las administraciones públicas y en el caso específico de las fuerzas y cuerpos de seguridad. Por ejemplo, durante los encuentros virtuales “Nuevas tecnologías aplicadas a la seguridad urbana” dedicamos una sesión a reflexionar alrededor de los criterios éticos que hay que tomar en cuenta para un buen uso de la IA en materia de prevención y seguridad urbana

Además, también hemos comentado la petición que hicieron al Gobierno español un grupo de académicos, profesionales y activistas de varios ámbitos para que no se utilicen las herramientas de reconocimiento facial hasta que no exista una ley que regule este tipo de tecnologías de inteligencia artificial. Del mismo modo, también hemos explicado al detalle cuáles serán los sistemas de IA que está previsto que se prohiban en Europa, según el primer borrador de la propuesta de ley que se ha debatido en este artículo. 

En este sentido, el uso de la inteligencia artificial en materia de seguridad y prevención sigue siendo un tema a debate y seguramente seguirá invitando a la reflexión en los próximos meses cuando se apruebe la nueva normativa europea para su regulación. 

Si deseas conocer al detalle las reflexiones de los profesores y expertos de la UOC en materia de informática y derecho alrededor de la nueva normativa europea sobre inteligencia artificial, puedes leer el artículo completo publicado en la página web de la universidad.

La importancia de la percepción en la prevención de la inseguridad

La seguridad tiene enormes componentes subjetivos y sociales. Cuando aparece un estallido de inseguridad, una de las principales dificultades es determinar la causa de este condicionamiento de las conductas ciudadanas. Es fundamental, por ello, tener la capacidad de articular respuestas que puedan incidir en los factores que generan inseguridad y tener criterios claros para evitar respuestas rutinarias que, por muy visibles que sean, no afrontan el problema de fondo. Para conseguir este objetivo, el proyecto Cutting Crime Impact (CCI) ha desarrollado junto al Departamento de Interior de la Generalitat de Catalunya la guía La percepción importa, que brinda herramientas para analizar manifestaciones de percepción de inseguridad y articular respuestas eficaces. En FEPSU te compartimos algunos de los puntos clave de este documento. 

Orientar a los gestores públicos

Esta herramienta creada por el proyecto CCI y el Departamento de Interior de la Generalitat de Catalunya busca orientar a los gestores públicos a la hora de interpretar las manifestaciones inusuales de inseguridad, a determinar las causas y a articular respuestas que estén en condiciones de mejorar la percepción de seguridad de la ciudadanía. Solo así la ciudadanía podrá volver a llevar a cabo sus actividades de forma libre.

La guía La percepción importa. La seguridad de las personas ha sido elaborada en colaboración con técnicos municipales, sobre todo del Ayuntamiento de Barcelona, y altos mandos de organizaciones policiales, como Mossos d’Esquadra y policías locales. 

Los gestores públicos de la seguridad se encuentran en situaciones en que las expresiones públicas de inseguridad requieren una interpretación y toma de decisiones que permita gestionar la situación de manera que no se deteriore, por lo que su participación en la elaboración de esta guía ha sido muy importante. 

Atajar las causas de la inseguridad

Las manifestaciones de percepción de inseguridad acostumbran a estar relacionadas con espacios concretos e, incluso, con determinadas franjas horarias. Una respuesta estándar, genérica, está abonada al fracaso. Por ello, es necesario un análisis mínimamente profundizado (y, si es posible, rápido) que permita detectar las causas que hay detrás de aquel estallido de inseguridad (y no de la inseguridad en general) con el fin de tomar las medidas que puedan afrontar concretamente aquellas causas.

Los gestores de seguridad están sometidos a una presión alta cuando hay una manifestación pública de inseguridad o de miedo al delito. Esta presión les impide, a menudo, tener la calma y el tiempo suficientes para analizar la situación adecuadamente y favorece la toma de medidas rutinarias y muy visibles que, aunque no solucionan el problema, sirven para amortiguar la presión pública y política.

La guía La percepción importa pretende precisamente ofrecer criterios sencillos y prácticos para que estas personas encargadas de articular respuestas a las manifestaciones públicas de inseguridad puedan identificar qué medidas urgentes tienen que tomar, a la vez que facilita el análisis en profundidad de la situación y una respuesta más integral con medidas a corto, medio y largo plazo, para evitar la adopción de aquellas que sirven para “distraer” el problema pero que, en el fondo, lo van enquistando.

Una herramienta múltiple

La herramienta consta de cinco documentos que forman parte de una misma estrategia y que pueden ser utilizados juntos o por separado. El cuaderno 1 constituye la guía en sentido estricto, que incorpora las preguntas clave que una persona con responsabilidades en la gestión de la seguridad tiene que hacerse ante un incidente de inseguridad. También contiene las fuentes a las que puede recurrir para informarse adecuadamente. Al final del cuaderno hay una clarificación de conceptos a tener en cuenta a la hora de gestionar crisis de inseguridad subjetiva para conocer con precisión cuáles son sus dinámicas.

El cuaderno 2 nos ayuda a evaluar si nos encontramos ante un incidente que requiere medidas urgentes, inmediatas, a la vez que continuamos con un análisis más global del problema. El documento incluye indicadores para decidir si las medidas urgentes son necesarias o no, así como recomendaciones del tipo de medidas a tomar.

El cuaderno 3 explica, de manera sencilla, varias metodologías de investigación en el campo de las ciencias sociales, con consejos prácticos de cómo tienen que ser gestionadas para obtener la información requerida sin entrar en procedimientos de reflexión interminables. No se trata de un manual de metodología, sino de recomendaciones sobre cómo utilizar algunas de manera simple y útil para mejorar nuestro diagnóstico de inseguridad.

El cuaderno 4 pone a disposición del lector criterios para articular medidas de respuesta a estallidos de inseguridad en virtud de las causas que la han provocado, de manera que la inseguridad pueda ser contenida y revertida. Se presentan medidas de tipo diverso y transversal, así como a corto, medio y largo plazo. También incluye un enlace con documentos que recogen buenas prácticas en este campo.

El cuaderno 5 ofrece, por una parte, pautas para entender la importancia que tiene la comunicación con la ciudadanía en materia de seguridad subjetiva, y por otra, los criterios a seguir para que la comunicación pública consiga efectivamente mejorar la percepción de seguridad de la ciudadanía o, cuando menos, no agravarla en momentos de crisis.

Un proyecto amplio

Esta guía práctica forma parte de la estrategia del proyecto Cutting Crime Impact (CCI), financiado por el programa Horizon 2020 de la Unión Europea, que pretende prevenir la delincuencia ordinaria (toda aquella que no es organizada) y, en caso de producirse, reducir el impacto tanto como sea posible. 

Con este fin, el proyecto trabaja en cuatro ámbitos concretos: la policía predictiva, la policía comunitaria, la prevención del delito a través del diseño ambiental y, finalmente, la percepción de seguridad, que es el área en la que se inscribe la herramienta que hemos presentado. El proyecto tiene la finalidad de elaborar herramientas en estos cuatro ámbitos que puedan ser aplicadas por los actores de seguridad para cumplir los fines del proyecto.

Si quieres acceder a la guía completa y a otros contenidos relacionados con la misma, no dudes en visitar la página web del Departamento de Interior de la Generalitat de Catalunya. Si, en cambio, deseas conocer otros proyectos en el ámbito de la seguridad y la prevención, puedes acceder a la web de FEPSU, donde además encontrarás artículos y recursos sobre temáticas diversas.

Una aplicación móvil para mejorar la seguridad y la prevención

Mantener la convivencia pacífica y favorecer la cohesión social no es un trabajo fácil y siempre supone un reto para las ciudades. Para ello, la tecnología puede ser una herramienta muy útil para favorecer una mejor comunicación entre la ciudadanía, la administración pública y las fuerzas y cuerpos de seguridad. Esta ha sido la apuesta que ha hecho Cornellà de Llobregat, a través de una aplicación móvil de seguridad ciudadana. “Es una herramienta muy útil y fácil de usar para grupos vulnerables, por ejemplo, víctimas de violencia de género o niños que viajan solos”, ha asegurado el alcalde de la ciudad, Antonio Balmón, en una entrevista para Efus. En FEPSU te compartimos los puntos más interesantes de esta iniciativa de este municipio catalán miembro de nuestra red. 

Comunicación inmediata y ágil

La aplicación móvil de seguridad ciudadana de Cornellà de Llobregat surge de una iniciativa conjunta entre el ayuntamiento de la ciudad y la empresa privada Einsmer, en diciembre de 2013. El objetivo del proyecto era simple: poner en marcha una app gratuita que permita una comunicación inmediata y más ágil entre la ciudadanía y las fuerzas de seguridad. 

El resultado ha sido una aplicación muy intuitiva, fácil de usar y accesible para todos, cuyo objetivo es garantizar la seguridad todos los días del año. Esta app utiliza el sistema M7 Citizen Security, el cuál ha sido adoptado ya por 16 municipios españoles. Este sistema se adapta a las particularidades de cada territorio y a las necesidades de cada administración local, gracias a un formato híbrido y una versatilidad que permite su constante evolución y actualización. 

Concretamente, esta aplicación permite a los ciudadanos de Cornellà de Llobregat notificar a la Guardia Urbana de cualquier incidencia que se observe en la ciudad, marcar rápidamente a los números de emergencia, recibir alertas y avisos generales o personalizados, facilitar la localización de personas vulnerables, enviar mensajes de emergencia geolocalizados a la central de mando de la policía local y brindar información pedagógica relacionada con la seguridad preventiva y los primeros auxilios. 

Más cooperación y optimización de recursos

“Consideramos que es una herramienta muy útil que se puede replicar en otros países para promover la colaboración entre las fuerzas policiales locales europeas”, ha señalado el alcalde de Cornellà de Llobregat, Antonio Balmón. Para el edil, el sistema que utiliza esta aplicación permite una cooperación interterritorial que no solo optimiza los recursos y los servicios entre municipios y fuerzas de seguridad, sino que también potencia la cooperación entre administraciones, además de promover el empoderamiento de la ciudadanía. 

El desarrollo y la implementación de esta aplicación móvil responde a la necesidad del municipio de disponer canales de comunicación directos con una respuesta inmediata por parte de la policía local, pero también con los Mossos d’Esquadra y la Policía Nacional. “Nuestro objetivo número uno es garantizar la seguridad de todos los ciudadanos. La aplicación M7 es una herramienta innovadora para una movilidad individual más segura”, ha subrayado Balmón. 

Esta herramienta tecnológica debe entenderse como un complemento al trabajo sostenido que realiza la Guardia Urbana de Cornellà, la cual está regida por el Plan de Seguridad Local (PLASECOR), que incluye acciones de prevención para evitar conflictos antes de que ocurran; promueve la participación de los diferentes actores de seguridad, la asunción de responsabilidades en su implementación y la promoción del trabajo conjunto y transversal con las distintas fuerzas de seguridad y la ciudadanía.

Prevención de la violencia machista

La versatilidad de la app permite adaptarse también a necesidades puntuales o a las nuevas estrategias de abordaje que proponga la administración. Por ejemplo, en 2019 el Ayuntamiento de Cornellà y la empresa Einsmer pusieron en marcha una nueva función de alerta en la aplicación dirigida exclusivamente a dar asistencia a las mujeres en situaciones de violencia machista o que sean víctimas de acoso callejero. 

El sistema funciona con dos niveles de seguridad: el nivel 1 destinado únicamente a mujeres en situación de violencia machista y con órdenes de alejamiento por parte de sus agresores (una alerta que puede activarse incluso sin necesidad de desbloquear el móvil) y un nivel 2 destinado a alertas en la calle, el cual se activa desde la pantalla de inicio del móvil y permite contactar directamente con la central de mando de la Guardia Urbana

En ambos casos, las alertas de seguridad llegan de forma inmediata a la policía local de la ciudad a través de una función de geolocalización y rastreo, la cual activa un protocolo de asistencia y avisa al agente de la policía local que se encuentra más próximo a la persona afectada para atenderla de la manera más rápida posible. Además, los datos del usuario nunca se comparten y solo son visibles para los agentes policiales cuando la ciudadana o el ciudadano piden asistencia. 

Colaboración en red

El Ayuntamiento de Cornellà de Llobregat acaba de unirse recientemente a la red de municipios de Efus y FEPSU, para poder compartir iniciativas como esta con otras ciudades españolas y europeas. “Siempre es un valor agregado compartir experiencias, iniciativas y proyectos con pares. Trabajar de manera transversal beneficia a todos los involucrados y aporta nuevas perspectivas y enfoques que benefician a los ciudadanos”. ha afirmado Balmón. 

Cornellà es una ciudad de más de 88.000 habitantes situada cerca de Barcelona, con un alto nivel de movilidad entre los municipios cercanos. Para el alcalde de la ciudad, la principal prioridad de la administración local en materia de seguridad es “salvaguardar la convivencia pacífica y la cohesión social”. Un hecho que les ha llevado a apostar por la forma colaborativa en que se trabaja la prevención y la seguridad urbana desde las redes de municipios y autoridades regionales, como Efus y FEPSU. 

Si quieres conocer más sobre las estrategias de seguridad y prevención que se están desarrollando en Cornellà de Llobregat, incluida la aplicación de seguridad ciudadanaM7 Citizen Security, puedes leer la entrevista que ha brindado el alcalde de la ciudad, Antonio Balmón, al portal de Efus. Si te interesa saber más sobre los proyectos y estrategias que se están llevando a cabo en otras ciudades de España, no dudes en visitar la página web de FEPSU.

A la espera de una ley sobre reconocimiento facial

Unas decenas de académicos, profesionales y activistas de varios ámbitos han pedido al Gobierno español que hasta que no exista una ley que regule las herramientas de reconocimiento facial, no sean utilizadas en el Estado español. La petición llega en un momento en el que ya se está utilizando este tipo de técnicas, tanto en espacios públicos como en entornos privados. En el blog Notes de seguretat de la Generalitat de Catalunya han explicado los argumentos de esta solicitud que pide frenar el uso de la tecnología de reconocimiento facial en España hasta que no exista una regulación específica. En FEPSU te compartimos los puntos clave de esta petición.

Una normativa con garantías

Los firmantes de la petición solicitan una moratoria en el uso y comercialización de sistemas de reconocimiento y análisis facial por parte de empresas públicas y privadas y que las instituciones legislativas europeas debatan qué herramientas y de qué manera, en qué condiciones, con qué garantías y con qué objetivos se tiene que permitir, si cabe, el uso de estos sistemas.

Para los demandantes es preciso que el Gobierno se plantee regular esta tecnología antes de que siga expandiéndose y se convierta en un elemento utilizado y extendido. Es decir, si el reconocimiento facial no se adapta a una ley concreta que asegure el respeto a los derechos de los ciudadanos, temen que sea la ley la que deba adaptarse a las prácticas ya existentes.

Los firmantes se refieren al hecho de que esta tecnología supone una intromisión en la esfera privada de la vida de las personas sin su consentimiento explícito y pone en entredicho cuestiones fundamentales de justicia social, dignidad humana, equidad, igualdad en el trato e inclusión.

Evitar los estereotipos

El uso de programas de análisis facial puede derivar en problemas en el ámbito de los derechos civiles. En concreto, explican que asimilar una persona a un colectivo basándose en sus rasgos o datos biométricos es altamente problemático ya que se perpetúa el estereotipo, en cualquier ámbito. Por ejemplo, que esta persona pueda ser peligrosa o morosa porque otras semejantes a ella lo son es una premisa injusta.

Existen evidencias suficientes que indican que asociar posturas, gestos, rasgos faciales, colores de piel, peinados o prendas a posibles comportamientos problemáticos, capacidades intelectuales o económicas puede resultar en clasificaciones racistas, clasistas o sexistas.

El reconocimiento facial, además, ha comportado en varias ocasiones falsos positivos y falsos negativos, porque depende en gran medida de cómo se entrene la inteligencia artificial y con qué tipo de imágenes. Si se educa con muchas fotografías de hombres blancos o con condiciones de luz específicas, por mencionar dos ejemplos, el análisis facial tenderá a ser menos preciso para las personas negras o con condiciones lumínicas distintas.

Así pues, existe una variada gama de razones –tanto técnicas como éticas– que justifican la creación de una comisión para investigar la necesidad de una moratoria, que se considera imprescindible y urgente. Para concluir, se sugiere que esta comisión sea independiente y esté compuesta por científicos, juristas, expertos en ética e inteligencia artificial y miembros de la sociedad civil, especialmente de aquellos colectivos que pueden verse afectados por estos sistemas.

Si quieres conocer más información sobre la petición de estos expertos y activistas, puedes visitar el blog Notes de seguretat de la Generalitat de Catalunya. Para saber más sobre este y otros temas relacionados con la seguridad urbana y la prevención, no dudes en pasarte por la página web de FEPSU.

La tecnología de sensores portátiles y su potencial para la seguridad

En los últimos años se ha popularizado el uso de dispositivos de tecnología de sensores portátiles, los cuales permiten a las personas y organizaciones rastrear y monitorear las métricas de salud personal en tiempo real. Estos dispositivos aún no están lo suficientemente desarrollados para su uso en las fuerzas y cuerpos de seguridad, pero son una tecnología que avanza rápidamente y ofrece el potencial de equipar a los efectivos y agencias policiales con datos para mejorar la seguridad, la salud y el bienestar de los y las agentes. La RAND Corporation ha publicado un informe sobre los usos potenciales de estos dispositivos portátiles en el ámbito de la seguridad, el cual es el resultado de un grupo de trabajo realizado junto al National Institute of Justice de los Estados Unidos y el Police Executive Research Forum. En FEPSU te compartimos algunas de sus conclusiones. 

Retos y oportunidades

El grupo de trabajo que dio origen a este informe se desarrolló en base a talleres en los que participaron profesionales del ámbito de la seguridad, investigadores y desarrolladores tecnológicos para discutir el estado actual de los dispositivos de tecnología de sensores portátiles, conocidos como WST por sus siglas en inglés (Wearable Sensor Technology). 

Los participantes de los talleres, además, debatieron alrededor de cómo podrían ser aplicadas por las organizaciones encargadas de hacer cumplir la ley este tipo de dispositivos, como las pulseras, las bandas de pecho y tejidos inteligentes, con los que pueden obtenerse biomarcadores relacionados con la salud de los policías, para informar en la toma de decisiones operativas. 

Además, en el proceso de la investigación se discutieron también los posibles problemas con la aceptación de las WST entre los agentes, las nuevas políticas que serán necesarias para la introducción de estas tecnologías en los entornos de aplicación de la ley, y qué datos se recopilan, cómo se recopilan estos datos y cómo se interpretan y utilizan. 

Para elaborar sus conclusiones, el grupo de trabajo partió de cuatro preguntas de investigación: ¿Cuál es el estado actual y en un futuro próximo de la tecnología de sensores portátiles?, ¿qué puntos de intersección existen entre estas tecnologías y los intereses de los cuerpos policiales, tanto para los agentes como para las agencias?, ¿cuáles son los retos específicos que estas tecnologías representan para la privacidad de los datos, sus titulares y la ciudadanía? y ¿cuáles son las cuestiones destacadas asociadas con las tecnologías de sensores ponibles y cómo se dirigen de manera específica?

Incipiente, pero prometedora

La primera conclusión a la que llegó el informe de RAND Corporation es que las tecnologías de sensores portátiles disponibles hoy en día en el mercado no están lo suficientemente desarrollados para fines de aplicación de la ley en general. Los dispositivos comerciales, aunque económicos y portátiles, carecen de la exactitud y precisión necesarias para informar y apoyar la toma de decisiones en el ámbito de la seguridad. Los WST utilizados en entornos médicos, aunque tienen una excelente exactitud y precisión con datos de alta calidad, tienen un costo prohibitivo para una amplia distribución y no son portátiles.

Por estos motivos, el enfoque a corto plazo debe ser el de prepararse para un momento en que la tecnología sea más aplicable a las funciones que desempeñan las fuerzas y cuerpos de seguridad. La clave es obtener la aceptación de los agentes policiales ahora, no para la tecnología actual, sino para los dispositivos desarrollados en el futuro y para los posibles efectos posteriores en el campo a medida que se implementan las WST para apoyar la seguridad y el bienestar de los agentes, la retención de la fuerza laboral, la responsabilidad y otros asuntos.

Actualmente, el panorama que define la intersección entre estas tecnologías y la aplicación de la ley es el de la incertidumbre. La aplicabilidad de las WST al ejercicio de las labores policiales será proporcional a qué tan bien la tecnología puede informar de manera confiable las decisiones sobre las actividades diarias de los agentes. Los dispositivos deben integrarse a la perfección con la tecnología que ya es utilizada por las agencias policiales, las medidas deben ser válidas y confiables, la interpretación de los datos debe ser clara y las políticas deben estar vigentes para administrar y monitorear los datos

En este sentido, las fuerzas del orden deben ser un actor clave en el proceso de desarrollo de las WST. Es posible que las especificaciones necesarias para el uso de estos dispositivos en el ámbito de la seguridad no coincidan con el estándar de la industria comercial, por lo que las agencias policiales deben entablar un diálogo con los fabricantes de las WST para caminar hacia una tecnología más aplicable a este ámbito. 

Recomendaciones para un buen uso 

Finalmente, en el informe se señalan una serie de recomendaciones para favorecer el buen uso de esta tecnología de sensores portátiles por parte de las fuerzas y cuerpos de seguridad. Por un lado, los agentes deben recibir formación sobre los múltiples usos y propósitos de WST y se deben realizar pruebas piloto y recopilar comentarios sobre las experiencias de los y las policías en su uso en las actividades diarias. Los resultados de estas pruebas deberán identificarse en las etapas tempranas del proceso de implementación, para poder corregir los posibles errores o incomodidades. 

Además, se deberán desarrollar e implementar políticas y procesos sobre cuándo y por qué se pueden compartir los datos, los cuales, además, se deberán cifrar en cada capa y con un cifrado de extremo a extremo para garantizar su protección. Esto estará ligado al desarrollo también de un enfoque secuenciado o por fases para llevar la tecnología validada al campo para evaluaciones escalonadas, así como al monitoreo del estado de la investigación, para administrar las expectativas del público y de las agencias de aplicación de la ley.

Finalmente, deberán establecerse también líneas de base individuales para tener en cuenta las diferencias entre individuos, definir un conjunto de mejores prácticas para los dispositivos portátiles de los consumidores y desarrollar orientación y educación sobre cómo interpretar datos y métricas para los usuarios de WST


Si quieres leer el informe completo, puedes acceder a él a través de la página web de RAND Corporation. Si quieres encontrar más información referente al uso de la tecnología en el ámbito de la seguridad y la prevención, puedes visitar el blog de FEPSU, donde además encontrarás distintos proyectos que promueven el uso de estas tecnologías entre las fuerzas y cuerpos de seguridad, en el ámbito local y regional.

Criterios éticos para un buen uso de la IA

El uso de herramientas de inteligencia artificial (IA) en el ámbito de la seguridad urbana es un fenómeno en creciente expansión. Cada vez son más las fuerzas y cuerpos de seguridad que apuestan por estas tecnologías a la hora de mejorar y agilizar su trabajo, ya sea, por ejemplo, en tareas como la detección de matrículas de vehículos o la robotización de ciertas funciones administrativas, entre otras. Sin embargo, el entusiasmo acrítico que genera la IA en algunos operadores dificulta un análisis sosegado sobre la conveniencia de su utilización, sobre todo a la hora de tomar en cuenta los criterios éticos que deben guiar su uso. En este sentido, se hace necesario reflexionar sobre los retos que supone la aplicación de la inteligencia artificial, las cuales pueden transformar el proceso de toma de decisiones operativas en el ámbito de la seguridad en una operación puramente mecánica. 

Estas fueron algunas de las conclusiones a las que se llegaron en la segunda sesión del ciclo de encuentros virtuales participativos sobre “Nuevas tecnologías aplicadas a la seguridad urbana”, que se celebró el 2 de diciembre. Estos webinars son una iniciativa del Foro Español para la Seguridad Urbana (FEPSU). A continuación os compartimos algunas de las consideraciones y puntos de análisis que guiaron el debate:

Usos específicos de la IA

Desde su inicio como disciplina en los años 50, la IA ha buscado utilizar ordenadores para realizar tareas que se relacionan con un comportamiento inteligente: razonar, tomar decisiones, reconocer patrones, resolver problemas matemáticos, etc. Sin embargo, aunque en las últimas dos décadas ha habido un incremento exponencial en la generación de datos y en la potencia de cálculo de los ordenadores, hoy en día este tipo de herramientas son capaces de realizar solamente una única tarea a la vez.

Iniciativas como el proyecto Magneto, financiado por el programa Horizonte 2020 de la Comisión Europea, están desarrollando un motor de correlación que permita la elaboración de hipótesis para la toma de decisiones en la prevención e investigación del crimen organizado, a través de la conjunción de diversas herramientas de IA, como el reconocimiento facial o la transcripción automática de audio a texto. La criminóloga Ainoa Torrado, que trabaja en la implementación de este proyecto en la Policía Municipal de Sabadell, asegura que el uso de estas tecnologías permite a los agentes centrarse más en el análisis de la información que en el tratamiento de los datos y, de esta manera, mejorar la capacidad de investigación y solucionar los delitos de forma más rápida. 

Para el Subdirector del Instituto de Investigación en inteligencia artificial (CSIC-UAB), Felip Manyà, existen áreas específicas de actuación de las agencias de seguridad pública donde hoy en día la utilización de herramientas de inteligencia artificial tienen más potencial, como la videovigilancia, la robótica en entornos de riesgo y el control del tráfico. Sin embargo, para entender mejor la intervención pública con herramientas que utilicen IA hay que ver a estos sistemas como un complemento a la labor policial, antes que como un sustituto. 

Entre la utopía y la distopía

Cuando se habla de los riesgos que puede suponer el uso de la IA, suelen generarse dos tipos de discursos antagónicos: por un lado, una visión optimista que cree que es una tecnología que va a solucionar todos los problemas; por otro lado, una visión pesimista, centrada en la discriminación algorítmica y que ve a la inteligencia artificial como una herramienta para el control y la vigilancia. Según el Director del Centro CRÍMINA de la Universidad Miguel Hernández de Elche, Fernando Miró Llinares, la realidad se sitúa en un punto medio entre estos dos puntos de vista y, por este motivo, para establecer criterios éticos que mejoren la aplicación de la IA en el ámbito de la seguridad primero hay que desmontar los mitos que rodean su uso. 

En primer lugar, hay que tener en cuenta que muchos de los riesgos que supone el uso de la IA, como la discriminación algorítmica, tienen que ver en realidad con la baja calidad de los datos que se usan y no tanto con la herramienta en sí. Muchos datos, por la forma en que fueron recolectados o por la interpretación que se les da antes de introducirlos en el algoritmo, reproducen sesgos que pueden tener consecuencias graves si se utilizan para guiar actuaciones policiales. Es por este motivo que los algoritmos deben poder ser corregibles, para poder reducir el sesgo de sus datos, aunque esto suponga disminuir su capacidad predictiva. 

Aún así, el principal riesgo en el uso de la IA es ahora mismo la violación de la privacidad de la ciudadanía, ya que los sistemas actuales tienen una enorme capacidad de control sobre las personas y reducen a gran escala la libertad individual. Aunque las normativas europeas sobre protección de datos sean más avanzadas que las de otros países como Estados Unidos o China, donde la inteligencia artificial se ha desarrollado más rápidamente; se hace necesario elaborar normas que sean rígidas en la esencia ética de las mismas, pero lo suficientemente flexibles como para permitir dar lugar a las diferentes aplicaciones de la IA que surjan con el tiempo. 

Principios éticos sólidos

Una de las herramientas de inteligencia artificial que más debate ha generado ha sido el reconocimiento facial. Sobre todo porque se ha detectado que su uso por parte de las fuerzas y cuerpos de seguridad muchas veces deriva en una hiperreacción de los agentes frente a las detecciones de esta tecnología, provocando que se centren más en la búsqueda de los delincuentes que en el resto de funciones de la acción policial. Además, también ha provocado un aumento en las detenciones con los mismos sesgos de los datos introducidos en el algoritmo, por ejemplo los sesgos raciales

Por esta razón, Miró Llinares destaca que hay que tener en cuenta los siguientes principios éticos a la hora de poner en marcha una tecnología de IA en la actividad policial: la prohibición de subordinación a la máquina; la supervisión constante de los sistemas de IA por parte de una persona; la prevención del daño que pueda ocasionar su uso; la prohibición de la discriminación como resultado de estos procesos; y, lo más importante, la explicabilidad de su funcionamiento, lo que incluye la obligación de trazabilidad de los datos, la auditabilidad de sus procedimientos y la participación democrática de su uso.

Este último punto, sin embargo, es más difícil de controlar cuando se trata de tecnologías de deep learning, ya que uno de sus problemas es que no tienen capacidad explicativa sobre las decisiones que toman y, por lo tanto, esto puede ser un peligro, ya que si las actuaciones policiales se basan únicamente en sistemas de este tipo, se puede perder la confianza de los ciudadanos y ciudadanas. Por este motivo, en todo uso de la IA se debe exigir la trazabilidad de los datos y debe hacerse una reflexión profunda sobre el uso que se dará a esta información, sin que la predicción signifique una actuación policial inmediata. 

Estas han sido algunas de las principales conclusiones de esta segunda sesión del ciclo de webinars sobre “Nuevas tecnologías aplicadas a la seguridad urbana”, que ha contado con las intervenciones iniciales de Felip Manyà, Subdirector del Instituto de Investigación en inteligencia artificial (CSIC-UAB); Fernando Miró Llinares, Catedrático de Derecho Penal de la Universidad Miguel Hernández de Elche y Director del Centro CRÍMINA para el estudio y prevención de la delincuencia; y Ainoa Torrado, Criminóloga participante del proyecto Magneto de la iniciativa Horizonte 2020 de la Comisión Europea. La conversación ha sido moderada por Francesc Guillén Lasierra, jurista, criminólogo y estudioso de las políticas públicas de seguridad. 

Encontrarás el relato completo de la jornada en el siguiente enlace.

Documentos compartidos

El proyecto europeo MAGNETO (H2020), una aplicación práctica del uso de la inteligencia artificial en la seguridad. Presentación de Ainoa Torrado.

Hacia un uso (y diseño) ético de la IA en la seguridad ciudadana. Presentación de Fernando Miró Llinares

El futuro de la IA: hacia inteligencias artificiales realmente inteligentes. Artículo de Ramón López de Mántaras.

Estrategia española de I+D+I en inteligencia artificial. Ministerio de Ciencia, Innovación y Universidades, 2019.

Amenazas de la inteligencia artifical. Blog del Departament d’Interior de la Generalitat de Catalunya, 2020.

Inteligencia artificial: un arma de doble filo

La inteligencia artificial (IA) puede ser una herramienta muy útil para la seguridad urbana. Esta tecnología se utiliza para usos que van desde el software de lectura de matrículas de vehículos, hasta el reconocimiento facial y otras aplicaciones relacionadas con la vigilancia policial predictiva. Pero esta herramienta también está siendo cada vez más utilizada por ciberdelincuentes, quienes se aprovechan de su uso para encontrar nuevas formas de amenazar y atacar la seguridad de los sistemas informáticos de la ciudadanía y de las instituciones. Así lo establece un informe recientemente publicado por la ONU y la Europol, del que te compartimos en FEPSU algunas de sus principales conclusiones. 

Potenciar el uso positivo de la IA

El pasado 19 de noviembre se publicó un documento elaborado conjuntamente por Europol, el Instituto Interregional de Investigación sobre Justicia y Crimen (UNICRI) de las Naciones Unidas y Trend Micro que analiza los usos delictivos actuales y previstos de la IA. Este informe proporciona información sobre ataques existentes y potenciales que aprovechan la inteligencia artificial y recomendaciones para las administraciones, fuerzas y cuerpos de seguridad, legisladores y otras instituciones sobre cómo mitigar estos riesgos.

“La IA promete al mundo una mayor eficiencia, automatización y autonomía. En un momento en el que el público está cada vez más preocupado por el posible uso indebido de la IA, tenemos que ser transparentes sobre las amenazas, pero también analizar los beneficios potenciales de la tecnología de IA», asegura Edvardas Šileris, director del Centro Europeo de Ciberdelincuencia de Europol. “Este informe nos ayudará no solo a anticipar posibles usos maliciosos y abusos de la IA, sino también a prevenir y mitigar esas amenazas de manera proactiva. Así es como podemos desbloquear el potencial que tiene la IA y beneficiarnos del uso positivo de los sistemas de IA», agrega Šileris. 

La IA como objetivo y como medio

El informe concluye que los ciberdelincuentes aprovecharán la IA como vector de ataque y como superficie de ataque, es decir como medio y como objetivo para conseguir sus fines criminales. Las falsificaciones profundas (deep fake) son actualmente el uso más conocido de la IA como vector de ataque. Sin embargo, el informe advierte que se necesitará nueva tecnología de detección en el futuro para mitigar el riesgo de campañas de desinformación y extorsión, así como las amenazas que apuntan a conjuntos de datos de IA.

En este sentido, personas con el objetivo de realizar un crimen podrían utilizar esta tecnología para desarrollar convincentes ataques de ingeniería social a gran escala o malware de raspado de documentos, para hacer que los ataques sean más eficientes. Por otro lado, la IA podría respaldar la evasión de reconocimiento de imágenes y biometría de voz; los ataques de ransomware, mediante la evasión y la focalización inteligente; o la contaminación de datos, mediante la identificación de puntos ciegos en las reglas de detección. Además, el informe también advierte que se están desarrollando sistemas de IA para mejorar la efectividad del malware y para interrumpir los sistemas de reconocimiento facial y anti-malware.

“A medida que las aplicaciones de inteligencia artificial comienzan a tener un gran impacto en el mundo real, se hace evidente que esta será una tecnología fundamental para nuestro futuro”, afirma Irakli Beridze, director del Centro de Inteligencia Artificial y Robótica de UNICRI. “Sin embargo, así como los beneficios para la sociedad de la IA son muy reales, también lo es la amenaza del uso malintencionado», apunta también Beridze.

Prepararse ante las amenazas

Desde las instituciones como Europol y UNICRI advierten que los ciberdelincuentes siempre han sido los primeros en adoptar la última tecnología, algo que sucede también con la IA. “Como revela este informe, ya se está utilizando para adivinar contraseñas, romper CAPTCHA y clonar voz, y hay muchas más innovaciones maliciosas en proceso”, explica Martin Roesler, jefe de investigación de amenazas prospectivas de Trend Micro, empresa lider en sistemas de ciberseguridad. En este sentido, desde las organizaciones que han participado en la elaboración de este informe, se proponen varias recomendaciones para evitar los estragos que podría ocasionar el uso de la inteligencia artificial con fines criminales. 

Por un lado, aprovechar el potencial de la IA como herramienta de lucha contra el crimen para preparar la industria y la policía de la ciberseguridad para el futuro y continuar con la investigación sobre las posibilidades de la inteligencia artificial para estimular el desarrollo de tecnología defensiva. Para conseguir esto, se deberán promover y desarrollar marcos de diseño de IA seguros y hacer campañas de comunicación par reducir la retórica políticamente cargada sobre el uso de la inteligencia artificial con fines de ciberseguridad. Finalmente, será un factor clave la cooperación entre asociaciones público-privadas y el establecimiento de grupos de expertos multidisciplinarios.

Debates éticos: la máquina contra el humano

Por otro lado, a los aspectos mencionados por el informe de la ONU y EUROPOL, habría que agregar que el uso de la IA por parte de las fuerzas y cuerpos de seguridad supone también el planteamiento de ciertos debates éticos en el uso de algoritmos y máquinas para vigilar y perseguir a seres humanos. Sobre todo, el uso de software de reconocimiento facial supone el peligro de que la tecnología pueda equivocarse o no ser neutral en el perfilamiento de las personas que reconoce. En este sentido, las decisiones que toma esta tecnología, ¿deben gozar de presunción de veracidad? Si no es así, ¿qué instrumentos habría que establecer para prevenir o controlar los posibles errores que se cometan?

Como toda tecnología, su uso debería limitarse a ser un apoyo o una herramienta para la actuación humana en la seguridad urbana, pero jamás debería ser un sustitutivo de esta. Además, se deberían establecer los términos en los que hay que situar la rendición de cuentas en intervenciones llevadas a cabo siguiendo los dictados de estos algoritmos. 

Estos y otros debates serán los que abordaremos en la segunda sesión del ciclo de encuentros virtuales sobre “Nuevas tecnologías aplicadas a la seguridad urbana”, donde además reflexionaremos sobre las potencialidades de la inteligencia artificial para la prevención y la seguridad, así como sus posibles riesgos y amenazas en manos de organizaciones y personas con fines delictivos. Se trata de una actividad gratuita, organizada por FEPSU, que se celebrará el miércoles 2 de diciembre de 2020, de 12h30 a 14h, a través de Zoom. Inscríbete en este enlace

Para acceder al informe completo elaborado por Europol, UNICRI y Trend Micro, puedes visitar el siguiente enlace.

Los drones en la seguridad: retos y necesidades

Los usos que se puede dar y que se están dando ya a los drones en materia de seguridad urbana son muy variados. Desde la protección del medio ambiente o el apoyo en el control de incendios, hasta la gestión de aforos en eventos multitudinarios o el monitoreo del cumplimiento de las medidas sanitarias en una pandemia. Pero al mismo tiempo que avanza el empleo de esta tecnología por parte de las fuerzas y cuerpos de seguridad, también se acelera su utilización por parte de particulares y actores privados. Esto, en ciertas ocasiones, puede suponer peligros para la seguridad de las ciudades, lo que obliga a trabajar para obtener mecanismos de protección y normativas que sean más efectivas a la hora de garantizar el uso responsable y cívico de estos dispositivos. 

Estas fueron algunas de las conclusiones a las que se llegaron en la primera sesión del ciclo de encuentros virtuales participativos sobre “Nuevas tecnologías aplicadas a la seguridad urbana”, que se celebró el 18 de noviembre. Estos webinars son una iniciativa del Foro Español para la Seguridad Urbana (FEPSU). A continuación os compartimos algunas de las consideraciones y puntos de análisis que guiaron este primer debate:

Una herramienta versátil

Algunas policías locales de España, como la de Madrid, han adoptado ya a los drones como una herramienta versátil en la gestión de la seguridad. Cada vez son más los ámbitos en los que estos dispositivos pueden apoyar la labor de las fuerzas y cuerpos de seguridad. Por ejemplo, en el contexto actual, con las restricciones de movilidad y reunión por la pandemia del coronavirus, el uso de estas aeronaves se ha intensificado en el control del cumplimiento de las medidas sanitarias y de los aforos en los espacios públicos. 

El Intendente jefe de la Unidad de Rondas de la Policía Local de Madrid, Francisco Javier Espinosa Gómez, ha señalado que la intención es que se puedan desarrollar nuevos software para ampliar el alcance de estos dispositivos en un futuro cercano; por ejemplo permitiendo la lectura de matrículas de vehículos, la recogida de muestras de vertidos, el cálculo de la asistencia a eventos y manifestaciones, o el no exento de polémica software de reconocimiento facial. Sin embargo, algunos de estos nuevos usos requerirán de una ampliación de las normativas referentes a la aplicación de estas tecnologías en la seguridad urbana, para no interferir con los derechos a la privacidad y a la protección de datos.

Ampliar la regulación del uso

Actualmente la única normativa existente para el uso de los drones por parte de las fuerzas y cuerpos de seguridad es la legislación estatal, recogida en el Real Decreto 1036/2017, según ha explicado la profesora de Derecho Internacional Privado de la Universidad Carlos III, María José Castellanos Ruiz. El nuevo Reglamento Europeo 2019/947, que regula el uso de los drones en la Unión Europea, entrará en vigor en enero, pero no será de aplicación a servicios militares ni de seguridad pública, únicamente para el uso privado.

La principal aportación de esta nueva normativa europea es la categorización de los drones en tres estratos, dependiendo de su tamaño y de las exigencias que regulan su uso. De esta manera, se separa aquellos drones menores de 25 kg, que no necesitarán de ningún tipo de permiso para su utilización, de aquellos con un mayor peso, que requerirán certificaciones y autorizaciones por parte de las autoridades de seguridad aérea competentes, dependiendo del tipo de uso que se les de. 

Aún así, queda pendiente el desarrollo de normativas europeas específicas para la aplicación de estas aeronaves en la gestión de la seguridad urbana o en lo que respecta a la regulación de la captación, almacenamiento y disposición de las imágenes y datos que recopilan estos dispositivos.

Crear redes de protección

El nuevo reglamento europeo busca poner más control sobre el uso privado de los drones, para evitar los riesgos que puede suponer para la seguridad el uso de esta tecnología en las manos equivocadas. Sin embargo, estas normativas deben ir acompañadas por sistemas eficientes para detectar posibles amenazas y prevenir su uso para fines criminales. Hoy en día, existen diversos sistemas de detección de los drones, que utilizan tecnologías, como la radiofrecuencia, el radar o la detección combinada con cámaras térmicas. 

El Jefe de la Unidad Técnica de Seguridad Aérea de los Mossos d’Esquadra, Xavier Moya García, ha destacado, además, que en Catalunya se utilizan diversas medidas de inhibición de estos dispositivos, desde la interferencia de la comunicación entre la aeronave y el mando a distancia a través de radiofrecuencias (jamming), hasta una tecnología aún incipiente que permite tomar control del dispositivo y redirigirlo (hacking). 

Moya García ha subrayado que el alto coste de estos sistemas y su rápida obsolescencia hace que sea más eficiente constituir redes territoriales de protección, en las que se usen el mismo sistema, para conseguir una mejor protección ante posibles amenazas que la que se conseguiría si cada municipio instala su propio sistema. Esto exige un alto nivel de colaboración entre administraciones y entre las diversas fuerzas y cuerpos de seguridad, para conseguir generar recursos y políticas preventivas que consigan resultados óptimos. 

Estas han sido algunas de las principales conclusiones de esta primera sesión del ciclo de webinars sobre “Nuevas tecnologías aplicadas a la seguridad urbana”, que ha contado con las intervenciones iniciales de Francisco Javier Espinosa Gómez, Intendente jefe de la Unidad de Rondas de la Policía local de Madrid; María José Castellanos Ruiz, Profesora de Derecho Internacional Privado de la Universidad Carlos III; Xavier Moya García, Jefe de la Unidad Técnica de Seguridad Aérea de la Policía de la Generalitat de Catalunya-Mossos d’Esquadra. La conversación ha sido moderada por Francesc Guillén Lasierra, jurista, criminólogo y estudioso de las políticas públicas de seguridad. 

Encontrarás el relato completo de la jornada en el siguiente enlace.

En este enlace compartimos la presentación de Mª José Castellanos Ruíz

Además, te recordamos que el próximo 2 de diciembre a las 12.30 h tendrá lugar el segundo de estos encuentros virtuales participativos, en el que abordaremos las aplicaciones de la inteligencia artificial en el ámbito de la seguridad ciudadana. Consulta el programa completo en la página web de FEPSU.