Sesión interna: «Smart cities y seguridad»

smart cities y seguridad

Smart cities: una cuestión a tratar

¿Cómo podemos aplicar la tecnología a la gestión de la seguridad de las ciudades? ¿Qué retos pueden surgir de implementar herramientas tecnológicas? En un mundo con una evolución tecnológica cada vez más acelerada, responder a estas cuestiones resulta clave para promover una ciudad segura aprovechando el potencial que la tecnología nos brinda.

Por ello, el FEPSU celebró el pasado día 30 de marzo en Gandía una sesión interna de presentación de proyectos bajo la temática de smart cities y seguridad. El objetivo de esta jornada fue el de poder compartir proyectos que utilicen herramientas tecnológicas para la gestión de la seguridad de las ciudades – por ejemplo, facilitando la detección de delitos o la toma de decisiones ante situaciones de alerta -, así como debatir sobre los retos y dificultades a los que debemos hacer frente cuando implementamos dichas herramientas tecnológicas.

En el FEPSU hemos tratado esta temática en anteriores ocasiones, por ejemplo, en el webinar «Nuevas tecnologías aplicadas a la seguridad urbana», en el que también se debatió sobre la tecnología aplicada a la seguridad, así como hemos publicado artículos sobre tecnología y seguridad en nuestro blog.

Avances tecnológicos aplicados a la seguridad

Entre los proyectos que se presentaron se pueden destacar el uso de cámaras de seguridad, inteligencia artificial, estrategias de digitalización o del análisis de datos para la toma de decisiones en el campo de la seguridad pública. Todos ellos abren nuevas posibilidades de gestionar la seguridad de una forma más eficiente y efectiva, aplicando al trabajo diario la tecnología existente en la actualidad.

Con este jornada, el FEPSU se pone a la vanguardia en el campo de las smart cities y seguridad y pone el foco en el sector tecnológico, un campo en expansión y que en los próximos años seguirá ganando presencia en el campo de la seguridad.

Programa:

Presentación – 16:00

 

    • José Martínez Espasa, comisario principal jefe de la Policía Local de Gandía

    • Pablo Enrique Rodríguez Pérez, director general de la Policía Municipal de Madrid

    • Àngels Vila Muntal, delegada del FEPSU

Bloque 1: La digitalización en la labor policial – 16:30

 

    • ESTRATEGIA DE TRANSFORMACIÓN DIGITAL DE LA POLICÍA MUNICIPAL DE MADRID – Madrid. Segundo Sánchez Moreno, Delegado Digital del Área de Gobierno de Portavoz, Seguridad y Emergencias.

    • SMART CITIES Y POLICÍA LOCAL: EL ROL DE LA UNIDAD DE DRONES DE LA POLICÍA LOCAL DE GANDÍA – Gandía. José Martínez Espasa, comisario principal jefe de la Policía Local de Gandía

    • APP XÀBIALERTA – Xàbia. José Antonio Monfort, intendente jefe de la Policía Local de Xàbia

    • SMARTPHONES: ACTUALIZACIONES E INNOVACIONES DE FUTURO – Barcelona. Jordi Prellezo, sargento de la Guàrdia Urbana de Barcelona, jefe de la Oficina de Relaciones Institucionales y Comunicación.

Pausa café – 17:35
Visita al Palau Ducal – 18:10

Bloque 2: El análisis de datos para la toma de decisiones – 18:40

 

    • CCTV INTEGRADAS CON INTELIGENCIA ARTIFICIAL – Madrid. Segundo Sánchez Moreno, Delegado Digital del Área de Gobierno de Portavoz, Seguridad y Emergencias

    • LA INTELIGENCIA EN LOS DATOS – Sant Boi de Llobregat. Albert Vilatarsana, jefe del Área de Seguridad Pública, Cristina Muñoz, concejal de Seguridad Pública y Josep Manuel Domínguez, coordinador del servicio de Policía Local.

Bloque 3: Tecnología aplicada al tráfico y a la Seguridad vial – 19:15

 

    • REGISTRADOR DE DATOS DE INCIDENTES (EDR) – Barcelona. Jordi Prellezo, sargento de la Guàrdia Urbana de Barcelona, jefe de la Oficina de

    • Relaciones Institucionales y Comunicación

    • CÁMARAS ALPR. LECTORES DE MATRÍCULAS – Barcelona. Jordi Prellezo, sargento de la Guàrdia Urbana de Barcelona, jefe de la Oficina de Relaciones Institucionales y Comunicación

Cierre de la sesión – 19:45

 

    • Àngels Vila Muntal, delegada del FEPSU.

Presentación sobre el uso de drones en la gestión de diferentes riesgos para la seguridad.

Ciudadanía y policía, conectada a través del móvil

La tecnología ofrece nuevas posibilidades para facilitar la comunicación entre la ciudadanía y las fuerzas y cuerpos de seguridad. Por este motivo, la Policía Local de Xàbia ha puesto en marcha la app ‘Xàbia Alerta’, que tiene por objetivo reducir el tiempo de respuesta de los agentes ante una situación de inseguridad, además de permitir franquear las barreras idiomáticas cuando estas existan. Para la localidad valenciana se trata de un nuevo paso hacia adelante en la meta de conseguir una policía de mayor proximidad y con vías amplificadas de comunicación bidireccional entre ciudadano y agente. En FEPSU te explicamos cuáles son los beneficios del uso de esta tecnología para el mantenimiento de la seguridad urbana y la prevención del delito

Una aplicación intuitiva y segura

De entre todas las funcionalidades que tiene la aplicación móvil ‘Xàbia Alerta’ se encuentra la posibilidad de que particulares o comercios puedan contactar con la policía local cuando se experimente una situación de peligro, así como mandar avisos en el caso de que sea testimonio de un posible delito. Para ello, la aplicación tiene predeterminados seis tipos distintos de alertas: agresión sexista, emergencia médica, robo, incendio, botón del pánico (para otros delitos) y contacto directo con el 112.

Estas tres funcionalidades están debidamente identificadas por un ícono de fácil reconocimiento y se muestran en la pantalla principal de la aplicación una vez registrado el usuario. En este sentido, uno de los aspectos que aseguran la seguridad del uso de la propia aplicación es que antes de que esté operativo el usuario –sea particular o comercio–, la policía deberá validar el perfil, para evitar así posibles usos indebidos de la herramienta. Para la creación de cada usuario se necesitan datos básicos como nombre completo, DNI, dirección y el número de teléfono, que será el dato identificativo de cada usuario.

La aplicación ha sido desarrollada por la empresa Goil con el objetivo de que su uso sea intuitivo y apto para todos los públicos. Una vez seleccionado el aviso, de entre las seis opciones que se presentan en la pantalla principal de la app, la alerta tarda tan solo un segundo en llegar al ordenador de control de retén, que es el que se encarga de gestionar la incidencia, ampliar la información con el teléfono que tenga registrado y enviar a la patrulla indicada para dar respuesta a su situación. 

Desde el Ayuntamiento de Xàbia destacan que una de las principales ventajas de utilizar la app es que con su uso se evitan esperas si la centralita está ocupada y, si se tiene activa la geolocalización, se evita tener que explicar el lugar del incidente; con lo que la actuación es más rápida. Además, la aplicación está disponible para descarga gratuita en cualquiera de las principales tiendas de app móviles. 

Múltiples ventajas

Otra de las principales ventajas que ofrece la app ‘Xàbia Alerta’ es que permite trasladar incidencias en la vía pública durante las 24 horas del día, desde averías en el alumbrado y desperfectos en señalética o mobiliario público, hasta otras situaciones que puedan afectar la seguridad en los espacios públicos. Además, permite a la propia policía lanzar y hacer llegar directamente a las personas o comercios suscritos avisos sobre temas de seguridad, tráfico o emergencias.

Para protegerse de posibles malas praxis y proteger también la privacidad de los usuarios, la app funciona únicamente cuando el móvil se encuentra dentro del término municipal. Solo hay una única excepción y es con el botón para contactar el número de emergencias 112, el cual siempre estará disponible. La app cumple con todas las garantías de protección de datos, pues no permite a la policía local saber la ubicación del usuario excepto cuando este envía un aviso.

La aplicación, por otro lado, tiene también funcionalidades a nivel interno para la Policía Local de Xàbia, permitiendo la transmisión de información entre la plantilla y posibilitando un fácil análisis de datos o el mapeo de las incidencias para que así la policía pueda planificar acciones de prevención o disuasorias. La app, además, facilita la comunicación entre agentes y ciudadanía, pues se instala en el idioma en que se encuentra configurado el móvil y de esta manera se rompen las barreras idiomáticas que puedan existir. 

En FEPSU hemos abordado en distintas ocasiones las posibilidades que ofrecen las aplicaciones móviles de seguridad para mejorar la rapidez de actuación de la policía en el ámbito local. En este artículo explicamos cuáles son los beneficios y las limitaciones de las app de seguridad, señalando que pueden ayudar y empoderar a las víctimas de diferentes formas, a pesar de que hay que prestar mucha atención y abordar debidamente los peligros éticos y referentes a la protección de datos que pueden suponer su uso. También hemos expuesto casos de éxito, como el de la aplicación móvil de seguridad ciudadana de Cornellà de Llobregat, que utiliza el sistema M7 Citizen Security, el cuál ha sido adoptado ya por 17 municipios de la provincia de Barcelona y cuenta ya con más de 100.000 usuarios. 

Síguenos en Twitter y Facebook para estar al tanto de los debates actuales sobre estas y otras temáticas relacionadas con la seguridad urbana y la prevención.

Aplicaciones móviles de alerta de delitos: beneficios y limitaciones

En seguridad urbana, la tecnología se puede utilizar para promover un modelo de seguridad integrado, en el que la misma se coproduce con la ciudadanía. La población suele participar a través de las redes sociales en sus diversas formas: plataformas, redes, aplicaciones o servicios de mensajería. También existen aplicaciones móviles de alerta de delitos, que funcionan de diferentes formas y para distintos propósitos. Algunas tienen como objetivo recopilar información sobre los niveles de criminalidad en una ciudad y ofrecer orientación general a las víctimas. Otras se centran en delitos específicos, como delitos de odio o violencia contra la mujer. Por otro lado, algunas ofrecen un canal de comunicación directo con los servicios de la policía local o con instancias de apoyo a las víctimas, mientras que otros solo ofrecen apoyo entre pares. El proyecto Cutting Crime Impact (CCI) ha recopilado distintas iniciativas de este estilo en una guía informativa, para analizar su impacto en las realidades locales. En FEPSU te compartimos algunos de los puntos más interesantes de la misma. 

Empoderar e informar

Las aplicaciones de alerta de delitos pueden ayudar y empoderar a las víctimas de diferentes formas. Al aclarar sus derechos legales y proporcionar información sobre los servicios de apoyo a las víctimas y los posibles pasos siguientes, estas aplicaciones permiten a la ciudadanía tomar una decisión informada con respecto a sus opciones. Pueden ayudarlos a navegar lo que podría ser una red confusa de servicios disponibles para ellos, permitiéndoles tomar el control de la situación. 

Las aplicaciones también pueden empoderar a los grupos discriminados o vulnerabilizados, como los miembros del colectivo LGBTIQ+, para buscar apoyo en casos de violencias o discriminaciones experimentadas y así denunciarlo, si no formalmente a la policía, al menos de forma anónima a través de la aplicación, proporcionando un importante primer paso en el proceso de denuncia antes de acudir a las autoridades.

Información e impacto en políticas públicas 

Además de empoderar y apoyar a las víctimas, las aplicaciones de alerta de delitos pueden ser una fuente de información sobre los tipos de delitos que a menudo no se denuncian. Pueden esclarecer realidades que no se reflejan en las estadísticas oficiales sobre delincuencia. Esto plantea una serie de preguntas: ¿A quién se debe informar de las alertas: a las autoridades locales u otras instancias, como los servicios de apoyo a las víctimas? ¿Cómo pueden los agentes de seguridad locales trabajar en respuestas conjuntas con otros servicios?

Estas aplicaciones pueden también tener impactos en las políticas públicas. Como fuente de información, las aplicaciones de alerta de delitos pueden ayudar a las autoridades a comprender mejor las experiencias de los diferentes colectivos de la comunidad y adaptar sus políticas públicas a las necesidades reales. También puede fomentar respuestas que incluyan a todas las partes interesadas relevantes en la elaboración de soluciones. Además, estas aplicaciones móviles pueden permitir asociaciones con el sector privado e integrar su experiencia en la creación de bases de datos sobre delitos no denunciados. 

Implicaciones sociales y éticas

A pesar de los beneficios que estas aplicaciones, su mal manejo también puede significar consecuencias negativas para la población y para determinados colectivos. Existe el riesgo de que los datos recopilados de las aplicaciones de alerta de delitos se utilicen de formas que lleven a la estigmatización de los vecindarios. Por ejemplo, la idea de utilizar ubicaciones de alerta para crear un «mapa de calor» puede implicar sesgos de varios tipos.

La activación de una alerta puede basarse en una percepción de inseguridad básicamente subjetiva del usuario, más que en una situación objetiva de peligro. Estos sentimientos subjetivos se proyectan en los barrios, ya que lo que una persona encuentra inspirador en un entorno concreto, otra persona puede encontrarlo inseguro y aterrador. Además, estas percepciones de inseguridad pueden estar generadas a partir de prejuicios conscientes o inconscientes, lo que lleva a la discriminación en la recopilación de datos. Una posible falta de diversidad en la base de usuarios de una aplicación puede exacerbar este problema, y existe el peligro de que el tamaño de la muestra de usuarios sea demasiado pequeño para usarse como base para conclusiones generales.

Además, las aplicaciones que dependen de una comunidad abierta de usuarios para recibir y responder a alertas pueden correr el riesgo de ser infiltradas por personas con la intención de robar datos o utilizarlos para cometer delitos. Una mala encriptación puede permitir monitorear las alertas y, por ejemplo, acceder a la ubicación de una víctima en peligro, poniéndola en mayor riesgo.

Por otro lado, existen varios riesgos de protección de datos asociados con las aplicaciones de alerta de delitos. En primer lugar, los usuarios anónimos o pseudoanónimos podrían combinar sus datos con otros conjuntos de datos y registros, lo que podría significar que un usuario no puede permanecer inidentificable cuando lo desee. Los marcos legales existentes, en particular el marco de protección de datos de la UE, no abordan las técnicas de análisis de datos en evolución que podrían llevar a tal compromiso del anonimato. También existe la preocupación de que estas aplicaciones contribuyan a una sutil erosión de la privacidad por parte de la tecnología, ya que algunos pueden argumentar que su seguimiento de la ubicación de los usuarios es una forma de vigilancia.

Buenas prácticas 

A pesar de estas dificultades, el proyecto CCI ha decidido resaltar aquellas aplicaciones que por sus buenas prácticas están teniendo resultados satisfactorios. Una de ellas, por ejemplo, es App-Elles, una app gratuita de seguridad personal contra la violencia de género, desarrollada en 2015 por Resonantes, una organización francesa sin fines de lucro que aborda la violencia contra mujeres y niñas. La aplicación tiene dos propósitos principales: proporcionar ayuda y recursos y proporcionar una funcionalidad de alerta.

En España, en cambio, el Instituto de Derecho y Tecnología de la Universidad Autónoma de Barcelona (UAB) ha desarrollado la aplicación RightsApp, financiada por el programa de Justicia de la Unión Europea. Su principal objetivo es empoderar a los ciudadanos europeos cuando se convierten en víctimas de delitos y ofrece servicios como una conexión directa con los servicios de emergencia, un recopilatorio de información sobre los derechos de las víctimas y la opción de buscar entidades como comisarías, centros de apoyo y consulados, por ciudad, país y tipo de entidad.

En FEPSU hemos abordado en distintas ocasiones las posibilidades de la tecnología para garantizar una buena prevención del delito y un mantenimiento de la seguridad urbana. Por ejemplo, hemos destacado una aplicación móvil para mejorar la seguridad y la prevención impulsada por el Ayuntamiento de Cornellà de Llobregat, hemos analizado cómo usar la tecnología para prevenir amenazas a la seguridad y también hemos abordado los criterios éticos para un buen uso de la inteligencia artificial. Síguenos en Twitter y Facebook para estar al tanto de los próximos artículos, eventos y novedades.

¿Qué sistemas de inteligencia artificial estarán prohibidos en Europa?

La Unión Europea quiere dar un paso más hacia la regulación de la inteligencia artificial (IA). Como ha adelantado el blog del Departamento de Interior de la Generalitat de Catalunya, Notes de Seguretat, la UE ha propuesto una normativa sobre IA que prohibe el uso del reconocimiento facial para la vigilancia y los algoritmos que manipulen el comportamiento humano. El objetivo de esta nueva normativa es evitar el desarrollo de tecnología que pueda ser considerada de alto riesgo para la población. En FEPSU te explicamos los puntos clave de esta propuesta de legislación europea y cómo puede afectar al uso de la tecnología en materia de seguridad y prevención

Prohibiciones y limitantes

Entre los sistemas de IA que están prohibidos por esta nueva normativa europea se incluyen aquellos diseñados o utilizados para manipular el comportamiento, las opiniones o las decisiones humanas, haciendo que una persona se comporte, forme una opinión o tome una decisión en su detrimento. 

También se prohiben aquellos sistemas que se utilicen para vigilar a la población de forma indiscriminada y que se apliquen de manera generalizada, aquellos que se utilicen para puntuar socialmente a la ciudadanía y aquellos que exploten información o realicen predicciones de una persona o grupo de personas con el objetivo de orientar sus vulnerabilidades. 

Antes de la publicación oficial de esta nueva norma en materia de inteligencia artificial, ya se habían filtrado algunas propuestas que prometían reglas más duras para las tecnologías de IA de alto riesgo, entre las cuales se incluían los algoritmos utilizados por la policía

Sin embargo, los expertos dejaron claro que estas reglas eran muy vagas y contenían algunas lagunas. Por este motivo, finalmente han quedado fuera de la limitación la tecnología de inteligencia artificial utilizada por el ejército, así como los sistemas que usan las autoridades en materia de seguridad pública

Un cerco a la IA de alto riesgo

Además de estas prohibiciones, los estados miembros de la UE deberán aplicar una mayor supervisión sobre aquella inteligencia artificial que se considere de alto riesgo, entre los que se encuentran: aquellos que establezcan la prioridad en el envío de servicios de emergencia, aquellos que determinen el acceso o la asignación de personas a institutos educativos, los algoritmos de reclutamiento, los sistemas que evalúan la solvencia crediticia, aquellos que realizan evaluaciones de riesgo individuales y los de predicción del crimen

Las gobiernos y administraciones deberán nombrar órganos de evaluación para probar, certificar e inspeccionar todos aquellos sistemas de IA que por su funcionalidad y alcance puedan suponer un atentado para la libertad y los derechos de la ciudadanía. Por otro lado, cualquier empresa que desarrolle servicios de inteligencia artificial que estén prohibidos o que no proporcione la información correcta sobre estos podría recibir multas de hasta el 4% de sus ingresos globales. 

Para hacer frente a los riesgos que suponen los nuevos sistemas de IA, la UE propone que estos incluyan un botón o algún otro procedimiento que permita apagar el sistema al instante, si fuera necesario. Además, todos estos sistemas deberán tener una supervisión humana y no podrán ser completamente autónomos. 

Con esta legislación se espera que la Unión Europea pueda garantizar la seguridad de la ciudadanía, al mismo tiempo que no se impide la competencia de las empresas tecnológicas europeas con la de países como Estados Unidos y China.

Mayor transparencia y confianza

A principios de mayo, el grupo de trabajo de Efus sobre seguridad e innovación organizó una conferencia web en la que, entre otras cosas, se debatió alrededor de esta propuesta legislativa de la UE sobre el uso de la inteligencia artificial

En este encuentro, en el que participaron representantes de distintas ciudades europeas, así como académicos e investigadores, se dejó claro que este tipo de tecnologías no solo suponen riesgos para la población, sino también oportunidades en el ámbito de la seguridad urbana; por ejemplo a través de softwares que ayuden en la búsqueda de personas desaparecidas o que permitan procesar grandes cantidades de datos para agilizar las tareas administrativas diarias. 

Sin embargo, para evitar los posibles peligros que pueda ocasionar los sistemas de IA, por su falta de transparencia y de trazabilidad de los datos, hace falta tomar una serie de medidas que ayuden también a generar confianza de cara al público. 

En este sentido, por ejemplo, se expusieron los casos de Amsterdam y Helsinki, ciudades que han desarrollado instrumentos para fomentar la confianza y la transparencia, a través de los cuales se requiere que los proveedores proporcionen información sobre las suposiciones y elecciones realizadas en el desarrollo de los algoritmos, así como que describan claramente las medidas tomadas para garantizar la integridad de los conjuntos de datos. 

En estas ciudades europeas se han creado también sitios web accesibles a toda la población, que explican cómo funcionan los algoritmos, qué datos utilizan y qué planes de gestión de riesgos existen para mitigar la posible discriminación. Estos instrumentos de explicabilidad son un ejemplo de cómo comunicarse con los usuarios y ser transparentes sobre los riesgos potenciales. 

Además de estas medidas, es importante que los representantes de las ciudades y otras autoridades locales también sean incluidos en los procesos de desarrollo e innovación de nuevas herramientas de IA, compartiendo sus necesidades sobre el terreno y las mejores prácticas para fomentar el compromiso y la aceptación de la comunidad.

Si quieres conocer más acerca de la nueva normativa sobre inteligencia artificial que ha propuesto la Unión Europea, puedes visitar el blog Notes de Seguretat, del Departamento de Interior de la Generalitat de Catalunya. En cambio, si deseas conocer a fondo los debates y propuestas que se dieron en el grupo de trabajo de Efus sobre seguridad e innovación, puedes leer el resumen de la jornada en este enlace. Para estar al tanto de la actualidad sobre el uso de la tecnología en materia de seguridad urbana y prevención, no te olvides de visitar la página web de FEPSU.

Una aplicación móvil para mejorar la seguridad y la prevención

Mantener la convivencia pacífica y favorecer la cohesión social no es un trabajo fácil y siempre supone un reto para las ciudades. Para ello, la tecnología puede ser una herramienta muy útil para favorecer una mejor comunicación entre la ciudadanía, la administración pública y las fuerzas y cuerpos de seguridad. Esta ha sido la apuesta que ha hecho Cornellà de Llobregat, a través de una aplicación móvil de seguridad ciudadana. “Es una herramienta muy útil y fácil de usar para grupos vulnerables, por ejemplo, víctimas de violencia de género o niños que viajan solos”, ha asegurado el alcalde de la ciudad, Antonio Balmón, en una entrevista para Efus. En FEPSU te compartimos los puntos más interesantes de esta iniciativa de este municipio catalán miembro de nuestra red. 

Comunicación inmediata y ágil

La aplicación móvil de seguridad ciudadana de Cornellà de Llobregat surge de una iniciativa conjunta entre el ayuntamiento de la ciudad y la empresa privada Einsmer, en diciembre de 2013. El objetivo del proyecto era simple: poner en marcha una app gratuita que permita una comunicación inmediata y más ágil entre la ciudadanía y las fuerzas de seguridad. 

El resultado ha sido una aplicación muy intuitiva, fácil de usar y accesible para todos, cuyo objetivo es garantizar la seguridad todos los días del año. Esta app utiliza el sistema M7 Citizen Security, el cuál ha sido adoptado ya por 16 municipios españoles. Este sistema se adapta a las particularidades de cada territorio y a las necesidades de cada administración local, gracias a un formato híbrido y una versatilidad que permite su constante evolución y actualización. 

Concretamente, esta aplicación permite a los ciudadanos de Cornellà de Llobregat notificar a la Guardia Urbana de cualquier incidencia que se observe en la ciudad, marcar rápidamente a los números de emergencia, recibir alertas y avisos generales o personalizados, facilitar la localización de personas vulnerables, enviar mensajes de emergencia geolocalizados a la central de mando de la policía local y brindar información pedagógica relacionada con la seguridad preventiva y los primeros auxilios. 

Más cooperación y optimización de recursos

“Consideramos que es una herramienta muy útil que se puede replicar en otros países para promover la colaboración entre las fuerzas policiales locales europeas”, ha señalado el alcalde de Cornellà de Llobregat, Antonio Balmón. Para el edil, el sistema que utiliza esta aplicación permite una cooperación interterritorial que no solo optimiza los recursos y los servicios entre municipios y fuerzas de seguridad, sino que también potencia la cooperación entre administraciones, además de promover el empoderamiento de la ciudadanía. 

El desarrollo y la implementación de esta aplicación móvil responde a la necesidad del municipio de disponer canales de comunicación directos con una respuesta inmediata por parte de la policía local, pero también con los Mossos d’Esquadra y la Policía Nacional. “Nuestro objetivo número uno es garantizar la seguridad de todos los ciudadanos. La aplicación M7 es una herramienta innovadora para una movilidad individual más segura”, ha subrayado Balmón. 

Esta herramienta tecnológica debe entenderse como un complemento al trabajo sostenido que realiza la Guardia Urbana de Cornellà, la cual está regida por el Plan de Seguridad Local (PLASECOR), que incluye acciones de prevención para evitar conflictos antes de que ocurran; promueve la participación de los diferentes actores de seguridad, la asunción de responsabilidades en su implementación y la promoción del trabajo conjunto y transversal con las distintas fuerzas de seguridad y la ciudadanía.

Prevención de la violencia machista

La versatilidad de la app permite adaptarse también a necesidades puntuales o a las nuevas estrategias de abordaje que proponga la administración. Por ejemplo, en 2019 el Ayuntamiento de Cornellà y la empresa Einsmer pusieron en marcha una nueva función de alerta en la aplicación dirigida exclusivamente a dar asistencia a las mujeres en situaciones de violencia machista o que sean víctimas de acoso callejero. 

El sistema funciona con dos niveles de seguridad: el nivel 1 destinado únicamente a mujeres en situación de violencia machista y con órdenes de alejamiento por parte de sus agresores (una alerta que puede activarse incluso sin necesidad de desbloquear el móvil) y un nivel 2 destinado a alertas en la calle, el cual se activa desde la pantalla de inicio del móvil y permite contactar directamente con la central de mando de la Guardia Urbana

En ambos casos, las alertas de seguridad llegan de forma inmediata a la policía local de la ciudad a través de una función de geolocalización y rastreo, la cual activa un protocolo de asistencia y avisa al agente de la policía local que se encuentra más próximo a la persona afectada para atenderla de la manera más rápida posible. Además, los datos del usuario nunca se comparten y solo son visibles para los agentes policiales cuando la ciudadana o el ciudadano piden asistencia. 

Colaboración en red

El Ayuntamiento de Cornellà de Llobregat acaba de unirse recientemente a la red de municipios de Efus y FEPSU, para poder compartir iniciativas como esta con otras ciudades españolas y europeas. “Siempre es un valor agregado compartir experiencias, iniciativas y proyectos con pares. Trabajar de manera transversal beneficia a todos los involucrados y aporta nuevas perspectivas y enfoques que benefician a los ciudadanos”. ha afirmado Balmón. 

Cornellà es una ciudad de más de 88.000 habitantes situada cerca de Barcelona, con un alto nivel de movilidad entre los municipios cercanos. Para el alcalde de la ciudad, la principal prioridad de la administración local en materia de seguridad es “salvaguardar la convivencia pacífica y la cohesión social”. Un hecho que les ha llevado a apostar por la forma colaborativa en que se trabaja la prevención y la seguridad urbana desde las redes de municipios y autoridades regionales, como Efus y FEPSU. 

Si quieres conocer más sobre las estrategias de seguridad y prevención que se están desarrollando en Cornellà de Llobregat, incluida la aplicación de seguridad ciudadanaM7 Citizen Security, puedes leer la entrevista que ha brindado el alcalde de la ciudad, Antonio Balmón, al portal de Efus. Si te interesa saber más sobre los proyectos y estrategias que se están llevando a cabo en otras ciudades de España, no dudes en visitar la página web de FEPSU.

A la espera de una ley sobre reconocimiento facial

Unas decenas de académicos, profesionales y activistas de varios ámbitos han pedido al Gobierno español que hasta que no exista una ley que regule las herramientas de reconocimiento facial, no sean utilizadas en el Estado español. La petición llega en un momento en el que ya se está utilizando este tipo de técnicas, tanto en espacios públicos como en entornos privados. En el blog Notes de seguretat de la Generalitat de Catalunya han explicado los argumentos de esta solicitud que pide frenar el uso de la tecnología de reconocimiento facial en España hasta que no exista una regulación específica. En FEPSU te compartimos los puntos clave de esta petición.

Una normativa con garantías

Los firmantes de la petición solicitan una moratoria en el uso y comercialización de sistemas de reconocimiento y análisis facial por parte de empresas públicas y privadas y que las instituciones legislativas europeas debatan qué herramientas y de qué manera, en qué condiciones, con qué garantías y con qué objetivos se tiene que permitir, si cabe, el uso de estos sistemas.

Para los demandantes es preciso que el Gobierno se plantee regular esta tecnología antes de que siga expandiéndose y se convierta en un elemento utilizado y extendido. Es decir, si el reconocimiento facial no se adapta a una ley concreta que asegure el respeto a los derechos de los ciudadanos, temen que sea la ley la que deba adaptarse a las prácticas ya existentes.

Los firmantes se refieren al hecho de que esta tecnología supone una intromisión en la esfera privada de la vida de las personas sin su consentimiento explícito y pone en entredicho cuestiones fundamentales de justicia social, dignidad humana, equidad, igualdad en el trato e inclusión.

Evitar los estereotipos

El uso de programas de análisis facial puede derivar en problemas en el ámbito de los derechos civiles. En concreto, explican que asimilar una persona a un colectivo basándose en sus rasgos o datos biométricos es altamente problemático ya que se perpetúa el estereotipo, en cualquier ámbito. Por ejemplo, que esta persona pueda ser peligrosa o morosa porque otras semejantes a ella lo son es una premisa injusta.

Existen evidencias suficientes que indican que asociar posturas, gestos, rasgos faciales, colores de piel, peinados o prendas a posibles comportamientos problemáticos, capacidades intelectuales o económicas puede resultar en clasificaciones racistas, clasistas o sexistas.

El reconocimiento facial, además, ha comportado en varias ocasiones falsos positivos y falsos negativos, porque depende en gran medida de cómo se entrene la inteligencia artificial y con qué tipo de imágenes. Si se educa con muchas fotografías de hombres blancos o con condiciones de luz específicas, por mencionar dos ejemplos, el análisis facial tenderá a ser menos preciso para las personas negras o con condiciones lumínicas distintas.

Así pues, existe una variada gama de razones –tanto técnicas como éticas– que justifican la creación de una comisión para investigar la necesidad de una moratoria, que se considera imprescindible y urgente. Para concluir, se sugiere que esta comisión sea independiente y esté compuesta por científicos, juristas, expertos en ética e inteligencia artificial y miembros de la sociedad civil, especialmente de aquellos colectivos que pueden verse afectados por estos sistemas.

Si quieres conocer más información sobre la petición de estos expertos y activistas, puedes visitar el blog Notes de seguretat de la Generalitat de Catalunya. Para saber más sobre este y otros temas relacionados con la seguridad urbana y la prevención, no dudes en pasarte por la página web de FEPSU.

Tecnología y privacidad en tiempos de Covid

La tecnología ha jugado un papel importante en la respuesta a la pandemia de la Covid-19 en todo el mundo. Sobre todo ha predominado el uso de aplicaciones de rastreos de contactos, que brindan beneficios indiscutibles como la precisión, la velocidad y la capacidad de gestionar grandes cantidades de información. Sin embargo, también plantean dudas respecto al respeto de la privacidad y el uso de los datos por parte de estas herramientas y de quienes las manejan. Alrededor de estas cuestiones se debatió el pasado 11 de febrero en el simposio en línea “Los datos y el orden público: de las prácticas descriptivas a las prescriptivas”, organizado por la Universidad de Groningen (Países Bajos) y en el que Efus participó. En FEPSU te compartimos algunas de las principales conclusiones a las que se llegaron en este evento.

Avances tecnológicos en pandemia

Durante el evento, Efus fue la organización encargada de moderar el panel sobre las oportunidades y riesgos del uso de datos por parte de las instituciones públicas, una sesión titulada “Gestión de crisis y protección de datos durante Covid-19”. En ella se profundizó alrededor de muchos de los puntos tratados en las conferencias web organizadas el año pasado por la red sobre la gestión de la crisis sanitaria provocada por el coronavirus

En mayo de 2020, los países europeos apenas habían empezado a desarrollar y probar aplicaciones de rastreo de contactos, y algunos estaban usando drones para monitorear las regulaciones de distancia física. En esos meses, Efus organizó una conferencia web sobre el uso de tecnología para gestionar la pandemia, donde ya se ahondó respecto al impacto que estas podían tener en la privacidad de las personas. 

A finales de 2020, FEPSU también realizó una serie de conferencias web con actores locales y regionales españoles en materia de seguridad urbana, para discutir los retos y beneficios del uso de drones, así como los criterios éticos para un buen uso de la inteligencia artificial por parte de las fuerzas y cuerpos de seguridad. Sin embargo, desde entonces se ha podido constatar una evolución de la tecnología, sobre todo en lo que respecta a la garantía de la protección de datos y las formas en que la percepción pública respecto a ellas ha cambiado. 

La tecnología y su contexto 

En el simposio se analizaron distintos casos del uso de la tecnología para la gestión de la pandemia. La Dra. Angela Daly del Centro Strathclyde de Derecho y Políticas de Internet en Glasgow (Reino Unido) explicó que la aplicación escocesa de rastreo de contactos recibió una aceptación relativamente alta por parte de la población, lo cual ha sido clave para su efectividad. Daly destacó que lograr una alta aceptación entre la ciudadanía solo es posible si existe confianza en el gobierno y sus capacidades de gestión de datos.

Por otro lado, Anis Fuad del Centro para la Sociedad Digital de la Universidad Gadjah Mada en Yogyakarta (Indonesia) comentó que Indonesia había sido testigo de un aumento de la telemedicina debido al nuevo coronavirus. Fuag aseguró que muchas empresas de telemedicina están ampliando sus servicios, lo que plantea la pregunta de cómo continuarán estas iniciativas una vez superada la crisis de la Covid-19 y, específicamente, qué pasará con los datos que se recopilen a través de dichas aplicaciones.

Principios de protección de datos

El Consejo de Europa ha elaborado un informe sobre soluciones digitales para luchar contra la Covid-19, en el cual se describe cómo las medidas de emergencia afectaron los derechos a la privacidad y la protección de datos. El documento fue presentado por la Jefa de la Unidad de Protección de Datos del Consejo de Europa, Sophie Kwasny, quien es la responsable del establecimiento de estándares y políticas sobre protección de datos y privacidad. 

Kwasny destacó que los principios de protección de datos que se aplican en un estado de emergencia son: el escrutinio efectivo (parlamentario y judicial), la previsibilidad de la legislación de emergencia y la cooperación leal entre las instituciones estatales. El principio del escrutinio efectivo, por ejemplo, nos obliga a plantearnos las siguientes interrogantes: ¿Han sido efectivas las tecnologías utilizadas hasta ahora (aplicaciones de rastreo de contactos, monitoreo de drones, brazaletes electrónicos, por nombrar solo algunas)? En otras palabras, ¿vale la pena correr el riesgo de filtraciones de datos por la promesa de la tecnología?

Uso responsable de los datos

¿Cómo podemos empezar a pensar en un uso responsable de los datos ante una crisis como la actual pandemia? El decano del Campus de la Facultad de Fryslan de la Universidad de Groningen, Andrej Zwitter, reiteró que existen medios para garantizar el uso seguro de los datos durante situaciones de crisis.

Más allá de las salvaguardas enumeradas por Sophie Kwasny, el decano Zwitter también señaló que la comunidad humanitaria ha desarrollado principios como el procesamiento justo de datos y los derechos a la retención y eliminación de datos. No obstante, quedan por abordar una serie de lagunas, como los derechos de los interesados ​​y la necesidad de elaborar un concepto que incluya la privacidad del grupo, en lugar de abordar únicamente los derechos de privacidad individuales.

Si te interesa conocer más sobre los debates actuales entorno al uso de la tecnología en el ámbito de la seguridad y la prevención, no dudes en visitar la página web de FEPSU, donde además encontrarás también diversos recursos sobre la materia e información sobre los proyectos en los que participan los miembros de la red.

La tecnología de sensores portátiles y su potencial para la seguridad

En los últimos años se ha popularizado el uso de dispositivos de tecnología de sensores portátiles, los cuales permiten a las personas y organizaciones rastrear y monitorear las métricas de salud personal en tiempo real. Estos dispositivos aún no están lo suficientemente desarrollados para su uso en las fuerzas y cuerpos de seguridad, pero son una tecnología que avanza rápidamente y ofrece el potencial de equipar a los efectivos y agencias policiales con datos para mejorar la seguridad, la salud y el bienestar de los y las agentes. La RAND Corporation ha publicado un informe sobre los usos potenciales de estos dispositivos portátiles en el ámbito de la seguridad, el cual es el resultado de un grupo de trabajo realizado junto al National Institute of Justice de los Estados Unidos y el Police Executive Research Forum. En FEPSU te compartimos algunas de sus conclusiones. 

Retos y oportunidades

El grupo de trabajo que dio origen a este informe se desarrolló en base a talleres en los que participaron profesionales del ámbito de la seguridad, investigadores y desarrolladores tecnológicos para discutir el estado actual de los dispositivos de tecnología de sensores portátiles, conocidos como WST por sus siglas en inglés (Wearable Sensor Technology). 

Los participantes de los talleres, además, debatieron alrededor de cómo podrían ser aplicadas por las organizaciones encargadas de hacer cumplir la ley este tipo de dispositivos, como las pulseras, las bandas de pecho y tejidos inteligentes, con los que pueden obtenerse biomarcadores relacionados con la salud de los policías, para informar en la toma de decisiones operativas. 

Además, en el proceso de la investigación se discutieron también los posibles problemas con la aceptación de las WST entre los agentes, las nuevas políticas que serán necesarias para la introducción de estas tecnologías en los entornos de aplicación de la ley, y qué datos se recopilan, cómo se recopilan estos datos y cómo se interpretan y utilizan. 

Para elaborar sus conclusiones, el grupo de trabajo partió de cuatro preguntas de investigación: ¿Cuál es el estado actual y en un futuro próximo de la tecnología de sensores portátiles?, ¿qué puntos de intersección existen entre estas tecnologías y los intereses de los cuerpos policiales, tanto para los agentes como para las agencias?, ¿cuáles son los retos específicos que estas tecnologías representan para la privacidad de los datos, sus titulares y la ciudadanía? y ¿cuáles son las cuestiones destacadas asociadas con las tecnologías de sensores ponibles y cómo se dirigen de manera específica?

Incipiente, pero prometedora

La primera conclusión a la que llegó el informe de RAND Corporation es que las tecnologías de sensores portátiles disponibles hoy en día en el mercado no están lo suficientemente desarrollados para fines de aplicación de la ley en general. Los dispositivos comerciales, aunque económicos y portátiles, carecen de la exactitud y precisión necesarias para informar y apoyar la toma de decisiones en el ámbito de la seguridad. Los WST utilizados en entornos médicos, aunque tienen una excelente exactitud y precisión con datos de alta calidad, tienen un costo prohibitivo para una amplia distribución y no son portátiles.

Por estos motivos, el enfoque a corto plazo debe ser el de prepararse para un momento en que la tecnología sea más aplicable a las funciones que desempeñan las fuerzas y cuerpos de seguridad. La clave es obtener la aceptación de los agentes policiales ahora, no para la tecnología actual, sino para los dispositivos desarrollados en el futuro y para los posibles efectos posteriores en el campo a medida que se implementan las WST para apoyar la seguridad y el bienestar de los agentes, la retención de la fuerza laboral, la responsabilidad y otros asuntos.

Actualmente, el panorama que define la intersección entre estas tecnologías y la aplicación de la ley es el de la incertidumbre. La aplicabilidad de las WST al ejercicio de las labores policiales será proporcional a qué tan bien la tecnología puede informar de manera confiable las decisiones sobre las actividades diarias de los agentes. Los dispositivos deben integrarse a la perfección con la tecnología que ya es utilizada por las agencias policiales, las medidas deben ser válidas y confiables, la interpretación de los datos debe ser clara y las políticas deben estar vigentes para administrar y monitorear los datos

En este sentido, las fuerzas del orden deben ser un actor clave en el proceso de desarrollo de las WST. Es posible que las especificaciones necesarias para el uso de estos dispositivos en el ámbito de la seguridad no coincidan con el estándar de la industria comercial, por lo que las agencias policiales deben entablar un diálogo con los fabricantes de las WST para caminar hacia una tecnología más aplicable a este ámbito. 

Recomendaciones para un buen uso 

Finalmente, en el informe se señalan una serie de recomendaciones para favorecer el buen uso de esta tecnología de sensores portátiles por parte de las fuerzas y cuerpos de seguridad. Por un lado, los agentes deben recibir formación sobre los múltiples usos y propósitos de WST y se deben realizar pruebas piloto y recopilar comentarios sobre las experiencias de los y las policías en su uso en las actividades diarias. Los resultados de estas pruebas deberán identificarse en las etapas tempranas del proceso de implementación, para poder corregir los posibles errores o incomodidades. 

Además, se deberán desarrollar e implementar políticas y procesos sobre cuándo y por qué se pueden compartir los datos, los cuales, además, se deberán cifrar en cada capa y con un cifrado de extremo a extremo para garantizar su protección. Esto estará ligado al desarrollo también de un enfoque secuenciado o por fases para llevar la tecnología validada al campo para evaluaciones escalonadas, así como al monitoreo del estado de la investigación, para administrar las expectativas del público y de las agencias de aplicación de la ley.

Finalmente, deberán establecerse también líneas de base individuales para tener en cuenta las diferencias entre individuos, definir un conjunto de mejores prácticas para los dispositivos portátiles de los consumidores y desarrollar orientación y educación sobre cómo interpretar datos y métricas para los usuarios de WST


Si quieres leer el informe completo, puedes acceder a él a través de la página web de RAND Corporation. Si quieres encontrar más información referente al uso de la tecnología en el ámbito de la seguridad y la prevención, puedes visitar el blog de FEPSU, donde además encontrarás distintos proyectos que promueven el uso de estas tecnologías entre las fuerzas y cuerpos de seguridad, en el ámbito local y regional.

Criterios éticos para un buen uso de la IA

El uso de herramientas de inteligencia artificial (IA) en el ámbito de la seguridad urbana es un fenómeno en creciente expansión. Cada vez son más las fuerzas y cuerpos de seguridad que apuestan por estas tecnologías a la hora de mejorar y agilizar su trabajo, ya sea, por ejemplo, en tareas como la detección de matrículas de vehículos o la robotización de ciertas funciones administrativas, entre otras. Sin embargo, el entusiasmo acrítico que genera la IA en algunos operadores dificulta un análisis sosegado sobre la conveniencia de su utilización, sobre todo a la hora de tomar en cuenta los criterios éticos que deben guiar su uso. En este sentido, se hace necesario reflexionar sobre los retos que supone la aplicación de la inteligencia artificial, las cuales pueden transformar el proceso de toma de decisiones operativas en el ámbito de la seguridad en una operación puramente mecánica. 

Estas fueron algunas de las conclusiones a las que se llegaron en la segunda sesión del ciclo de encuentros virtuales participativos sobre “Nuevas tecnologías aplicadas a la seguridad urbana”, que se celebró el 2 de diciembre. Estos webinars son una iniciativa del Foro Español para la Seguridad Urbana (FEPSU). A continuación os compartimos algunas de las consideraciones y puntos de análisis que guiaron el debate:

Usos específicos de la IA

Desde su inicio como disciplina en los años 50, la IA ha buscado utilizar ordenadores para realizar tareas que se relacionan con un comportamiento inteligente: razonar, tomar decisiones, reconocer patrones, resolver problemas matemáticos, etc. Sin embargo, aunque en las últimas dos décadas ha habido un incremento exponencial en la generación de datos y en la potencia de cálculo de los ordenadores, hoy en día este tipo de herramientas son capaces de realizar solamente una única tarea a la vez.

Iniciativas como el proyecto Magneto, financiado por el programa Horizonte 2020 de la Comisión Europea, están desarrollando un motor de correlación que permita la elaboración de hipótesis para la toma de decisiones en la prevención e investigación del crimen organizado, a través de la conjunción de diversas herramientas de IA, como el reconocimiento facial o la transcripción automática de audio a texto. La criminóloga Ainoa Torrado, que trabaja en la implementación de este proyecto en la Policía Municipal de Sabadell, asegura que el uso de estas tecnologías permite a los agentes centrarse más en el análisis de la información que en el tratamiento de los datos y, de esta manera, mejorar la capacidad de investigación y solucionar los delitos de forma más rápida. 

Para el Subdirector del Instituto de Investigación en inteligencia artificial (CSIC-UAB), Felip Manyà, existen áreas específicas de actuación de las agencias de seguridad pública donde hoy en día la utilización de herramientas de inteligencia artificial tienen más potencial, como la videovigilancia, la robótica en entornos de riesgo y el control del tráfico. Sin embargo, para entender mejor la intervención pública con herramientas que utilicen IA hay que ver a estos sistemas como un complemento a la labor policial, antes que como un sustituto. 

Entre la utopía y la distopía

Cuando se habla de los riesgos que puede suponer el uso de la IA, suelen generarse dos tipos de discursos antagónicos: por un lado, una visión optimista que cree que es una tecnología que va a solucionar todos los problemas; por otro lado, una visión pesimista, centrada en la discriminación algorítmica y que ve a la inteligencia artificial como una herramienta para el control y la vigilancia. Según el Director del Centro CRÍMINA de la Universidad Miguel Hernández de Elche, Fernando Miró Llinares, la realidad se sitúa en un punto medio entre estos dos puntos de vista y, por este motivo, para establecer criterios éticos que mejoren la aplicación de la IA en el ámbito de la seguridad primero hay que desmontar los mitos que rodean su uso. 

En primer lugar, hay que tener en cuenta que muchos de los riesgos que supone el uso de la IA, como la discriminación algorítmica, tienen que ver en realidad con la baja calidad de los datos que se usan y no tanto con la herramienta en sí. Muchos datos, por la forma en que fueron recolectados o por la interpretación que se les da antes de introducirlos en el algoritmo, reproducen sesgos que pueden tener consecuencias graves si se utilizan para guiar actuaciones policiales. Es por este motivo que los algoritmos deben poder ser corregibles, para poder reducir el sesgo de sus datos, aunque esto suponga disminuir su capacidad predictiva. 

Aún así, el principal riesgo en el uso de la IA es ahora mismo la violación de la privacidad de la ciudadanía, ya que los sistemas actuales tienen una enorme capacidad de control sobre las personas y reducen a gran escala la libertad individual. Aunque las normativas europeas sobre protección de datos sean más avanzadas que las de otros países como Estados Unidos o China, donde la inteligencia artificial se ha desarrollado más rápidamente; se hace necesario elaborar normas que sean rígidas en la esencia ética de las mismas, pero lo suficientemente flexibles como para permitir dar lugar a las diferentes aplicaciones de la IA que surjan con el tiempo. 

Principios éticos sólidos

Una de las herramientas de inteligencia artificial que más debate ha generado ha sido el reconocimiento facial. Sobre todo porque se ha detectado que su uso por parte de las fuerzas y cuerpos de seguridad muchas veces deriva en una hiperreacción de los agentes frente a las detecciones de esta tecnología, provocando que se centren más en la búsqueda de los delincuentes que en el resto de funciones de la acción policial. Además, también ha provocado un aumento en las detenciones con los mismos sesgos de los datos introducidos en el algoritmo, por ejemplo los sesgos raciales

Por esta razón, Miró Llinares destaca que hay que tener en cuenta los siguientes principios éticos a la hora de poner en marcha una tecnología de IA en la actividad policial: la prohibición de subordinación a la máquina; la supervisión constante de los sistemas de IA por parte de una persona; la prevención del daño que pueda ocasionar su uso; la prohibición de la discriminación como resultado de estos procesos; y, lo más importante, la explicabilidad de su funcionamiento, lo que incluye la obligación de trazabilidad de los datos, la auditabilidad de sus procedimientos y la participación democrática de su uso.

Este último punto, sin embargo, es más difícil de controlar cuando se trata de tecnologías de deep learning, ya que uno de sus problemas es que no tienen capacidad explicativa sobre las decisiones que toman y, por lo tanto, esto puede ser un peligro, ya que si las actuaciones policiales se basan únicamente en sistemas de este tipo, se puede perder la confianza de los ciudadanos y ciudadanas. Por este motivo, en todo uso de la IA se debe exigir la trazabilidad de los datos y debe hacerse una reflexión profunda sobre el uso que se dará a esta información, sin que la predicción signifique una actuación policial inmediata. 

Estas han sido algunas de las principales conclusiones de esta segunda sesión del ciclo de webinars sobre “Nuevas tecnologías aplicadas a la seguridad urbana”, que ha contado con las intervenciones iniciales de Felip Manyà, Subdirector del Instituto de Investigación en inteligencia artificial (CSIC-UAB); Fernando Miró Llinares, Catedrático de Derecho Penal de la Universidad Miguel Hernández de Elche y Director del Centro CRÍMINA para el estudio y prevención de la delincuencia; y Ainoa Torrado, Criminóloga participante del proyecto Magneto de la iniciativa Horizonte 2020 de la Comisión Europea. La conversación ha sido moderada por Francesc Guillén Lasierra, jurista, criminólogo y estudioso de las políticas públicas de seguridad. 

Encontrarás el relato completo de la jornada en el siguiente enlace.

Documentos compartidos

El proyecto europeo MAGNETO (H2020), una aplicación práctica del uso de la inteligencia artificial en la seguridad. Presentación de Ainoa Torrado.

Hacia un uso (y diseño) ético de la IA en la seguridad ciudadana. Presentación de Fernando Miró Llinares

El futuro de la IA: hacia inteligencias artificiales realmente inteligentes. Artículo de Ramón López de Mántaras.

Estrategia española de I+D+I en inteligencia artificial. Ministerio de Ciencia, Innovación y Universidades, 2019.

Amenazas de la inteligencia artifical. Blog del Departament d’Interior de la Generalitat de Catalunya, 2020.

Inteligencia artificial: un arma de doble filo

La inteligencia artificial (IA) puede ser una herramienta muy útil para la seguridad urbana. Esta tecnología se utiliza para usos que van desde el software de lectura de matrículas de vehículos, hasta el reconocimiento facial y otras aplicaciones relacionadas con la vigilancia policial predictiva. Pero esta herramienta también está siendo cada vez más utilizada por ciberdelincuentes, quienes se aprovechan de su uso para encontrar nuevas formas de amenazar y atacar la seguridad de los sistemas informáticos de la ciudadanía y de las instituciones. Así lo establece un informe recientemente publicado por la ONU y la Europol, del que te compartimos en FEPSU algunas de sus principales conclusiones. 

Potenciar el uso positivo de la IA

El pasado 19 de noviembre se publicó un documento elaborado conjuntamente por Europol, el Instituto Interregional de Investigación sobre Justicia y Crimen (UNICRI) de las Naciones Unidas y Trend Micro que analiza los usos delictivos actuales y previstos de la IA. Este informe proporciona información sobre ataques existentes y potenciales que aprovechan la inteligencia artificial y recomendaciones para las administraciones, fuerzas y cuerpos de seguridad, legisladores y otras instituciones sobre cómo mitigar estos riesgos.

“La IA promete al mundo una mayor eficiencia, automatización y autonomía. En un momento en el que el público está cada vez más preocupado por el posible uso indebido de la IA, tenemos que ser transparentes sobre las amenazas, pero también analizar los beneficios potenciales de la tecnología de IA», asegura Edvardas Šileris, director del Centro Europeo de Ciberdelincuencia de Europol. “Este informe nos ayudará no solo a anticipar posibles usos maliciosos y abusos de la IA, sino también a prevenir y mitigar esas amenazas de manera proactiva. Así es como podemos desbloquear el potencial que tiene la IA y beneficiarnos del uso positivo de los sistemas de IA», agrega Šileris. 

La IA como objetivo y como medio

El informe concluye que los ciberdelincuentes aprovecharán la IA como vector de ataque y como superficie de ataque, es decir como medio y como objetivo para conseguir sus fines criminales. Las falsificaciones profundas (deep fake) son actualmente el uso más conocido de la IA como vector de ataque. Sin embargo, el informe advierte que se necesitará nueva tecnología de detección en el futuro para mitigar el riesgo de campañas de desinformación y extorsión, así como las amenazas que apuntan a conjuntos de datos de IA.

En este sentido, personas con el objetivo de realizar un crimen podrían utilizar esta tecnología para desarrollar convincentes ataques de ingeniería social a gran escala o malware de raspado de documentos, para hacer que los ataques sean más eficientes. Por otro lado, la IA podría respaldar la evasión de reconocimiento de imágenes y biometría de voz; los ataques de ransomware, mediante la evasión y la focalización inteligente; o la contaminación de datos, mediante la identificación de puntos ciegos en las reglas de detección. Además, el informe también advierte que se están desarrollando sistemas de IA para mejorar la efectividad del malware y para interrumpir los sistemas de reconocimiento facial y anti-malware.

“A medida que las aplicaciones de inteligencia artificial comienzan a tener un gran impacto en el mundo real, se hace evidente que esta será una tecnología fundamental para nuestro futuro”, afirma Irakli Beridze, director del Centro de Inteligencia Artificial y Robótica de UNICRI. “Sin embargo, así como los beneficios para la sociedad de la IA son muy reales, también lo es la amenaza del uso malintencionado», apunta también Beridze.

Prepararse ante las amenazas

Desde las instituciones como Europol y UNICRI advierten que los ciberdelincuentes siempre han sido los primeros en adoptar la última tecnología, algo que sucede también con la IA. “Como revela este informe, ya se está utilizando para adivinar contraseñas, romper CAPTCHA y clonar voz, y hay muchas más innovaciones maliciosas en proceso”, explica Martin Roesler, jefe de investigación de amenazas prospectivas de Trend Micro, empresa lider en sistemas de ciberseguridad. En este sentido, desde las organizaciones que han participado en la elaboración de este informe, se proponen varias recomendaciones para evitar los estragos que podría ocasionar el uso de la inteligencia artificial con fines criminales. 

Por un lado, aprovechar el potencial de la IA como herramienta de lucha contra el crimen para preparar la industria y la policía de la ciberseguridad para el futuro y continuar con la investigación sobre las posibilidades de la inteligencia artificial para estimular el desarrollo de tecnología defensiva. Para conseguir esto, se deberán promover y desarrollar marcos de diseño de IA seguros y hacer campañas de comunicación par reducir la retórica políticamente cargada sobre el uso de la inteligencia artificial con fines de ciberseguridad. Finalmente, será un factor clave la cooperación entre asociaciones público-privadas y el establecimiento de grupos de expertos multidisciplinarios.

Debates éticos: la máquina contra el humano

Por otro lado, a los aspectos mencionados por el informe de la ONU y EUROPOL, habría que agregar que el uso de la IA por parte de las fuerzas y cuerpos de seguridad supone también el planteamiento de ciertos debates éticos en el uso de algoritmos y máquinas para vigilar y perseguir a seres humanos. Sobre todo, el uso de software de reconocimiento facial supone el peligro de que la tecnología pueda equivocarse o no ser neutral en el perfilamiento de las personas que reconoce. En este sentido, las decisiones que toma esta tecnología, ¿deben gozar de presunción de veracidad? Si no es así, ¿qué instrumentos habría que establecer para prevenir o controlar los posibles errores que se cometan?

Como toda tecnología, su uso debería limitarse a ser un apoyo o una herramienta para la actuación humana en la seguridad urbana, pero jamás debería ser un sustitutivo de esta. Además, se deberían establecer los términos en los que hay que situar la rendición de cuentas en intervenciones llevadas a cabo siguiendo los dictados de estos algoritmos. 

Estos y otros debates serán los que abordaremos en la segunda sesión del ciclo de encuentros virtuales sobre “Nuevas tecnologías aplicadas a la seguridad urbana”, donde además reflexionaremos sobre las potencialidades de la inteligencia artificial para la prevención y la seguridad, así como sus posibles riesgos y amenazas en manos de organizaciones y personas con fines delictivos. Se trata de una actividad gratuita, organizada por FEPSU, que se celebrará el miércoles 2 de diciembre de 2020, de 12h30 a 14h, a través de Zoom. Inscríbete en este enlace

Para acceder al informe completo elaborado por Europol, UNICRI y Trend Micro, puedes visitar el siguiente enlace.