Skip to content

A la espera de una ley sobre reconocimiento facial

Photo by Bernard Hermant on Unsplash

Unas decenas de académicos, profesionales y activistas de varios ámbitos han pedido al Gobierno español que hasta que no exista una ley que regule las herramientas de reconocimiento facial, no sean utilizadas en el Estado español. La petición llega en un momento en el que ya se está utilizando este tipo de técnicas, tanto en espacios públicos como en entornos privados. En el blog Notes de seguretat de la Generalitat de Catalunya han explicado los argumentos de esta solicitud que pide frenar el uso de la tecnología de reconocimiento facial en España hasta que no exista una regulación específica. En FEPSU te compartimos los puntos clave de esta petición.

Una normativa con garantías

Los firmantes de la petición solicitan una moratoria en el uso y comercialización de sistemas de reconocimiento y análisis facial por parte de empresas públicas y privadas y que las instituciones legislativas europeas debatan qué herramientas y de qué manera, en qué condiciones, con qué garantías y con qué objetivos se tiene que permitir, si cabe, el uso de estos sistemas.

Para los demandantes es preciso que el Gobierno se plantee regular esta tecnología antes de que siga expandiéndose y se convierta en un elemento utilizado y extendido. Es decir, si el reconocimiento facial no se adapta a una ley concreta que asegure el respeto a los derechos de los ciudadanos, temen que sea la ley la que deba adaptarse a las prácticas ya existentes.

Los firmantes se refieren al hecho de que esta tecnología supone una intromisión en la esfera privada de la vida de las personas sin su consentimiento explícito y pone en entredicho cuestiones fundamentales de justicia social, dignidad humana, equidad, igualdad en el trato e inclusión.

Evitar los estereotipos

El uso de programas de análisis facial puede derivar en problemas en el ámbito de los derechos civiles. En concreto, explican que asimilar una persona a un colectivo basándose en sus rasgos o datos biométricos es altamente problemático ya que se perpetúa el estereotipo, en cualquier ámbito. Por ejemplo, que esta persona pueda ser peligrosa o morosa porque otras semejantes a ella lo son es una premisa injusta.

Existen evidencias suficientes que indican que asociar posturas, gestos, rasgos faciales, colores de piel, peinados o prendas a posibles comportamientos problemáticos, capacidades intelectuales o económicas puede resultar en clasificaciones racistas, clasistas o sexistas.

El reconocimiento facial, además, ha comportado en varias ocasiones falsos positivos y falsos negativos, porque depende en gran medida de cómo se entrene la inteligencia artificial y con qué tipo de imágenes. Si se educa con muchas fotografías de hombres blancos o con condiciones de luz específicas, por mencionar dos ejemplos, el análisis facial tenderá a ser menos preciso para las personas negras o con condiciones lumínicas distintas.

Así pues, existe una variada gama de razones –tanto técnicas como éticas– que justifican la creación de una comisión para investigar la necesidad de una moratoria, que se considera imprescindible y urgente. Para concluir, se sugiere que esta comisión sea independiente y esté compuesta por científicos, juristas, expertos en ética e inteligencia artificial y miembros de la sociedad civil, especialmente de aquellos colectivos que pueden verse afectados por estos sistemas.

Si quieres conocer más información sobre la petición de estos expertos y activistas, puedes visitar el blog Notes de seguretat de la Generalitat de Catalunya. Para saber más sobre este y otros temas relacionados con la seguridad urbana y la prevención, no dudes en pasarte por la página web de FEPSU.

Compartir

Hazte miembro

Para acceder a las diversas actividades y servicios que realizamos

Escríbenos para obtener más información

Suscríbete a nuestro newsletter

Recibe noticias sobre las actividades que realizamos