El pasado 21 de abril, la Comisión Europea, decidió limitar el uso de los sistemas de inteligencia artificial de alto riesgo, como es la identificación facial. Esta norma ha sido respaldada por los expertos que alertan que, aunque estas tecnologías pueden proporcionar beneficios, también pueden atentar contra los derechos de los ciudadanos.
No se trata de prohibir directamente la vigilancia masiva de personas, en tiempo real, en lugares públicos pero sí de limitar su uso a determinadas circunstancias, previamente autorizadas por un juez, como podría ser: buscar a un niño desaparecido, prevenir una amenaza terrorista específica e inminente o localizar al autor de un hecho grave. El reconocimiento facial se quiere utilizar para un hecho concreto bajo control judicial, pero no como rutina.
La inteligencia artificial, es una tecnología que se encuentra en pleno desarrollo y que tiene sesgos y fallos importantes, siendo además muy intrusiva con la privacidad de las personas. Por eso, permitir la video vigilancia con cámaras de reconocimiento facial en los espacios públicos, podría vulnerar el derecho de las personas a la privacidad.

De hecho, en algunos países como China, usan esta tecnología para vigilar a sus ciudadanos no solo es los espacios públicos, sino también en los semáforos. En Londres, la Policía la emplea para combatir el crimen. En la Unión Europea ( UE ), esta herramienta que recoge datos biométricos, está regulada por el Reglamento General de Protección de Datos ( RGPD ) aprobado en 2.018 y que impide el uso indiscriminado de los datos personales con fines lucrativos.
En España, cuando se aprobó la Ley de Seguridad Privada, en el año 2.014, la Agencia Española de Protección de Datos ( AEPD ) emitió un informe en el que mostraba su preocupación por la posibilidad de que esta norma permitiera usar sistemas de reconocimiento facial; advertía de los riesgos que implicaba contra los derechos y libertades fundamentales de las personas y apuntaba que los errores cometidos por los sistemas biométricos ( características físicas) podían tener graves consecuencias para las personas.
Y es que, mediante una aplicación informática, esta tecnología compara los rasgos faciales y la complexión corporal de una persona, con una base de datos previamente confeccionada que probablemente contenga fotografías y datos físicos de delincuentes comunes y nos podría confundir si nos asemejamos a cualquier criminal al identificarnos como la persona buscada.

El problema está en que este instrumento técnico aún no es perfecto y tiene aspectos que hay que desarrollar más. Por eso cualquier alerta que diera podría ser un error, con la trascendencia que eso tendría para la persona señalada. Todavía es pronto para dejar esta tecnología solo en manos de la inteligencia artificial y debe de seguir supervisada por humanos.
No se trata de combatir los posibles beneficios que puede proporcionar la inteligencia artificial sino la mala utilización que se haga de ella , que no respete los derechos y libertades o conduzca a situaciones de abuso. De momento, las empresas y organizaciones que utilizan estas tecnologías, se están adaptando a las nuevas circunstancias, trasladando estas novedades a sus respectivos códigos de conducta y ética. Pero todavía quedan determinados aspectos poco claros que deben de ser regulados con penas de prisión o multas, a nivel nacional, dentro de los límites europeos establecidos, especialmente los que puedan vulnerar -de cualquier manera- los derechos fundamentales de los ciudadanos.
Y ya que Europa ha perdido el tren para competir en el desarrollo tecnológico de inteligencia artificial, frente a los líderes actuales como China y Estados Unidos, parece mejor poner el interés en la protección de derechos de una manera ética y responsable.