21 marzo 2026

La IA aumenta el volumen y la complejidad de las denuncias por protección de datos en la Apdcat

La IA aumenta el volumen y la complejidad de las denuncias por protección de datos en la Apdcat
Compartir esto:

BARCELONA, 21 Mar. Agencias –

El uso de la Inteligencia Artificial (IA) ha hecho aumentar el volumen de denuncias y reclamaciones que recibe la Autoritat Catalana de Protecció de Dades (Apdcat) y ha elevado la complejidad de las mismas, con especial afectación en sectores como la seguridad y la videovigilancia.

Lo explica la directora de Apdcat, Meritxell Borràs, en una entrevista a los medios, en la que destaca que las denuncias al organismo han aumentado un 40% anualmente en los últimos ejercicios, y aunque aún es difícil contabilizar la evolución de aquellas relacionadas con la IA «por la falta de un gran histórico», su presencia es cada vez más común.

«La IA está teniendo tanto éxito porque nos facilita la vida, pero esto debemos combinarlo, y desde Europa lo han dicho muy claro, con que esta mejora no acabe pisando los derechos fundamentales de los ciudadanos europeos», explica Borràs.

ACOMPAÑAMIENTO

Todos los sistemas de IA, detalla la directora de la entidad, se mueven a través de datos, en muchas ocasiones personales, lo que puede contravenir el reglamento oficial de protección de datos de los ciudadanos: «Esta protección es igual de competente en documentos por escrito que en IA».

Aunque la Apdcat tiene capacidad sancionadora en casos de incumplimiento del reglamento de protección de datos, Borràs explica que una de las prioridades del organismo es el acompañamiento de empresas, entidades y organismos para evitar que esto suceda y garantizar a la vez los derechos fundamentales.

MODELO FRIA

La Apdcat ha desarrollado «el primer modelo a nivel europeo» en este ámbito, el modelo Fria, una metodología destinada a hacer una evaluación de impacto sobre los derechos fundamentales durante la aplicación de la IA, y que prevé evitar fallos o sesgos en su uso.

Un ejemplo, relata Borràs, sería un estudio médico en el que se utilice IA para analizar imágenes y comparar resultados, evitando que se usen únicamente imágenes de muestras de hombres o que tenga en cuenta fenotipos raciales.

IA ACT

La competencia de la Apdcat deriva del reglamento europeo de IA, que otorga competencias a las autoridades de protección de datos en los Estados miembro y establece, entre otros, que antes de desplegar un sistema de IA de algo riesgo se realizará «una evaluación del impacto sobre los derechos fundamentales que la utilización de dicho sistema pueda producir».

Así, y aunque la normativa comunitaria sobre IA es sobre productos explica la directora de Apdcat, los derechos de los ciudadanos europeos están garantizados a través de otras normativas, en este caso de derecho.

Al ser un reglamento europeo –y uno una directiva– «su aplicación es directa como ley en los Estados miembro», mientras que a nivel estatal existe un anteproyecto de ley para el buen uso y la gobernanza de la IA, aún sin desarrollar.

DICTÁMENES

Además de un mayor número de denuncias y reclamaciones, el organismo también ha visto aumentar en mayor medida las solicitudes de dictámenes para confirmar si es correcto utilizar sistemas de IA en algunos ámbitos, lo que refleja «que existe una prudencia por parte de quién la está utilizando».

Como ejemplos de peticiones de dictamen sobre el uso de IA menciona el desarrollo de un modelo matemático para evitar la propagación de epidemias o el uso de cámaras con biometría en instalaciones deportivas.

El mayor uso en general de la IA y las competencias derivadas a la Apdcat han motivado también cambios internos en el organismo, tanto con un aumento, aún ligero, de la plantilla para incorporar a expertos como con el refuerzo de la formación de la misma: «Es una realidad que tenemos delante y debemos apostar por la adaptación», defiende Borràs.

CL11