Privacidad
Multan con 750.000 euros a una universidad privada por usar datos biométricos de sus alumnos
Se condena a este centro de la Comunidad Valenciana a dos sanciones económicas, de 300.00 y 350.000 por un uso inadecuado de la inteligencia artificial y por usar datos biométricos de los estudiantes para controlar exámenes online

Protección de Datos fue el encargado de sancionar a la universidad.
Una universidad privada de la Comunidad Valenciana ha sido condenada por utilizar inadecuadamente sistemas automáticos basados en datos biométricos para la vigilancia remota de exámenes oficiales. La sanción se traduce en dos multas que se elevan a 300.000 y 350.000 euros.
La Agencia Nacional de Evaluación de la Calidad y Acreditación (ANECA) obliga desde 2025 a todas las universidades de su territorio a cumplir con lo dispuesto en la resolución de la Agencia Española de Protección de Datos (AEPD).
La resolución establece que los datos biométricos, es decir, aquellos que puedan identificar o autentificar a una persona, tienen que considerarse "datos de categoría especial", de acuerdo con el Comité Europeo de Protección de Datos. También establece que "el consentimiento no puede considerarse válido por cuanto no se daba alternativa real y efectiva a los estudiantes al ser el software empleado el único método permitido para realizar los exámenes online".
De esta forma, ANECA exige a las universidades el cumplimiento de estándares de protección de datos a la hora de verificar y acreditar sus titulaciones oficiales y sus centros. Por lo cual, todas las universidades y titulaciones que han sido evaluadas por esta agencia deben ajustarse estrictamente a lo dispuesto en este ámbito.
Reglamento europeo en materia de la IA
En octubre, esta agencia facilitó a los rectores y rectoras de las universidades que tienen a la ANECA como agencia de calidad de referencia, una circular en la que se les recordaba la plena vigencia del Reglamento UE 2024/1689 del Parlamento Europeo y del Consejo, en el que se establecen normas relacionadas con la inteligencia artificial.
Este reglamento considera como "sistemas de alto riesgo" un listado de aplicaciones en el ámbito de la educación y la formación profesional, incluyendo los "sistemas de IA destinados a ser utilizados para el seguimiento y la detección de comportamientos prohibidos por parte de los estudiantes durante los exámenes".
El artículo 27 de este reglamento indica que, antes de implantar o utilizar un sistema de inteligencia artificial de alto riesgo, se tiene que evaluar su impacto en los derechos fundamentales. En el caso de España, se debe confirmar que la universidad tiene realizada y registrada en la Agencia Española de Supervisión de la IA (AESIA) una evaluación de impacto en derechos fundamentales (EIDF). En base a esto, la ANECA exige constancia del registro de dicho documento para la verificación de títulos y centros oficiales que usen herramientas basadas en información biométrica.