Whatsapp Diari de Tarragona
Para seguir toda la actualidad desde Tarragona, únete al Diari
Diari
Comercial
Nota Legal
  • Síguenos en:

Todo sobre la nueva Ley de Inteligencia Artificial

¿Cómo afectará el nuevo reglamento impulsado por la UE al día a día y la competitividad de nuestras empresas?

05 mayo 2024 12:44 | Actualizado a 06 mayo 2024 12:31
Se lee en minutos
Participa:
Para guardar el artículo tienes que navegar logueado/a. Puedes iniciar sesión en este enlace.
Comparte en:

La nueva Ley de Inteligencia Artificial impulsada por la Comisión Europea (CE) -aprobada por el Parlamento Europeo el pasado 13 de marzo por una abrumadora mayoría- entra previsiblemente en vigor este mes de mayo, tras su trámite final en el Consejo de la Unión Europea.

Se trata de la primera legislación en esta materia que impulsa en el mundo un regulador de estas dimensiones. La iniciativa impulsada por la CE abarca aplicaciones como los sistemas de identificación biométrica o las decisiones de Inteligencia Artificial que afecten a intereses personales importantes, en ámbitos como la contratación, la educación, la asistencia sanitaria o la policía.

En forma de reglamento, esta ley será de inmediato y obligado cumplimiento por parte de todos los estados miembros de la Unión Europea (UE), entre los que se incluye el Reino de España, sin que sean necesarios, por ejemplo, los largos procesos que lleva trasponer a las legislaciones estatales las directivas que impulsa la CE. Para los tiempos que suele manejar la maquinaria legislativa europea, es una ley que ha quemado etapas rápidamente.

En forma de reglamento, esta ley será de inmediato y obligado cumplimiento en la UE

Con un enfoque basado en el análisis de riesgo, donde se establecen cuatro categorías de riesgo para clasificar las aplicaciones de IA (ver información anexa con más detalles sobre cada uno de ellos), la Ley de Inteligencia Artificial distingue entre ‘Riesgo mínimo’, ‘Riesgo alto’, ‘Riesgo inadmisible’ y ‘Riesgo específico para la transparencia’. ¿Qué persiguen estas clasificaciones y cómo nos afectan?

Eduard Blasi, profesor colaborador de los estudios de Derecho y Ciencia Política de la Universitat Oberta de Catalunya (UOC) y cofundador del canal TechAndLaw, explica que esta ley «está basada en un enfoque de análisis del riesgo, de tipo compliance, donde se pide a las empresas que hagan ciertas cosas y analicen cuál es el impacto, con determinados usos que están prohibidos. Es un reglamento que no señala tanto la tecnología como el uso que se hace de ésta».

«Hay cuestiones -ejemplifica Eduard Blasi- que la UE ha marcado como líneas rojas, como por ejemplo el social scoring [una práctica que clasifica a los ciudadanos con una puntuación a partir de la cual pueden llegar a tener más o menos derechos], la identificación biométrica a tiempo real o los usos en colectivos vulnerables, como menores de edad o personas con discapacidad».

«Estamos regulando algo que tiene impacto más allá de la UE y no somos los ‘front runners’ en creación de tecnología»

Eduard Blasi (UOC)

Según explica la Comisión Europea en su propuesta legislativa, el nuevo marco normativo se aplicará a los agentes tanto públicos como privados, de dentro y fuera de la UE, «en la medida en que el sistema de Inteligencia Artificial se introduzca en el mercado de la Unión o su uso afecte a personas establecidas en ella».

Eso supone que la Ley de IA puede afectar tanto a los proveedores (por ejemplo, un desarrollador de una herramienta de evaluación curricular) como a los implementadores de sistemas de Inteligencia Artificial de alto riesgo (por ejemplo, un banco que compre esta herramienta de evaluación).

Los importadores de sistemas de Inteligencia Artificial también tendrán que garantizar que el proveedor extranjero ya haya efectuado el procedimiento adecuado de evaluación de la conformidad, lleve un marcado europeo de conformidad y vaya acompañado de la documentación y las instrucciones de uso necesarias.

Además, se prevén determinadas obligaciones para los proveedores de modelos de Inteligencia Artificial de uso general, incluidos los grandes modelos generativos de Inteligencia Artificial.

Los proveedores de modelos gratuitos y de código abierto, por otro lado, están exentos de la mayoría de estas obligaciones. Esta exención no cubre las obligaciones de los proveedores de modelos de Inteligencia Artificial de uso general con riesgos sistémicos (ver información anexa).

Las obligaciones, asegura la CE, tampoco se aplican a las «actividades de investigación, desarrollo y creación de prototipos anteriores a la comercialización», y la regulación tampoco afecta a «los sistemas de Inteligencia Artificial que tengan fines exclusivamente militares, de defensa o de seguridad nacional, independientemente del tipo de entidad que lleve a cabo esas actividades».

Europa está muy por detrás de EEUU y China en la generación de tecnologías de IA

Toda una declaración de intenciones desde la Unión Europea, que una vez más quiere proponer un modelo que pueda inspirar al resto del mundo, tal y como hizo al proclamar que pretende convertirse en el primer continente climáticamente neutro en el año 2050, o como ha hecho más recientemente en el ámbito de los derechos y libertades, regulando la protección de datos. ¿Hasta qué punto es realista que EEUU o China se inspiren y adopten la ‘vía europea’ para la Inteligencia Artificial?

Europa regula, otros lideran

Eduard Blasi, de la UOC, limita el impacto que puede tener esta ley en el resto del mundo: «A diferencia de lo que ocurrió con el Reglamento General de Protección de Datos (RGPD) [impulsado también por la CE], que ha marcado el modelo a seguir en el mundo en esta materia, es dudoso que con la Ley de IA se vuelva a dar un ‘efecto Bruselas’».

«Hay muchas maneras de verlo por parte de los países -prosigue Eduard Blasi, en alusión a los retos que plantea la IA-, y en la UE tampoco somos pioneros en Inteligencia Artificial y Tecnología, así que no está provocando lo mismo que el RGPD. Estamos regulando algo que tiene impacto más allá de la UE y no somos los front runners en creación de tecnología, así que hay dudas de que sea un modelo que guste y se aplique a otros países. Y, si hay países con una regulación más laxa, eso provocará que se busquen soluciones en ellos».

«Como Unión Europea -destaca Eduard Blasi-, queremos desmarcarnos de ciertas praxis que puedan reducir derechos y libertades de los ciudadanos. Eso no significa que lo que busque la UE sea frenar la innovación pero, en ciertas circunstancias, podría frenarla».

«Las empresas van a tener que crear mucha documentación y subirla para que sea examinada: me preocupa la pérdida de productividad»

Ignacio Anguita (EADA Business School)

Ignacio Anguita, director del máster en Fintech & Business Analytics de EADA Business School, coincide en que «se está dando un mensaje al mundo de que aquí nos preocupamos por esto, pero sobre todo es un mensaje interno, más enfocado a tranquilizar al ciudadano europeo y afianzar el poder regulatorio».

«Las grandes potencias [en Inteligencia Artificial, como EEUU o China] no están haciendo mucho seguimiento [de la Ley de IA europea], porque Europa no es una potencia en esto», prosigue Ignacio Anguita. «Por un lado -analiza este profesor de EADA-, la situación de la IA en Europa está muy atrás porque no tenemos la capacidad productiva de generar chips y, por lo tanto, no podemos crear grandes Data Center».

«En segundo lugar -añade-, para entrenar estos modelos se va a requerir en el futuro una cantidad de electricidad muy alta, y Europa no tiene la infraestructura para ello. En tercer lugar, no tenemos ninguna gran empresa europea capaz de producir modelos a gran escala, con lo cual estamos en la cola en el desarrollo de software, muy por detrás de EEUU y China».

Amenaza y oportunidad

Visto lo cual, las preguntas se acumulan: ¿En qué medida una legislación como la que se va a poner en marcha en la Unión Europea puede dejarnos al margen de las incesantes novedades en Inteligencia Artificial Generativa que se están desarrollando en otras partes del mundo? ¿Somos capaces desde Europa de liderar en este campo con un modelo propio?

Hay un riesgo creciente de quedar al margen de las innovaciones mundiales en IA

Para Eduard Blasi, de la UOC, «el riesgo más grande de todo esto es que al final nos vayan excluyendo, y que los usuarios europeos no tengamos acceso a determinadas herramientas muy útiles mientras el tren de la tecnología avanza, queramos o no. Es algo que ya está sucediendo. Ya no estamos en estas soluciones pioneras e innovadoras porque, al final, las empresas tienen tanto miedo de entrar en el mercado europeo, que lo dejan al margen».

«Quiero ser optimista -prosigue Eduard Blasi-, y hay que destacar que la UE ha garantizado los derechos y libertades, pero también nos gusta regular, lo cual puede provocar una ralentización importante».

Ignacio Anguita, de EADA, coincide en este análisis: «Las aplicaciones prohibidas no van a tener consecuencias, pero lo que sí que las tendrá serán las aplicaciones de alto riesgo, porque lo que implica esta categoría es que todas estas empresas van a tener que crear mucha documentación y subirla para que sea examinada, y eso son muchos recursos que se pierden. Es algo que se extiende a muchísimos sectores y afecta no solo a grandes empresas».

«Es posible -añade Ignacio Anguita- que ciertas empresas no quieran participar en el mercado europeo, pero me preocupa más la pérdida de productividad que implica para las empresas y también en la Administración Pública». En este contexto, augura una necesidad de más personal para gestionar todo ese incremento de papeleo. Tras lo cual, en un escenario de IA Generativa, plantea una paradoja distópica: «Al final, quizás la IA acabe generando todos esos documentos que exigirá la Ley de IA, y que acabará leyendo otra IA».

«La regulación no la hemos de entender como una traba a la innovación, sino como un incentivo a la innovación responsable»

Dolors Setó (URV)

Desde la Universitat Rovira i Virgili (URV), Dolors Setó, profesora del Departament de Gestió d’Empreses e investigadora principal del grupo de investigación RESET, destaca el logro que supone tener este reglamento, y es optimista de cara al futuro: «La IA tiene mucho potencial para revolucionar la industria, pero es importante tener unas consideraciones éticas y de riesgos. Lo que intenta la Ley de IA es ser una hoja de ruta para un desarrollo ético y responsable de esta tecnología, protegiendo los derechos fundamentales de los ciudadanos a la vez que se intenta no frenar ese desarrollo».

«Realmente -defiende Dolors Setó- no se ha de ver como una amenaza, sino como una oportunidad. La IA no puede operar en un mundo sin leyes, igual que los coches no pueden circular sin un código de circulación. La regulación no la hemos de entender como una traba a la innovación, sino como un incentivo a la innovación responsable».

«Siguiendo con el símil del coche -ejemplifica Dolors Setó-, no por ponerle frenos significa que corra menos. Simplemente, te da más seguridad, porque puedes frenar. Así que esta ley deberíamos verla como una palanca para tener más confianza en la IA, lo cual puede generar más competitividad, no menos».

«El objetivo que hay detrás -concluye esta profesora de la URV- es asumir que la IA es una herramienta con mucho potencial, pero que un gran poder requiere una gran responsabilidad. Es algo que depende de todos como sociedad, con los diferentes agentes que participan, y es importante tomar partido».

Comentarios
Multimedia Diari