El Consejo General del Poder Judicial (CGPJ) ha aprobado una instrucción para regular cómo pueden usar la inteligencia artificial los jueces y magistrados en su trabajo. El objetivo es darles reglas claras y comunes, alineadas con la normativa española y europea, sin afectar a la independencia judicial. En esencia, el CGPJ permite el uso de la IA como herramienta de apoyo, pero prohíbe que sustituya al juez en la toma de decisiones. Es decir, no puede decidir sentencias, valorar pruebas, interpretar la ley ni actuar de forma autónoma. Si se admite, sin embargo, para buscar información jurídica; localizar antecedentes procesales; analizar o resumir documentos; y elaborar esquemas o borradores de trabajo interno. Siempre, eso sí, con herramientas aprobadas por el CGPJ.
Es un alivio ver que la justicia del futuro (o del presente más inmediato) no dependerá de un cerebro hecho de unos y ceros. Una decisión obvia y previsible, quizá. Pero un alivio a fin de cuentas. Hay algo siniestro en la idea de recibir una sentencia decidida por un robot. Supongo que la de juez –o fiscal, o abogado, ya me entienden– es una de esas profesiones que no querremos delegar nunca en una IA. Y hay más de las que parece. Aunque la tentación sea eliminar puestos de trabajo y encomendárselo todo a ChatGPT. En el mundo de la empresa existe un concepto que explica este error: la doorman falacy. Esta falacia consiste en reducir trabajos humanos complejos a una sola tarea visible, automatizarla con IA y pasar por alto el valor invisible que aportan las personas: criterio, contexto, trato humano, adaptación y confianza. Es el caso de los porteros (doorman), que hacen mucho más que abrir puertas: gestiona imprevistos, aporta un trato humano, conoce a quien entra y sale, prevé riesgos de seguridad... Eso, la IA no puede hacerlo. Ni el trabajo de un juez. Ni el de un periodista de calle.