Una candidatura con ideas algorítmicas para la admisión casacional en lo social

La reciente comparecencia de Juan Molins García-Atance, candidato a presidir la Sala de lo Social del Tribunal Supremo, ante la Comisión de Calificación del Consejo General del Poder Judicial (en adelante, CGPJ), marcó un hito en la deliberación sobre el futuro del sistema judicial español al presentar una propuesta innovadora y, a la vez, ambiciosa: la implementación de la Inteligencia Artificial (en adelante, IA) como herramienta auxiliar en la fase de admisión de los recursos de casación en el ámbito social. Con esta propuesta, Molins no solo puso de relieve su comprensión de las complejidades inherentes al orden jurisdiccional social, sino que también destacó su visión estratégica orientada a modernizar y optimizar los procedimientos judiciales mediante la incorporación de avances tecnológicos.
El orden social, caracterizado por su alta litigiosidad debido a la amplia variedad de conflictos laborales y de seguridad social que abarca, enfrenta desde hace años una acumulación alarmante de recursos que ralentizan significativamente los tiempos de resolución. La fase de admisión, al constituir el primer filtro técnico-jurídico que determina si un recurso cumple con los requisitos procesales exigidos para ser examinado en el fondo, supone una tarea ardua y meticulosa que absorbe una gran cantidad de recursos humanos y temporales. En este contexto, Molins sugirió que la IA podría asumir un rol clave, funcionando como una herramienta capaz de detectar patrones comunes en recursos similares, clasificarlos según parámetros preestablecidos y ofrecer un análisis preliminar que facilitara la labor de los letrados del Gabinete Técnico y, en última instancia, de los magistrados.
Entiendo que la propuesta no pretende, en modo alguno, sustituir la imprescindible labor de los jueces y juristas, sino actuar como un complemento que permita agilizar la primera etapa del procedimiento sin menoscabar las garantías procesales. Molins enfatizó que el uso de la IA estaría limitado a un “entorno cerrado y controlado”, lo que me obliga a deducir que el candidato es plenamente consciente de las implicaciones éticas y jurídicas de delegar funciones esenciales en herramientas tecnológicas. Este control implicaría no solo supervisión constante, sino también una exhaustiva revisión por parte de los letrados antes de adoptar cualquier decisión definitiva. En esencia, la IA actuaría como una primera capa de análisis, reduciendo significativamente la carga de trabajo manual y permitiendo a los operadores jurídicos concentrarse en cuestiones de mayor trascendencia y complejidad.
Ahora bien, resulta esencial señalar que esta propuesta, aunque atractiva, no está exenta de riesgos. La opacidad de los algoritmos utilizados y la posibilidad de que los mismos reproduzcan sesgos presentes en los datos de entrenamiento son problemas ampliamente documentados en el ámbito de la IA. Por ello, la supervisión humana no solo debe ser un requisito inherente al sistema, sino que debe complementarse con la publicidad de los algoritmos aplicados, garantizando así la transparencia y la rendición de cuentas. Considero que esta publicidad sería fundamental para fomentar la confianza pública en el sistema judicial, permitiendo que tanto los operadores jurídicos como las partes implicadas comprendan y cuestionen las decisiones preliminares adoptadas por la IA.
El proceso casacional en España ha sido tradicionalmente considerado uno de los mecanismos más sofisticados del sistema judicial, diseñado para garantizar la correcta aplicación e interpretación del derecho objetivo. Sin embargo, en el ámbito social, esta etapa procesal enfrenta desafíos cada vez más complejos debido al incremento sostenido del volumen de litigios. El orden social, que abarca desde conflictos laborales individuales hasta cuestiones estructurales de la seguridad social, es especialmente susceptible a este fenómeno, generando una sobrecarga en la Sala Cuarta del Tribunal Supremo que compromete no solo la eficiencia del sistema, sino también la calidad de las decisiones judiciales.
El modelo actual, basado en la intervención humana exclusiva para la revisión y clasificación de los recursos, ha demostrado ser insuficiente para responder a las exigencias de una sociedad moderna y globalizada. Me sugiere que el planteamiento de Molins, al proponer la incorporación de la IA como herramienta auxiliar, reconoce que la solución no radica únicamente en aumentar los recursos humanos, sino en aprovechar las posibilidades que ofrecen las tecnologías avanzadas para transformar estructuralmente los procedimientos judiciales.
La IA, en este contexto, tiene el potencial de procesar volúmenes masivos de información en tiempos significativamente reducidos, detectando patrones que podrían pasar desapercibidos para los operadores humanos. Por ejemplo, podría identificar recursos que carecen de fundamentos jurídicos suficientes o que presentan defectos procesales evidentes, permitiendo así una rápida desestimación de los mismos. Sin embargo, este enfoque plantea cuestiones críticas relacionadas con la calidad y la neutralidad de los datos utilizados para entrenar los algoritmos. Asumo que la utilización de datos históricos debe ir acompañada de una rigurosa depuración para evitar la perpetuación de prejuicios o desigualdades inherentes al sistema judicial
Además, la publicidad de los algoritmos aplicados no solo serviría para garantizar la transparencia, sino también para facilitar la supervisión por parte de expertos independientes que puedan evaluar su funcionamiento y proponer mejoras. En este sentido, considero que la propuesta de Molins no debería limitarse a la implementación técnica de la IA, sino que también debería incluir un marco normativo robusto que regule su uso, estableciendo parámetros claros sobre su alcance, límites y mecanismos de control.
La introducción de la IA en el ámbito judicial, particularmente en una fase tan delicada como la admisión casacional, plantea retos jurídicos y éticos que no pueden ser subestimados. En primer lugar, existe el riesgo de que las decisiones preliminares adoptadas por la IA sean percibidas como una delegación indebida de la función jurisdiccional, lo que podría socavar la confianza pública en el sistema judicial. Este riesgo, me obliga a deducir, podría mitigarse mediante la implementación de salvaguardias que garanticen que la supervisión humana sea no solo un elemento complementario, sino central en el proceso.
Desde una perspectiva jurídica, la propuesta de Molins también plantea preguntas sobre la compatibilidad de la IA con los principios fundamentales del derecho procesal, como el derecho a la tutela judicial efectiva y el principio de igualdad de armas. Por ejemplo, ¿cómo garantizar que los algoritmos utilizados sean imparciales y no discriminen a ciertos grupos de litigantes? ¿Qué mecanismos podrían implementarse para que las partes puedan impugnar las decisiones preliminares adoptadas por la IA? Entiendo que estas cuestiones deben ser abordadas desde el diseño mismo del sistema, incorporando medidas que permitan a los litigantes acceder a una revisión completa y exhaustiva de los fundamentos técnicos y jurídicos de cada decisión.
En el ámbito ético, la utilización de la IA en la admisión casacional también plantea un desafío relacionado con la percepción de legitimidad del sistema. Aunque la tecnología puede mejorar la eficiencia, considero que su implementación no debe ir en detrimento de la percepción de imparcialidad y justicia que los ciudadanos esperan del sistema judicial. Por ello, la publicidad de los algoritmos utilizados no solo sería una garantía de transparencia, sino también un paso fundamental para fomentar la aceptación social de estas herramientas
La propuesta de Juan Molins García-Atance constituye un avance significativo en la discusión sobre cómo modernizar el sistema judicial español para enfrentar los retos del siglo XXI. Sin embargo, su implementación exige un enfoque integral que combine innovación tecnológica con un profundo respeto por los principios jurídicos y éticos que sustentan el Estado de Derecho.
En este contexto, la supervisión humana y la publicidad de los algoritmos a aplicar no solo serían esenciales para garantizar la transparencia y la rendición de cuentas, sino también para preservar la confianza pública en un sistema que debe evolucionar sin sacrificar sus valores fundamentales. Me sugiere que, si se gestiona adecuadamente, esta iniciativa podría convertirse en un modelo a seguir para otras jurisdicciones, demostrando que la tecnología y el derecho no solo pueden coexistir, sino también complementarse para construir un sistema más justo, eficiente y accesible para todos.
No hay comentarios.