La Sala de lo Contencioso-Administrativo del Tribunal Supremo (TS) ha dictado una sentencia que obliga a la Administración a desvelar “las tripas” de los algoritmos o programas informáticos que toman decisiones que afectan a la gestión de bienes públicos y de derechos o prestaciones sociales. En concreto, el fallo del Alto Tribunal condena a la Administración a proporcionar a la Fundación Ciudadana Civio el acceso al código fuente de BOSCO, la aplicación que decide quién recibe y quién no el bono social eléctrico, que supone un ahorro notable en la factura de la luz.
La sentencia –que supone un hito en el avance hacia la fiscalización de los algoritmos porque crea jurisprudencia–, considera que el uso de aplicaciones y sistemas automatizados en la toma de decisiones públicas debe ir acompañado de la transparencia necesaria para permitir su supervisión.
Y deja claro que ese derecho constitucional a la información pública no puede limitarse de forma absoluta “ni por razones de seguridad nacional ni de propiedad intelectual”, según explican fuentes de Civio, la oenegé que promueve la transparencia de las instituciones y que inició el litigio en 2018 reclamando al Ministerio para la Transición Ecológica el acceso al código informático de BOSCO. Porque, durante años, la aplicación del Gobierno ha venido decidiendo quién era “pobre” a efectos de recibir el bono social eléctrico sin que nadie pudiera auditar su código.

El acceso al bono social conlleva un ahorro significativo en el recibo de la luz
En este sentido, portavoces del Supremo explican que la sentencia fija jurisprudencia en cuanto a que el derecho de acceso a la información pública es inseparable del Estado democrático y de Derecho y que “adquiere especial relevancia ante los riesgos que entraña el uso de las nuevas tecnologías en el ejercicio de las potestades públicas o la prestación de servicios públicos”.
Ponen énfasis en la necesidad de que los ciudadanos tengan la información necesaria para comprender y conocer cómo funcionan los sistemas informáticos de toma de decisiones automatizadas de las Administraciones públicas, “especialmente cuando tienen por objeto el reconocimiento de derechos sociales”, y eso requiere, en ocasiones, “el acceso a su código fuente” para comprobar que el sistema algorítmico opera y aplicar de forma adecuada la normativa.
En una nueva democracia digital, los poderes públicos tienen la obligación de explicar de forma comprensible cómo se toman las decisiones que afectan a los ciudadanos
Aunque la sentencia reconoce que conceder acceso al código fuente de estos sistemas puede entrañar riesgos, insta a valorarlos en cada caso concreto y siempre teniendo en cuenta la especial relevancia de esa información para el interés general.
La Sala de lo Contencioso-Administrativo apunta en su fallo que, en una nueva “democracia digital”, los poderes públicos tienen la obligación de “explicar de forma comprensible el funcionamiento de los algoritmos que se emplean en la toma de decisiones” que afectan a las vidas de los ciudadanos “para permitirles conocer, fiscalizar y participar en la gestión pública”.
La explicabilidad de los algoritmos es una garantía efectiva frente a la arbitrariedad o los sesgos en la toma de decisiones automatizadas
Los magistrados consideran que la “explicabilidad de los algoritmos” es una “garantía efectiva frente a la arbitrariedad o los sesgos discriminatorios en la toma de decisiones total o parcialmente automatizadas”.
Y ello gana relevancia cuando muchos gobiernos, entre ellos el de la Generalitat, están apostando decididamente por utilizar la inteligencia artificial como estrategia para agilizar y hacer más eficientes los servicios públicos, un objetivo que debería se compatible con que los ciudadanos sepan quién, cómo y por qué se responsabiliza de las decisiones automatizadas que tienen que ver con su vida, con los derechos o servicios públicos a los que puede acceder o que se le deniegan.