Volver a Blog
Transparencia, ética y supervisión: Caso BOSCO e impacto del AI Act en Europa
Entrada

Transparencia, ética y supervisión: Caso BOSCO e impacto del AI Act en Europa 

El Reglamento Europeo de Inteligencia Artificial (AI Act), aprobado en 2024, marca un antes y un después en la manera en que las organizaciones diseñan, desarrollan y aplican sistemas de IA. 
Esta normativa, la primera ley integral del mundo sobre inteligencia artificial, clasifica los sistemas de IA según su nivel de riesgo (inaceptable, alto, limitado o mínimo) y establece requisitos específicos de seguridad, supervisión humana y transparencia para garantizar un uso ético y responsable de la tecnología. 

Transparencia de algoritmos en la administración pública española: el caso BOSCO 

El Tribunal Supremo de España ya ha dado un primer paso en el cumplimiento de lo que plantea esta regulación. Recientemente ha dictado una sentencia histórica (casación 7878/2024, de 11 de septiembre de 2025) que obliga a la Administración a entregar el código fuente del algoritmo BOSCOun sistema creado para decidir quién puede acceder al bono social eléctrico, una ayuda destinada a consumidores vulnerables y usada por las empresas de energía eléctrica. 

BOSCO ha sido catalogado como un sistema de “alto riesgo”, ya que influye directamente en decisiones económicas y sociales que afectan a los ciudadanos. 
Con este fallo, España se adelanta a la aplicación del AI Act, reconociendo el derecho a la transparencia algorítmica como una pieza esencial de una IA ética y responsable en el sector público. 

Uso ético de la IA en entornos regulados  

En este contexto, el uso de la inteligencia artificial para la verificación de identidad mediante biometría se considera un sistema de riesgo limitado según los criterios del AI Act, al combinar precisión, seguridad y respeto por la privacidad del usuario. Estas tecnologías se aplican en sectores regulados como la banca, los seguros o las fintech para prevenir el fraude y garantizar la confianza digital. 

El reglamento subraya la importancia de que las personas puedan decidir libre, voluntaria e inequívocamente sobre el uso de estas tecnologías. Por ello, nuestras soluciones de verificación de identidad se diseñan siempre bajo el principio del consentimiento informado, garantizando que el usuario mantenga el control sobre su identidad y haciendo un uso ético de la biometría. 

A diferencia de los modelos centralizados, el tratamiento de la información biométrica en nuestras soluciones se realiza de forma cifrada y anonimizada, sin almacenar datos personales ni permitir su reutilización. Los datos permanecen siempre bajo la custodia exclusiva de cada organización que utiliza la tecnología, reforzando la soberanía del usuario y el cumplimiento de la normativa de protección de datos. 

Además, se aplican mecanismos activos de mitigación de sesgos mediante algoritmos entrenados con conjuntos de datos diversos y auditados bajo los estándares del NIST (National Institute of Standards and Technology). Estas certificaciones garantizan precisión, inclusividad y equidad en los procesos de verificación, asegurando resultados consistentes para personas de todas las edades, géneros y orígenes. 

Hacía una IA más transparente y segura 

La inteligencia artificial está transformando la relación entre ciudadanos, empresas y gobiernos. Pero su implementación debe ir acompañada de transparencia y supervisión humana para garantizar que la innovación tecnológica avance sin comprometer los derechos fundamentales. 

El AI Act no solo impone obligaciones: abre la puerta a un nuevo estándar de confianza digital, donde la transparencia y la ética se convierten en la base de una IA más justa, segura y centrada en las personas.