El BSC facilita la certificación de seguridad de sistemas críticos basados en AI autónomos para una industria europea más competitiva

14 Febrero 2023

Coordinado por el BSC, SAFEXPLAIN tiene como objetivo proporcionar soluciones científicas y técnicas a la industria europea que permitan sistemas críticos totalmente autónomos para automóviles, trenes o satélites.

El proyecto SAFEXPLAIN (Sistemas críticos basados en AI seguros y explicables), financiado por la UE y lanzado el 1 de octubre de 2022, busca establecer las bases para aplicaciones de sistemas críticos basados en AI autónomos (CAIS) que sean más inteligentes y seguros, asegurando que cumplan con los requisitos de seguridad funcional en entornos que requieren respuestas rápidas y en tiempo real que cada vez se ejecutan en el límite. Este proyecto de tres años, coordinado por el Barcelona Supercomputing Center-Centro Nacional de Supercomputación (BSC-CNS) reúne a un consorcio de seis socios que representan a la academia y la industria.

La tecnología AI ofrece el potencial de mejorar la competitividad de las empresas europeas y se espera que el mercado de AI alcance 191 mil millones de dólares en 2024 en respuesta a la creciente demanda de empresas por sistemas autónomos y inteligentes maduros. Los CAIS se están haciendo especialmente ubicuos en industrias como ferrocarriles, automóviles y espacio, donde la digitalización de los CAIS ofrece grandes beneficios a la sociedad, incluida una mayor seguridad en las carreteras, los cielos y los aeropuertos a través de la prevención del 90% de las colisiones por año y la reducción de hasta un 80% del perfil de CO2 de diferentes tipos de vehículos.

La tecnología Deep Learning (DL) que apoya AI es clave para la mayoría de las funciones avanzadas de software futuras en los CAIS, sin embargo, existe una brecha fundamental entre sus requisitos de seguridad funcional (FUSA) y la naturaleza de las soluciones DL. La falta de transparencia (principalmente explicabilidad y trazabilidad) y la naturaleza dependiente de datos y estocástica del software DL chocan con la necesidad de soluciones claras, verificables y basadas en pruebas de aprobado/fallo para los CAIS. SAFEXPLAIN aborda este desafío proporcionando un enfoque novedoso y flexible para la certificación y, por lo tanto, la adopción de soluciones DL en CAIS.

Jaume Abella, coordinador de Safexplain, destaca que "este proyecto tiene como objetivo replantear los procesos de certificación FUSA y el diseño de software DL para establecer las bases para cómo certificar sistemas autónomos de cualquier tipo más allá de casos específicos y no generalizables que puedan existir a día de hoy”

El BSC promoverá la observabilidad de la plataforma y utilizará monitores de rendimiento para proporcionar evidencia de la corrección de los resultados de análisis de rendimiento. Este trabajo abordará los desafíos de 1) proporcionar una predictibilidad a nivel de plataforma centrándose en la ejecución de criticidad mixta para el software relacionado con DL, 2) realizar implementaciones eficientes de aplicaciones de criticidad mixta basadas en DL en la plataforma y 3) ideando métodos efectivos de análisis de tiempo para obtener garantías en tiempo real. Este paradigma de criticidad mixta será clave para permitir que cada aplicación sea certificada de acuerdo con su nivel de integridad asociado en lugar de certificar todo el software para la máxima integridad.

El BSC también garantizará la perfección en las tareas para asegurar un proceso de integración suave con los tres estudios de casos. Estos estudios de caso de los sectores automotriz, ferroviario y espacial ilustrarán los beneficios del uso de la tecnología SAFEXPLAIN, ya que cada dominio tiene sus propios requisitos de seguridad rigurosos establecidos por sus respectivos estándares de seguridad. El proyecto ajustará los sistemas de certificación automotriz y ferroviario y los enfoques de calificación espacial para permitir el uso de nuevas soluciones DL conscientes de FUSA.

Acerca de SAFEXPLAIN

SAFEXPLAIN (Safe and Explainable Critical Embedded Systems based on AI) es una Acción de Investigación e Innovación financiada por HORIZON bajo el acuerdo de subvención 101069595. El proyecto comenzó el 1 de octubre de 2022 y finalizará en septiembre de 2025. El proyecto está formado por un consorcio interdisciplinario de seis socios coordinados por el Barcelona Supercomputing Center-Centro Nacional de Supercomputación (BSC-CNS). El consorcio está compuesto por tres centros de investigación, RISE (Suecia; Experticia en IA), IKERLAN (España; Experticia en FUSA y ferrocarril) y BSC (España; Experticia en plataforma) y tres industrias de CAIS, NAVINFO (Países Bajos; Automotriz), AIKO (Italia; Espacial) y EXIDA DEV (Italia; FUSA y automotriz).

 

Ilustración: 1: Consorcio de SAFEXPLAIN en la reunión de lanzamiento del proyecto en Barcelona
Ilustración: 2: Visión de SAFEXPLAIN