Cicyt 2015: COMPUTACION DE ALTAS PRESTACIONES VII

Estado: Terminado Start:
01/01/2016
End:
31/12/2020

Primary tabs

Description

Además de la necesidad de ejecutar grandes simulaciones numéricas, el crecimiento exponencial de la cantidad de datos disponibles aporta al método científico un nuevo
paradigma basado en su análisis masivo; "Big Data" se refiere al conjunto de retos tecnológicos asociados con la obtención, gestión, análisis y visualización de grandes
volúmenes de datos. Estas nuevas cargas de trabajo representan un cambio importante que está transformando todo el panorama de la investigación en High-Performance Computing (HPC), en una era de cambios rápidos e innovación en el diseño de tecnologías de procesador, memoria, interconexión y almacenamiento. Esta convergencia HPC/BigData requiere un enfoque basado en una estrategia de co-diseño hardware/software para el diseño de las tecnologías de hardware y software, siendo la eficiencia energética y la tolerancia a fallos retos claros.
El primer objetivo del equipo de investigación es influir como los sistemas HPC se construyen, programan y utilizan. Para ello, este proyecto pretende lo siguiente:

1) explorar nuevas tecnologías y arquitecturas que puedan reducir el consumo de energía, haciendo uso de diseños heterogéneos y organizaciones de memoria híbridas que den soporte a la integración de analítica Big Data en flujos de trabajo científico;

2) explorar la combinación de redes de alta velocidad y memorias de alto rendimiento y capacidad para acelerar el procesamiento de grandes cantidades de datos;

3) desarrollar modelos de programación con el objetivo de mejorar la programabilidad, portabilidad y fácil acceso a los datos, teniendo en cuenta la disponibilidad de cientos de miles de nodos con cientos de núcleos;

4) evolucionar las herramientas de análisis de rendimiento para extraer conocimiento del comportamiento de las aplicaciones a partir de grandes volúmenes de datos generados por la ejecución instumentada de programas y entornos de ejecución, lo que requerirá el uso de infraestructuras de Big Data para almacenar los datos de rendimiento y realizar su analítica;

5) entornos de ejecución en infraestructuras virtualizadas capaces de explotar el paralelismo que ofrece la concurrencia expresada por el programador, proporcionar acceso eficiente a los datos en tecnologías de almacenamiento distribuidos, y optimizar la utilización de la energía; y

6) explorar nuevos aspectos algorítmicos para realizar análisis de datos de manera eficiente y simulaciones in-situ dirigidas por la disponibilidad de datos a gran escala.
El segundo objetivo de este equipo es la publicación de los resultados de investigación en los mejores congresos y revistas, el desarrollo de prototipos "open source" para materializar estas ideas y su uso en benchmarks y aplicaciones reales. La cooperación con fabricantes a través de acuerdos de investigación y la participación en proyectos europeos son los principales mecanismos que se utilizarán para explotar las ideas en productos y escenarios reales.

La trayectoria del equipo de investigación, con una masa crítica de investigadores, una visión holística y voluntad de explorar nuevas tecnologías y retos, posicionan al equipo investigador como un líder internacional clave en la convergencia HPC/BigData y su aplicación a dominios no estándar (computación cognitiva o Internet of Things), atendiendo a los requerimientos de eficiencia energética de las nuevas cargas de trabajo intensivas en cálculo y datos, en una era de grandes cambios en las tecnologías HPC y embedded disponibles.

Funding