“Sistemas y aplicaciones informáticas de alto rendimiento” - curso 40.000 rublos. de MSU, entrenando 8 semanas. (2 meses), Fecha: 27 de noviembre de 2023.
Miscelánea / / November 27, 2023
Objetivo La implementación del programa constituye una formación básica para personas que deseen adquirir conocimientos y habilidades en el desarrollo de aplicaciones de alto rendimiento para supercomputadoras.
El programa estudia los conceptos y principios básicos de la construcción de sistemas de supercomputadoras, la arquitectura y funcionalidad del software del sistema de supercomputadoras. Tecnologías de programación paralela MPI y OpenMP, métodos para depurar y ajustar la eficiencia de programas paralelos para supercomputadoras que utilizan tecnologías de paso de mensajes MPI y OpenMP.
Se presta especial atención al estudio y desarrollo práctico de las tecnologías en estudio y los métodos utilizados. construir programas paralelos usando el ejemplo de supercomputadoras instaladas en la Universidad Estatal de Moscú: los sistemas Lomonosov y Blue Gen/P. En particular, se estudian las características del uso de compiladores modernos para los lenguajes de programación C, C++, Fortran instalados en estos sistemas, el uso bibliotecas matemáticas paralelas, sistemas instrumentales para depurar y ajustar la eficiencia de programas paralelos, métodos para organizar el trabajo paralelo con archivos.
forma de estudio
Tiempo completo
Alcance del programa (horas académicas)
Total - 72
Aula - 60
Requisitos de admisión: personas con educación superior, actividad profesional: científicos en el campo de las tecnologías de la información y la comunicación, modelos matemáticos utilizando sistemas informáticos de alto rendimiento, profesores de instituciones de educación superior, ingenieros y trabajadores técnicos de organizaciones asociadas con el uso de informática de alto rendimiento tecnología.
Los resultados del aprendizaje:
Competente en tecnologías de programación paralela MPI y OpenMP, trabajando con supercomputadoras y redes de información; comprensión de los principios de construcción de arquitecturas de supercomputadoras y su software, conocimiento de métodos y herramientas básicos para desarrollar programas paralelos para supercomputadoras.
Como resultado del dominio de la asignatura, el estudiante deberá:
saber:
· fundamentos de métodos para desarrollar programas paralelos para supercomputadoras;
· principios de diseño de arquitectura de supercomputadoras;
· especificación de la tecnología de programación paralela MPI-1 y MPI-2, composición y características de varias bibliotecas abiertas que implementan los estándares MPI;
· Directivas y funciones de OpenMP;
· conceptos básicos y directivas de sistemas de gestión de tareas para supercomputadoras;
· métodos de acceso remoto a supercomputadoras, protocolos ssh y ftp para acceso remoto y copia de información;
· métodos para evaluar la eficacia de programas paralelos
ser capaz de:
· aplicar eficazmente las tecnologías estudiadas en la práctica del desarrollo de programas paralelos para las supercomputadoras Lomonosov y Blue Gene/P.
Propio Tecnologías para el desarrollo de programas paralelos para supercomputadores.
Módulo 1. Introducción al tema de la informática de alto rendimiento.
1.1. Definiciones básicas y conceptos básicos.
1.2. Justificación de la necesidad de desarrollar supercomputadores. Tareas del "Gran Reto".
1.3. Principales direcciones de desarrollo de tecnologías de supercomputadoras. Problemas de la computación exaflop.
1.4. Problemas de muestra
2. Principios de diseño de arquitecturas para sistemas informáticos de alto rendimiento.
2.1. Elementos básicos de las arquitecturas de sistemas informáticos multiprocesador.
2.1.1. Nodos procesadores. Ejemplos de implementaciones.
2.1.2. Organización de la memoria multinivel de supercomputadoras.
2.1.3. Métodos para implementar subsistemas de comunicación de nodos procesadores.
2.1.4. Métodos de organización hardware de sistemas de entrada-salida.
2.2. Revisión de arquitecturas de sistemas informáticos multiprocesadores.
2.2.1. Sistemas multiprocesador con memoria compartida.
2.2.2. Sistemas multiprocesador con memoria distribuida.
2.2.3. Sistemas informáticos heterogéneos de alto rendimiento.
2.2.4. Sistemas informáticos masivamente paralelos.
2.2.5. Sistemas de clusters.
2.3. Métodos para evaluar el rendimiento de los sistemas informáticos.
2.4. Tendencias en el desarrollo de sistemas informáticos de alto rendimiento. Ley de Moore. Lista Top500 y Top50.
2.5. Ejemplos de arquitecturas de sistemas informáticos de alto rendimiento.
2.5.1. Arquitectura del superordenador de la Universidad Estatal de Moscú "Lomonosov"
2.5.2. Arquitectura del sistema multiprocesador de memoria compartida IBM Regatta.
2.5.3. Arquitectura del sistema informático masivamente paralelo BlueGene/P
3. Elementos básicos de software para sistemas informáticos multiprocesador.
3.1. SO.
3.2. Sistemas de archivos paralelos.
3.3. Sistemas de gestión de puestos de trabajo.
3.4. Bibliotecas matemáticas paralelas.
3.5. Sistemas de programación y entornos de herramientas para desarrollar y depurar programas paralelos.
3.6. Software de supercomputadora Lomonosov, BlueGene/P.
Módulo 2. Conceptos básicos de la tecnología OpenMP.
2.1 Conceptos básicos. Funciones secundarias. Áreas paralelas y secuenciales. Distribución del trabajo. Bucles paralelos.
2.2 Secciones paralelas. Tareas. Métodos de sincronización.
Módulo 3. Fundamentos de la tecnología de paso de mensajes MPI.
3.1. Estándares MPI: implementación, direcciones de desarrollo.
3.2. Conceptos básicos, principios de construcción de programas paralelos utilizando tecnología MPI.
3.3. El concepto de modos de transmisión de mensajes.
3.4. Organización de intercambios punto a punto.
3.5. Operaciones MPI colectivas.
3.6. Tipos de datos derivados.
3.7. Topologías virtuales y operaciones sobre comunicadores.
3.8. Intercomunicadores. Comunicaciones unidireccionales. Error de procesamiento.
3.9. Control dinámico de procesos. E/S paralelas.