Referencias Bibliográficas: [Pacheco, 2011,,Kirk and mei W. Hwu, 2013]
Temas
- ¿Porqué y para qué Computación paralela y Distribuida?
- Procesadores mutlinúcleo.
- Memoria compartida vs memoria distribuida.
- Multiprocesamiento simétrico.
- SIMD, procesamiento de vectores.
- GPU, coprocesamiento.
- Taxonomia de Flynn.
- Problemas de Memoria:
- Caches multiprocesador y coherencia de cache
- Acceso a Memoria no uniforme (NUMA)
- Topologías.
- Interconecciones
- Clusters
- Compartir recursos (p.e., buses e interconexiones)
- La ley de Amdahl: la parte de la computación que no se puede acelerar limita el efecto de las partes que si pueden.
Objetivos de Aprendizaje
- Distinguir el uso de recursos computacionales para una respuesta mas rápida para administrar el acceso eficiente a un recurso compartido [Familiarizarse]
- Explicar las diferencias entre memoria distribuida y memoria compartida [Evaluar]
- Describir la arquitectura SMP y observar sus principales caracteristicas [Evaluar]
- Distinguir los tipos de tareas que son adecuadas para máquinas SIMD [Usar]
- Describir las ventajas y limitaciones de GPUs vs CPUs [Usar]
- Explicar las caracteristicas de cada clasificación en la taxonomía de Flynn [Usar]
- Describir los desafíos para mantener la coherencia de la caché [Familiarizarse]
- Describir los desafíos clave del desempeño en diferentes memorias y topologías de sistemas distribuidos [Familiarizarse]
- Usar herramientas de software para perfilar y medir el desempeño de un programa
Generado por Ernesto Cuadros-Vargas , Sociedad Peruana de Computación-Peru, basado en el modelo de la Computing Curricula de IEEE-CS/ACM