Listo para usar en supercomputación

Uno de los grandes anuncios en el evento del centro de datos de AMD hace unas semanas fue el anuncio de su acelerador de cómputo basado en CDN2, el Instinct MI250X. El MI250X utiliza dos matrices de cómputo de gráficos MI200 en el nodo de fabricación N6 de TSMC junto con cuatro módulos HBM2E por matriz, utilizando un nuevo diseño de paquete '2.5D' que une la matriz y el sustrato para un alto rendimiento y bajo consumo de energía Conectividad utilizada. Esta es la GPU que entra en Frontier, uno de los sistemas de exaescala de EE. UU. Que está programado para encenderse en breve. En la conferencia de supercomputación de esta semana, HPE mostró una de estas hojas de la marca HPE Cray, junto con una vista frontal completa del MI250X. Gracias a Patrick Kennedy de ServeTheHome por compartir estas imágenes y por permitirnos volver a publicarlas.

El chip MI250X es un paquete shimmed en un factor de forma OAM. OAM son las siglas de OCP Accelerator Module, que fue desarrollado por Open Compute Project (OCP), un organismo estándar de la industria para servidores y computación de rendimiento. Y este es el factor de forma estándar para los aceleradores que utilizan los socios, especialmente cuando se empaquetan muchos de ellos en un sistema. Ocho de ellos para ser precisos.

Esta es una media cuchilla de 1U con dos nodos. Cada nodo es una CPU AMD EPYC 'Trento' (que es una versión IO personalizada de Milán con Infinity Fabric) combinada con cuatro aceleradores MI250X. Todo está refrigerado por líquido. AMD dijo que el MI250X puede obtener hasta 560 W por acelerador, por lo que ocho de esos más dos CPU podrían significar que este dispositivo necesita 5 kilovatios de potencia y refrigeración. Si eso es solo la mitad de una cuchilla, estamos hablando de una densidad de potencia y computacional seria.

Cada nodo parece ser relativamente autónomo: la CPU de la derecha no está al revés porque los pines traseros del zócalo no son visibles, pero también está refrigerado por líquido. Lo que parecen cuatro tubos de calor de cobre, dos a cada lado de la CPU, es en realidad una configuración de memoria completa de 8 canales. Estos servidores no tienen fuentes de alimentación, pero están alimentados por una placa posterior unificada en el bastidor.

Los conectores traseros se parecen a esto. Cada rack de nodos Frontier utilizará la estructura de interconexión Slingshot de HPE para escalar a toda la supercomputadora.

Sin duda, los sistemas como este están sobre-diseñados para brindar confiabilidad a largo plazo; es por eso que tenemos la mayor cantidad de enfriamiento posible, suficientes fases de energía para un acelerador de 560 W, e incluso en esta imagen puede ver estas placas base básicas en las que se encuentran las conexiones OAM. easy 16 capas, si no 20 o 24. Como referencia, una placa base de consumo económico hoy en día solo puede tener cuatro capas, mientras que las placas base para entusiastas tienen 8 o 10, a veces 12 para HEDT.

En la conferencia de prensa mundial, el presidente principal y profesor de HPC de fama mundial, Jack Dongarra, sugirió que Frontier está a punto de convertirse en uno de los primeros sistemas de exaescala en los EE. UU. No dijo abiertamente que vencería a la supercomputadora Aurora (Sapphire Rapids + Ponte Vecchio) en primer lugar, ya que no tiene los mismos conocimientos sobre ese sistema, pero sonaba esperanzado de que Frontier obtuviera un ExaFLOP de 1+. enviaría espacio para la lista TOP500 en junio de 2022.

Muchas gracias a Patrick Kennedy y ServeTheHome por permiso para compartir sus fotos.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir