Intel lanza Sapphire Rapids Xeon de próxima generación con memoria de gran ancho de banda

Como parte del anuncio de hoy de International Supercomputing 2021 (ISC), Intel anunció que lanzará una versión de su próximo procesador escalable Sapphire Rapids (SPR) Xeon con memoria de alto ancho de banda (HBM). Esta versión de SPR-HBM se lanzará más adelante en 2022, después del lanzamiento principal de Sapphire Rapids, e Intel ha declarado que será parte de su oferta de disponibilidad general para todos, en lugar de una implementación propietaria.

Se alcanzó un límite de ancho de banda de memoria

A medida que ha aumentado la cantidad de núcleos en el espacio del procesador del servidor, los desarrolladores de estos procesadores deben asegurarse de que haya suficientes datos para que los núcleos alcancen el máximo rendimiento. Esto significa desarrollar cachés grandes y rápidos por núcleo para que haya suficientes datos de alta velocidad cerca, hay conexiones de gran ancho de banda dentro del procesador para transportar datos de un lado a otro, y hay suficiente ancho de banda de la memoria principal de los almacenes de datos fuera del procesador.

Nuestro sistema de prueba Ice Lake Xeon con 32 ranuras DDR4-3200

Aquí en AnandTech llevamos un tiempo preguntando a los fabricantes de procesadores sobre este último punto, la memoria principal. Solo hay una cantidad limitada de ancho de banda que se puede lograr agregando continuamente canales de memoria DDR4 (y pronto DDR5). Por ejemplo, los diseños actuales de memoria DDR4-3200 de ocho canales tienen un máximo teórico de 204,8 gigabytes por segundo, que palidece en comparación con las GPU que reclaman 1000 gigabytes por segundo o más. Las GPU pueden lograr anchos de banda más altos porque usan GDDR, que está soldado a la placa, lo que permite tolerancias más estrictas a expensas de un diseño modular. Muy pocos procesadores principales para servidores han integrado alguna vez una memoria de trabajo de este tipo.


Intel Xeon Phi 'KNL' con 8 pads MCDRAM en 2015

Uno de los procesadores que solía construirse con memoria incorporada era el Xeon Phi de Intel, un producto que se descontinuó hace unos años. La base del diseño de Xeon Phi fue una gran cantidad de computación vectorial, controlada por hasta 72 núcleos base, pero combinada con 8-16 GB de 'MCDRAM' a bordo, conectados a través de 4-8 chiplets integrados en la carcasa. Esto permitió 400 gigabytes por segundo de caché o memoria direccionable, junto con 384 GB de memoria principal a 102 gigabytes por segundo. Sin embargo, desde que se suspendió Xeon Phi, ningún procesador de servidor principal divulgado públicamente (al menos para x86) ha tenido dicha configuración.

Índice

    Nuevos Sapphire Rapids con almacenamiento de gran ancho de banda

    Nos vemos el año que viene. Se lanza el nuevo Sapphire Rapids Xeon Scalable de Intel con memoria de alto ancho de banda (SPR-HBM). En lugar de ocultarlo para usarlo con un hiperescalador específico, Intel ha declarado que AnandTech que se han comprometido a hacer que Sapphire Rapids habilitado para HBM esté disponible para todos los clientes corporativos y proveedores de servidores. Estas versiones aparecerán después del lanzamiento principal de Sapphire Rapids y contienen algunas configuraciones interesantes. Entendemos que esto significa que SPR-HBM estará disponible en una configuración con conexión.

    Intel afirma que SPR-HBM se puede utilizar con DDR5 estándar, lo que proporciona un nivel adicional de almacenamiento en caché de memoria. El HBM puede direccionarse directamente o dejarse como un caché automático, lo cual entendemos, que sería muy similar a cómo los procesadores Xeon Phi de Intel podrían acceder a su memoria de gran ancho de banda.

    Alternativamente, SPR-HBM puede funcionar completamente sin DDR5. Esto reduce el espacio físico del procesador y permite un diseño más denso en servidores de alta densidad que no dependen en gran medida de la capacidad de almacenamiento (estos clientes ya están exigiendo ajustes de diseño de cuatro canales de todos modos).

    No se reveló el tamaño de la memoria, ni el ancho de banda ni la tecnología. Al menos esperamos el equivalente de hasta 8 pilas altas de HBM2e con hasta 16 GB cada una, con 1-4 pilas integradas que conducen a 64 GB de HBM. A una velocidad máxima teórica de 460 GB / s por pila, eso significaría 1840 GB / s de ancho de banda, aunque podemos pensar en un poco más de rendimiento y rendimiento equivalente a 1 TB / s, lo que aún significaría un aumento considerable. Dependiendo de sus necesidades, Intel puede completar diferentes versiones de la memoria en diferentes opciones de procesador.

    Uno de los elementos clave a considerar aquí es que el almacenamiento en el paquete viene con un costo de electricidad en el paquete. Por cada vatio que necesita el HBM dentro de la carcasa, hay un vatio menos de potencia informática en los núcleos de la CPU. Sin embargo, los procesadores de servidor a menudo no llegan a sus límites en las frecuencias pico, sino que optan por un punto de rendimiento / frecuencia más eficiente y escalan los núcleos. Sin embargo, HBM es un compromiso en este sentido: si HBM consumiera de 10 a 20 W por pila, cuatro pilas consumirían fácilmente el presupuesto de energía del procesador (y este presupuesto de energía debe administrarse con controladores y potencia de salida adicionales, lo que agrega complejidad y costo ).

    Una cosa que fue confusa acerca de la presentación de Intel, y pregunté al respecto, pero mi pregunta fue ignorada durante la sesión informativa virtual, es que Intel sigue publicando varias imágenes de paquetes de Sapphire Rapids. Ya había dos variantes en la plataforma de información para este anuncio. Lo anterior (que en realidad parece un paquete Xe-HP alargado en el que alguien puso un logotipo) y este (que es más cuadrado y tiene diferentes muescas):

    Ha habido algunas filtraciones no confirmadas en Internet que presentan SPR en un tercer paquete diferente, lo que hace que todo sea confuso.

    Sapphire Rapids: lo que sabemos

    Intel se ha burlado de Sapphire Rapids durante casi dos años como el sucesor de su familia de procesadores escalables Ice Lake Xeon. SPR se basa en SuperFin mejorado de 10 nm y será el primer procesador de Intel en utilizar memoria DDR5, conectividad PCIe 5 y soporte CXL 1.1 para conectividad de próxima generación. En términos de memoria, Intel también ha anunciado que Sapphire admitirá Rapids Crow Pass, la próxima generación de memoria Intel Optane.

    Para la tecnología central, Intel ha confirmado (nuevamente) que Sapphire Rapids utilizará núcleos Golden Cove como parte de su diseño. Golden Cove será fundamental para los procesadores de consumo Alder Lake de Intel a finales de este año, pero Intel indicó rápidamente que Sapphire Rapids ofrecerá una configuración central "optimizada para servidores". Intel ha hecho esto en el pasado con sus procesadores Skylake Xeon y Ice Lake Xeon, y la variante de servidor a menudo tiene una estructura de caché L2 / L3 diferente a la de los procesadores de consumo y una conexión diferente (anillo frente a malla, malla en servidores). .

    Sapphire Rapids será el procesador central en el corazón de la supercomputadora Aurora en Argonne National Labs, donde dos procesadores SPR se combinarán con seis aceleradores Intel Ponte Vecchio, que también serán nuevos en el mercado. Como parte del anuncio de hoy, Intel también anunció que Ponte Vecchio estará ampliamente disponible en OAM y 4x factores de forma densos:

    Sapphire Rapids también será el primer procesador Intel que admita Advanced Matrix Extensions (AMX), que sabemos que ayudará a acelerar los flujos de trabajo de matrices pesadas como el aprendizaje automático, al mismo tiempo que ofrece compatibilidad con BFloat16. Esto se combina con las actualizaciones del software DL Boost de Intel y la compatibilidad con OneAPI. Dado que los procesadores Intel siguen siendo muy populares para el aprendizaje automático, especialmente la capacitación, Intel quiere capitalizar cualquier crecimiento futuro en este mercado con Sapphire Rapids. SPR también se actualiza con la última seguridad basada en hardware de Intel.

    Se anticipa con entusiasmo que Sapphire Rapids también será el primer chip Xeon de múltiples computadores de Intel en incorporar el silicio (no contamos los híbridos Cascade Lake AP), y hay filtraciones no confirmadas que sugieren que este es el caso. sin embargo, nada que Intel haya verificado todavía.

    La supercomputadora Aurora está programada para su entrega a fines de 2021 y se espera que sea la primera implementación oficial de Sapphire Rapids. Esperamos un lanzamiento completo de la plataforma en algún momento de la primera mitad de 2022, con disponibilidad general poco después. Se desconoce el lanzamiento exacto de SPR-HBM, pero dados esos plazos, el cuarto trimestre de 2022 parece bastante razonable dependiendo de qué tan agresivamente intente Intel atacar el lanzamiento dada la competencia de otros proveedores de x86 o de Arm.

    Lectura relacionada

    Deja una respuesta

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

    Subir