Q1 para producción, Q2 para rampa, inicio H1

En el ciclo de noticias de hoy, Intel anuncia una actualización de su implementación planificada de su plataforma escalable Xeon de próxima generación conocida como Sapphire Rapids. Sapphire Rapids es la plataforma principal detrás de la próxima supercomputadora Aurora y se espera que brinde soporte para tecnologías de vanguardia como DDR5, PCIe 5.0, CXL y Advanced Matrix Extensions. Con el anuncio de hoy, Intel reitera su compromiso de llevar Sapphire Rapids al mercado para una disponibilidad generalizada en la primera mitad de 2022, mientras que los primeros clientes están trabajando actualmente con silicio temprano para pruebas y optimización.

En una publicación de blog de Lisa Spelman, CVP y gerente general de Xeon and Memory Group de Intel, Intel se adelanta a la ola de noticias al anunciar que se agregará tiempo de validación adicional al ciclo de desarrollo de productos para ayudar a los socios y clientes de clase mundial a optimizar las optimizaciones. y finalmente la Provisión. Con ese fin, Intel ahora está trabajando con estos primeros socios de silicio de primer nivel, generalmente ES0 o ES1, utilizando la designación interna de Intel, para ayudar a probar el hardware en busca de problemas con sus cargas de trabajo de amplio rango. Como explicó el ex CTO de Intel, Mike Mayberry, en la conferencia VLSI de 2020, los socios de hiperescala de Intel terminan probando entre 10 y 100 veces más casos de uso y casos extremos de los que Intel puede validar, lo que hace que trabajar con ellos sea crucial y se convierta en parte del ciclo de implementación.

A medida que continúa la validación, Intel está trabajando con sus socios de primer nivel en sus objetivos y características monetizables específicos que han solicitado para que cuando llegue el momento de la producción (Q1 2022) y la rampa (Q2 2022) y un lanzamiento público completo (1S 2022), estos importantes socios ya se están beneficiando de la estrecha cooperación con Intel. Intel ha declarado que con el lanzamiento de más información sobre Sapphire Rapids, como los próximos eventos como Hot Chips en agosto o el propio evento de Intel en octubre, habrá un enfoque claro en los puntos de referencia y las métricas en las que los clientes confían para los flujos de trabajo monetizables, en parte lo que esto significa. Soportes del ciclo de implementación.

Los socios de primer nivel que reciben el silicio temprano con 12 meses de anticipación y luego proporcionan el silicio final antes de que salga al mercado no es nada nuevo. Le ocurre a todos los procesadores de servidor, independientemente de la fuente. Entonces, cuando finalmente logramos un lanzamiento público adecuado de un producto, esos clientes de hiperescalado y HPC lo han tenido durante seis meses. Durante este tiempo, estas relaciones permiten a los proveedores de CPU modificar esos bits finales a los que el público en general / los clientes corporativos suelen ser más sensibles.

Cabe señalar que un lanzamiento de 2022 H1 por parte de Sapphire Rapids no siempre fue la fecha en las presentaciones. En 2019, Ice Lake Xeon fue un producto de 2020 y Sapphire Rapids fue un producto de 2021. Ice Lake se deslizó hasta 2021, pero Intel todavía patrocinaba la entrega de Sapphire Rapids a la supercomputadora Aurora hasta finales de 2021. En una entrevista con Lisa Spelman en abril de este año, preguntamos sobre la proximidad del Ice Lake Ice retrasado a los rápidos de zafiro. Lisa dijo que esperaban una secuela rápida con las dos plataformas: AnandTech siente que Aurora se ha pospuesto repetidamente y que el "final de 2021" fue una parte difícil del último contrato de Intel con Argonne en la máquina para obtener resultados importantes. En Computex 2021, Spelman anunció en el discurso de apertura de Intel que Sapphire Rapids se lanzaría en 2022, y el anuncio de hoy lo confirma. Esperamos que la disponibilidad general aumente al final del plazo del segundo / tercer trimestre.

Todavía llega más tarde de lo esperado, pero hace que la transición de Ice Lake / Sapphire Rapids sea un poco más diferente. Si se trata de un retraso adicional depende de su perspectiva; Intel afirma que es solo una extensión de validación, mientras que somos conscientes de que otros rastrean el comentario hasta algo más básico como la fabricación. No es ningún secreto que la capacidad de fabricación de Intel para su proceso de 10 nm, o especialmente el ESF de 10 nm en el que se está construyendo Sapphire Rapids, está más allá de las "tres fábricas de rampas" anunciadas a principios de este año. Intel parece sentir que tiene sentido para ellos trabajar más de cerca con sus clientes clave de Hyperscaler y HPC, que representan más del 50-60% de todas las generaciones anteriores de Xeon vendidas, antes de una implementación más amplia. Concéntrese en sus flujos de trabajo monetizables. (Sí, me doy cuenta de que he dicho monetizable varias veces; al final, todo es una generación de ingresos por funciones).

Como parte del anuncio de hoy, Intel también lanzó dos nuevas funciones de Sapphire Rapids.

Primero es Extensiones de matriz extendida (AMX)que fue técnicamente anunciado y ya hay mucha documentación de programación al respecto, pero hoy Intel confirma que AMX y Sapphire Rapids son el primer emparejamiento para esta tecnología. El enfoque de AMX está en los multiplicadores de matriz que permiten una mayor potencia informática en el aprendizaje automático para la capacitación y la inferencia en los "mercados de megatendencia" más importantes de Intel, como AI, 5G, nube y otros. También parte de las revelaciones de AMX de hoy es un cierto nivel de rendimiento: Intel afirma que los primeros silicio Sapphire Rapids con AMX se encuentran en el nivel puramente de hardware. permite al menos un aumento de 2 veces en el rendimiento en comparación con Ice Lake Xeon Silicio con AVX512. Intel quería señalar que es un silicio temprano sin mejoras de software adicionales a Sapphire Rapids. AMX será parte de la cartera DL boost de próxima generación de Intel en el momento del lanzamiento.

La segunda característica es que Intel es una Acelerador de transmisión de datos (DSA). Intel también ha tenido documentación sobre DSA en Internet desde 2019 que indica que es un poderoso acelerador de copia y transformación de datos para transmitir datos desde la memoria y la RAM o hacia otras partes del sistema a través de una unidad de hardware de reasignación de DMA / IOMMU. DSA fue una solicitud de ciertos clientes de Hyperscaler que quisieran implementarlo en su propia infraestructura de nube interna, e Intel quisiera señalar que algunos clientes usarán DSA, algunos usarán la nueva Unidad de Procesamiento de Infraestructura de Intel mientras que otros usarán ambos, dependiendo del nivel de integración o abstracción que le interese.

Ayer supimos que Intel ofrecerá versiones de Sapphire Rapids con HBM integrado para cada cliente, con la primera implementación de estas versiones en Aurora. Como ya se mencionó, Intel confirma que anunciará más detalles en los Hot Chips en agosto y en el evento de innovación de Intel en octubre. Incluso antes de esta fecha, obviamente podría haber algunos detalles sobre la arquitectura, según el comunicado de prensa de hoy.

Lectura realizada

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir