real time web analytics

AMD Epyc 4 supera a Intel en DDR5, PCIe 5.0 en el centro de datos • The Register

El estado de AMD como el desvalido rudimentario que sigue a Intel ha cambiado. El fabricante de chips ha logrado adelantarse a su rival Intel con el lanzamiento de sus procesadores Epyc “Genoa” de cuarta generación esta semana.

La última evolución de la plataforma de servidor de AMD no solo aumenta el número de núcleos a 96 y las velocidades de reloj hasta 4,4 GHz, sino que también supera a Sapphire Rapids de Intel en el mercado como la primera CPU x86 en el centro de datos compatible con DDR5, PCIe 5.0 y Compute. Estándares Express Link (CXL).

Las CPU se basan en la misma microarquitectura Zen 4 y nodos de proceso TSMC de 5 nm que vimos en los chips de escritorio de la serie Ryzen 7000 de AMD a principios de este año. Esto, según AMD Fellow y el creador de Zen, Mike Clark, contribuye a una mejora del 14 por ciento de instrucciones por reloj (IPC) con respecto a Zen 3.

Sin embargo, las ganancias del IPC son solo una parte de la historia. Combinado con un mayor número de núcleos y velocidades de reloj, Ram Peddibhotla, vicepresidente de gestión de productos Epyc de AMD, afirma que sus CPU insignia Epyc 4 de 96 núcleos son dos veces más rápidas que las piezas Milan de 64 núcleos del año pasado en una variedad de cómputo de alto rendimiento en la nube ( HPC) y puntos de referencia empresariales. Como de costumbre, recomendamos tomar estas afirmaciones con un saludable grano de sal.

Más núcleos, mayor consumo de energía

Echar un vistazo debajo del disipador de calor ahora aún más grande de Génova (sí, también hay un nuevo zócalo) revela cómo AMD ha logrado meter tantos núcleos en un solo paquete. Lo has adivinado, más chiplets.

El paquete más grande deja espacio para cuatro Core Complex Dies (CCD) adicionales, lo que eleva el total a 12. Sin embargo, el diseño del núcleo real de estos chipsets permanece prácticamente sin cambios con respecto a Milán, con ocho núcleos que comparten 32 MB de caché L3 entre ellos. Lo nuevo es el cambio de los 7nm de TSMC a su proceso más avanzado de 5nm y el uso de los núcleos Zen 4 de AMD, que duplica el caché L2 a 1 MB por núcleo.

AMD también aumentó las velocidades de reloj de los chips en varios cientos de megahercios en todos los ámbitos, aunque aparentemente a expensas de temperaturas térmicas más altas. La potencia de diseño térmico (TDP) predeterminada núcleo por núcleo no ha cambiado demasiado con respecto a la última generación, rondando los 280 W para las piezas de 64 núcleos de AMD, pero ahora los clientes que desean extraer las frecuencias más altas posibles de estos chips ahora pueden configurarlos. hasta 400W. Eso es un aumento de 120 W en el consumo de energía en comparación con Milán.

Los TDP configurables más altos de Génova no sorprenden dada la tendencia de toda la industria hacia CPU y GPU más potentes y con mayor densidad de energía en los últimos años. Apenas esta semana nos enteramos de que las CPU Sapphire Rapids apiladas con HBM de 56 núcleos de Intel, ahora llamadas “Intel Xeon CPU Max”, consumirán alrededor de 350 W, lo que lo coloca apenas por debajo del Epyc 4 9654 de 96 núcleos de AMD con un TDP predeterminado de 360 ​​W. Mientras tanto, en el espacio de GPU, proveedores como Nvidia ya están impulsando 700 W de consumo de energía en un solo módulo SXM.

Si bien AMD le dirá que Epyc 4 exprime más trabajo de cada vatio, eso no cambia el hecho de que la envolvente de mayor potencia plantea un desafío para los desarrolladores de servidores encargados de encontrar una manera de disipar todo ese calor, y los operadores de centros de datos que tienen que alimentar esos sistemas.

Memoria como quieras

Mirando más allá del rendimiento bruto, Epyc 4 también ofrece una serie de mejoras de memoria y E/S con respecto a Milan. Las CPU son los primeros chips de centro de datos de AMD con soporte para memoria DDR5.

La matriz de E/S de Genoa, que ahora se basa en un proceso TSMC de 6 nm en lugar de la tecnología de 14 nm de GlobalFoundry, admite 12 canales de DDR5 4800 MT/seg hasta 6 TB por socket. Según AMD, esto da como resultado un ancho de banda de memoria teórico máximo de 460 GB/seg cuando los 12 canales están ocupados con 4800 MT/seg de memoria DDR5.

Por supuesto, incluso con un DIMM por canal llenando todos esos canales podría resultar complicado, especialmente en los sistemas tradicionales de doble zócalo.

Génova también aumenta la cantidad de interfaces a 160 carriles de PCIe 5.0 y agrega 64 carriles dedicados a CXL. De los carriles PCIe, 32 se pueden dedicar a la conectividad SATA, mientras que los sistemas de doble zócalo obtienen 12 carriles adicionales de conectividad PCIe 3.0.

Hablando de CXL, Genoa es la primera plataforma x86 compatible con la interfaz coherente con caché. Si bien las iteraciones futuras de CXL permitirán una infraestructura componible completa, las primeras implementaciones de la tecnología se centran directamente en la expansión de la memoria.

Aquí es donde AMD está enfocando su atención para su primera incursión en CXL. Génova admite una versión modificada de CXL 1.1 que respalda la compatibilidad con configuraciones de memoria de nivel. Y AMD claramente espera que CXL sea un éxito en el centro de datos, ya que ya amplió su tecnología de encriptación de memoria utilizada en computación confidencial, llamada SEV-SNP, para estos módulos de expansión de memoria listos para usar.

Aunque AMD admite CXL, eso no significa que el ecosistema esté necesariamente listo para aprovechar la nueva tecnología. Si bien algunos proveedores como Samsung y Astera Labs han anunciado módulos de memoria CXL, el estándar aún está en pañales.

Y aquellos que esperan aprovechar los aceleradores CXL más avanzados tendrán que esperar hasta que AMD envíe una CPU que sea totalmente compatible con la especificación CXL 2.0 requerida para tecnologías como la agrupación de memoria.

Comiendo el almuerzo de Intel

Si bien AMD puede tener una ventaja inicial en CXL, PCIe 5.0 y DDR5 en el centro de datos, no pasará mucho tiempo antes de que Intel vuelva a traer sus procesadores Xeon a la parodia de características.

Intel esperaba vencer a AMD en el mercado con su procesador escalable Xeon de cuarta generación, cuyo nombre en código es Sapphire Rapids, por más de un año. Desafortunadamente, los repetidos retrasos en la CPU lo han puesto, y la Supercomputadora Aurora del Laboratorio Nacional de Argonne, lamentablemente retrasada.

A partir del último retraso a principios de este mes, Intel espera que los primeros envíos en volumen del chip lleguen al mercado en el primer trimestre de 2023.

Y, por supuesto, AMD no perdió la oportunidad de capitalizar la lucha de Intel para llevar el chip al mercado. Apuntando a las CPU Xeon Platinum 8380 de 40 núcleos de Intel, por el momento las más rápidas disponibles del fabricante de chips, AMD afirma que Genoa es entre 2,5 y 3 veces más rápida en los populares puntos de referencia de punto flotante y enteros SPECrate 2017, respectivamente.

Por supuesto, eso es con más del doble de núcleos por socket. En una comparación de núcleo por núcleo, Peddibhotla estima que Genoa supera a la generación Ice Lake de Intel en cerca del 50 por ciento en el índice de referencia de enteros de SPECrate 2017 y entre el 78 y el 96 por ciento en el índice de referencia de coma flotante.

Y aunque Intel ha tenido una ventaja sobre AMD en las cargas de trabajo que se basan en el conjunto de instrucciones AVX-512 para cosas como el aprendizaje profundo y la inferencia de IA. Con el cambio a Zen 4, AMD ha cerrado la brecha con soporte nativo para cargas de trabajo de vectores grandes.

Como tal, tendremos que esperar hasta que Sapphire Rapids de Intel se lance a principios del próximo trimestre para tener una mejor idea de cómo se comparan los chips del fabricante de chips retrasados ​​con respecto a Génova.

Ve más profundo… Para obtener un análisis completo, detalles de configuraciones, conectividad y más, consulte a nuestros amigos en The Next Platform.

En el lanzamiento, Génova se puede obtener en 18 sabores que van desde 16 núcleos en el extremo inferior hasta 96 núcleos en la parte superior de la pila.

Al igual que con los procesadores Epyc de la generación anterior, AMD ofrecerá muchas de estas piezas en configuraciones que priorizan el rendimiento por núcleo, la densidad del núcleo o una combinación de ambos.

Los primeros sistemas Epyc de los socios OEM de AMD están disponibles para pedidos a partir de hoy, y los sistemas estarán en manos de los clientes a partir de diciembre.

También vale la pena señalar que Genoa es solo la primera de cuatro CPU de centro de datos basadas en Zen 4 que se lanzarán durante el próximo año. Las CPU de Bérgamo centradas en la nube de AMD volverán a aumentar el recuento de núcleos a 128, aunque se nos dice a expensas de cachés más pequeños. Estos chips parecen estar destinados a combatir los procesadores 128 Core Altra Max de Ampere, que han tenido una adopción generalizada entre los proveedores de nube pública, incluidos Microsoft Azure, Google Cloud y Oracle Cloud Infrastructure.

AMD también tiene otro Epyc apilado en caché en proceso, con nombre en código Genoa-X, que debería competir directamente con los procesadores Xeon Max apilados HBM de Intel, así como un chip enfocado en telecomunicaciones y borde llamado Siena que va tras el bastión de Intel en el borde. ®

Leave a Comment