MAPS Número 1 en Ciberseguridad

  • Home
  • Los servidores de IA de información de Inspur

Los servidores de IA de información de Inspur

Los servidores de IA de información de Inspur con GPU NVIDIA A100 Tensor Core mantienen la clasificación más alta en rendimiento de nodo único en MLPerf Training v2.0 Global AI Benchmarks.

 El consorcio abierto de ingeniería MLCommons™ publicó los resultados más recientes de MLPerf™ Training v2.0, con servidores Inspur AI líderes en rendimiento de nodo único de división cerrada.

MLPerf es el punto de referencia más influyente del mundo para el rendimiento de la IA. Está administrado por MLCommons, con miembros de más de 50 empresas de inteligencia artificial líderes a nivel mundial y las principales instituciones académicas, incluidas Inspur Information, Google, Facebook, NVIDIA, Intel, la Universidad de Harvard, la Universidad de Stanford y la Universidad de California, Berkeley. Los puntos de referencia de MLPerf AI Training se llevan a cabo dos veces al año para rastrear las mejoras en el rendimiento informático y proporcionar una guía de datos autorizada para los usuarios.

El último MLPerf Training v2.0 atrajo a 21 fabricantes e instituciones de investigación globales, incluidos Inspur Information, Google, NVIDIA, Baidu, Intel-Habana y Graphcore. Hubo 264 presentaciones, un aumento del 50% con respecto a la ronda anterior. Los ocho puntos de referencia de IA cubren los escenarios actuales de uso general de IA, incluida la clasificación de imágenes con ResNet, la segmentación de imágenes médicas con 3D U-Net, la detección de objetos livianos con RetinaNet, la detección de objetos pesados ​​con Mask R-CNN, el reconocimiento de voz con RNN- T, procesamiento de lenguaje natural con BERT, recomendación con DLRM y aprendizaje por refuerzo con MiniGo.

Entre los puntos de referencia de división cerrada para sistemas de un solo nodo, Inspur Information con sus servidores de inteligencia artificial de alta gama fue el mejor en procesamiento de lenguaje natural con BERT, recomendación con DLRM y reconocimiento de voz con RNN-T. Ganó la mayor cantidad de títulos entre los remitentes de sistemas de un solo nodo. Para los servidores de inteligencia artificial de gama alta convencionales equipados con ocho GPU NVIDIA A100 Tensor Core, los servidores de inteligencia artificial de Inspur Information obtuvieron la mejor clasificación en cinco tareas (BERT, DLRM, RNN-T, ResNet y Mask R-CNN).

 

Seguir liderando el rendimiento informático de la IA

Los servidores de IA de Inspur continúan logrando avances en el rendimiento de la IA a través de la optimización integral de software y hardware. En comparación con los resultados de MLPerf v0.5 en 2018, los servidores Inspur AI mostraron mejoras significativas en el rendimiento de hasta un 789 % para los modelos de servidor típicos de 8 GPU.

El rendimiento líder de los servidores Inspur AI en MLPerf es el resultado de su excelente innovación de diseño y capacidades de optimización de pila completa para AI. Centrándose en el cuello de botella de la transmisión de E/S intensiva en el entrenamiento de IA, el diseño sin retemporizador PCIe de los servidores de IA de Inspur permite una interconexión de alta velocidad entre CPU y GPU para reducir los retrasos en la comunicación. Para la programación de tareas colaborativas multi-GPU de alta carga, la transmisión de datos entre los nodos NUMA y las GPU se optimiza para garantizar que la E/S de datos en las tareas de entrenamiento se encuentre en el estado de rendimiento más alto. En términos de disipación de calor, Inspur Information toma la delantera al implementar ocho GPU NVIDIA Tensor Core A100 de gama alta de 500 W.en un espacio de 4U y admite refrigeración por aire y refrigeración líquida. Mientras tanto, los servidores de IA de Inspur continúan optimizando el rendimiento del procesamiento de datos previo al entrenamiento y adoptan estrategias de optimización combinadas, como hiperparámetro y parámetro NCCL, así como las muchas mejoras proporcionadas por la pila de software de IA de NVIDIA, para maximizar el rendimiento del entrenamiento del modelo de IA.

 

Mejora en gran medida el rendimiento del entrenamiento de Transformer

Los modelos masivos preentrenados basados ​​en la arquitectura de red neuronal de Transformer han llevado al desarrollo de una nueva generación de algoritmos de IA. El modelo BERT en los puntos de referencia de MLPerf se basa en la arquitectura Transformer. La arquitectura concisa y apilable de Transformer hace posible el entrenamiento de modelos masivos con parámetros enormes. Esto ha llevado a una gran mejora en los algoritmos de modelos grandes, pero requiere requisitos más altos para el rendimiento del procesamiento, la interconexión de comunicaciones, el rendimiento de E/S, las extensiones paralelas, la topología y la disipación de calor para los sistemas de IA.

En el punto de referencia de BERT, los servidores de IA de Inspur mejoraron aún más el rendimiento del entrenamiento de BERT mediante el uso de métodos que incluyen la optimización del preprocesamiento de datos, la mejora de la comunicación de parámetros densos entre las GPU de NVIDIA y la optimización automática de hiperparámetros, etc. Los servidores de IA de Inspur Information pueden completar el entrenamiento del modelo BERT de aproximadamente 330 millones de parámetros en solo 15,869 minutos usando 2,850,176 piezas de datos del conjunto de datos de Wikipedia, una mejora de rendimiento del 309% en comparación con el máximo rendimiento de 49,01 minutos en Training v0.7. Hasta este momento, los servidores de IA de Inspur han ganado el benchmark MLPerf Training BERT por tercera vez consecutiva.

Los dos servidores de IA de Inspur Information con las mejores puntuaciones en MLPerf Training v2.0 son NF5488A5 y NF5688M6. El NF5488A5 es uno de los primeros servidores del mundo que admite ocho GPU NVIDIA A100 Tensor Core con tecnología NVIDIA NVLink y dos CPU AMD Milan en un espacio de 4U. Admite refrigeración líquida y refrigeración por aire. Ha ganado un total de 40 títulos MLPerf. NF5688M6 es un servidor de IA escalable diseñado para la optimización de centros de datos a gran escala. Admite ocho GPU NVIDIA A100 Tensor Core y dos CPU Intel Ice Lake, hasta 13 PCIe Gen4 IO, y ha ganado un total de 25 títulos MLPerf.

leave a comment