- Lunes, 01 Octubre 2018
El nuevo SuperServer 6049GP-TRT de Supermicro ofrece un rendimiento superior necesario para acelerar las diversas aplicaciones de la inteligencia artificial moderna. Para conseguir la máxima densidad y rendimiento de GPU, este servidor en 4U admite hasta 20 GPU NVIDIA® Tesla® T4 Tensor Core, tres terabytes de memoria y 24 unidades de 3.5" e intercambio en caliente. Este sistema también dispone de 4 alimentadores eléctricos redundantes de 2000 watios con certificación de eficiencia de nivel titanio (2+2) que ayudan a optimizar la eficiencia de consumo, el tiempo de actividad y las operaciones de mantenimiento.
Los sistemas SuperServer 6049GP-TRT en 4U de rendimiento optimizado de Supermicro admiten hasta 20 aceleradores GPU PCI-E NVIDIA Tesla T4, capaces de incrementar de una forma sobresaliente la densidad de las plataformas de servidores con GPU para amplias implementaciones de centros de datos compatibles con aplicaciones de aprendizaje profundo e inferencia. A medida que más sectores hacen uso de la inteligencia artificial, necesitarán servidores de alta densidad optimizados para inferencia. La plataforma 6049GP-TRT resulta ideal para gestionar la transición del entrenamiento en aprendizaje profundo, las redes neuronales a la implementación de la inteligencia artificial en aplicaciones del mundo real como el reconocimiento facial y la traducción de idiomas.
Supermicro dispone de una familia completa de sistemas de GPU en 4U que también son compatibles con los ultraeficientes Tesla T4 diseñados para acelerar la inferencia de cargas de trabajo en cualquier servidor de escalabilidad horizontal. El motor de transcodificación acelerada de hardware en el sistema Tesla T4 puede operar con múltiples secuencias de vídeo HD en tiempo real y permite la integración del aprendizaje profundo en el canal de transcodificación de vídeo para permitir otro tipo de aplicaciones de vídeo inteligentes. A medida que el aprendizaje profundo da forma a nuestro mundo como ningún otro modelo de computación hasta la fecha, se entrenan más y más extensas redes neuronales complejas mediante el uso de volúmenes de datos exponencialmente mayores. Para conseguir la capacidad de respuesta deseada, estos modelos se implementan sobre los potentes servidores de GPU de Supermicro con los que proporcionar los mayores resultados para inferencia de cargas de trabajo.
Suscríbase a la revista CONECtrónica
Precio suscripción anual:
PDF: 60,00.- € (IVA incluido.)
PAPEL: 180,00.- € (IVA incluido.)
Recibirá las 7 ediciones que se publican al año.