AWS anuncia tres nuevas instancias de Amazon EC2

Las Vegas.- Durante el AWS una empresa de Amazon.com, Inc. (NASDAQ: AMZN), anunció tres nuevas instancias de Amazon Elastic Compute Cloud (Amazon EC2) con tecnología de tres nuevos chips diseñados por AWS que ofrecen a los clientes un rendimiento de cómputo aún mayor a un costo menor para una amplia gama de cargas (workloads). Las instancias Hpc7g, con la tecnología de los nuevos chips AWS Graviton3E, ofrecen hasta dos veces un mejor rendimiento de punto flotante en comparación con las instancias C6gn y hasta un 20% más de rendimiento en comparación con las instancias Hpc6a, ambas de la generación actual, lo que ofrece la mejor relación precio-rendimiento para las cargas de computación de alto rendimiento (HPC) en AWS.

De igual forma, las instancias C7gn, que cuentan con los nuevos AWS Nitro Cards, ofrecen hasta el doble de ancho de banda de red y el doble de rendimiento de paquetes por segundo por CPU en comparación con las instancias optimizadas para redes de la generación actual, lo que brinda un mejor ancho de banda de red, rendimiento de paquetes más alto y la mejor relación precio-rendimiento para las cargas (workloads) intensivas de red. Asimismo, las instancias Inf2, con la tecnología de los nuevos chips AWS Inferentia2, están diseñadas específicamente para ejecutar los modelos de aprendizaje profundo (Deep Learning) más grandes con hasta 175 mil millones de parámetros, y ofrecen hasta 4 veces más rendimiento y una latencia hasta 10 veces menor en comparación con las instancias Inf1 de la generación actual. Esto brinda la menor latencia al costo más bajo para la inferencia de Machine Learning (ML) en Amazon EC2.

AWS tiene una década de experiencia en el diseño de chips desarrollados para rendimiento y escalabilidad en la nube a un costo menor. La compañía líder en servicios de nube, introdujo diseños de chips especializados, que hacen posible que los clientes ejecuten cargas aún más exigentes con características variables que requieren un procesamiento más rápido, mayor capacidad de memoria, E/S de almacenamiento más rápido y mayor ancho de banda de red. Desde la llegada del sistema Nitro en 2013, AWS ha desarrollado varias innovaciones de silicio diseñadas por la compañía, incluidas cinco generaciones del sistema Nitro, tres generaciones de chips Graviton optimizados en cuanto rendimiento y costo para una amplia variedad de cargas, dos generaciones de chips Inferentia para inferencia ML y chips Trainium para entrenamiento de ML.

Las instancias de Hpc7g están diseñadas específicamente para ofrecer el mejor rendimiento de precio para ejecutar workloads de HPC a escala en Amazon EC2

Las instancias Hpc7g con la tecnología de los nuevos procesadores AWS Graviton3E ofrecen la mejor relación precio-rendimiento para los workloads de HPC (por ejemplo, CFD, simulaciones meteorológicas, genómicas y dinámica molecular) en Amazon EC2. Las instancias hpc7g proporcionan hasta dos veces mejor rendimiento de punto flotante en comparación con las instancias C6gn de la generación actual con tecnología de procesadores Graviton2, y hasta un 20% más de rendimiento en comparación con las instancias Hpc6a, lo que permite a los clientes realizar cálculos complejos en clústeres de HPC de hasta decenas de miles de núcleos. De igual forma, las instancias Hpc7g también brindan un ancho de banda de memoria alta y el ancho de banda de red más alto por CPU en todos los tipos de instancias de AWS para lograr resultados más rápidos para las aplicaciones de HPC. De esta manera, los clientes pueden usar instancias Hpc7g con AWS ParallelCluster, una herramienta de administración de clústeres de código abierto, para aprovisionar instancias Hpc7g junto con otros tipos de instancias, lo que les brinda la flexibilidad de ejecutar diferentes tipos de workloads dentro del mismo clúster de HPC.

Las instancias C7gn ofrecen el mejor rendimiento para workloads intensivos en la red con mayor ancho de banda, mayor rendimiento de tasa de paquetes y menor latencia

Las instancias C7gn, con los nuevos AWS Nitro Cards impulsados por los nuevos chips Nitro de quinta generación con aceleración de red, ofrecen el ancho de banda y el rendimiento de procesamiento de paquetes más altos en todas las instancias optimizadas para red de Amazon EC2. Las Nitro Cards descargan y aceleran la entrada/salida de las funciones de la CPU del host hacia el hardware especializado para entregar prácticamente todos los recursos de una instancia de Amazon EC2 a los workloads de los clientes ofreciendo un rendimiento más consistente con una menor utilización de CPU.

Las nuevas AWS Nitro Cards permiten que las instancias C7gn ofrezcan 2 veces el ancho de banda de red y 2 veces el rendimiento de paquetes por segundo por CPU y reducen la latencia de red del Elastic Fabric Adapter (EFA) en comparación con las instancias Amazon EC2 optimizadas para redes de la generación actual. Las instancias C7gn también ofrecen hasta un 25% más de rendimiento de cómputo y un rendimiento hasta dos veces más rápido para workloads criptográficos en comparación con las instancias C6gn. Asimismo, las instancias C7gn permiten a los clientes escalar tanto para desempeño y rendimiento como para reducir la latencia de la red para optimizar el costo de sus workloads más exigentes y con uso intensivo de la red en Amazon EC2. Las instancias C7gn están disponibles en vista previa. Para obtener más información sobre las instancias C7gn, visite aws.amazon.com/ec2/instance-types/c7gnorte.

Las instancias Inf2 están diseñadas específicamente para servir a las implementaciones de modelos de Aprendizaje Profundo más exigentes de la actualidad, con soporte para inferencia distribuida y redondeo estocástico.

En respuesta a la demanda de mejores aplicaciones e incluso experiencias personalizadas más personalizadas, los científicos de datos y los ingenieros de ML están creando modelos de aprendizaje profundo más grandes y complejos. Por ejemplo, los modelos de Large Language (LLM) con más de 100 mil millones de parámetros son cada vez más frecuentes, pero se entrenan con enormes cantidades de datos, lo que impulsa un crecimiento sin precedentes en los requisitos de cómputo. Si bien el entrenamiento recibe mucha atención, la inferencia representa la mayor parte de la complejidad y el costo (es decir, por cada dólar gastado en capacitación, se gastan hasta nueve en inferencia) de ejecutar el ML en producción, lo que puede limitar su uso y detener la innovación del cliente.

Las instancias Inf2 con los nuevos chips Inferentia2, admiten grandes modelos de Aprendizaje Profundo (LLM, generación de imágenes y detección de voz automatizada) con hasta 175 mil millones de parámetros, mientras ofrece el costo por inferencia más bajo en Amazon EC2. Inf2 es la primera instancia optimizada que admite inferencia distribuida, una técnica que distribuye modelos grandes en varios chips para ofrecer el mejor rendimiento de los modelos de Aprendizaje Profundo con más de 100 mil millones de parámetros. Las instancias de Inf2 también son la primera instancia en la nube que admite el redondeo estocástico, una forma de redondeo probabilístico que permite un alto rendimiento y una mayor precisión en comparación con los modos de redondeo heredados.

Wordpress Social Share Plugin powered by Ultimatelysocial
YouTube
YouTube
Instagram