OVHcloud ofrece gamas de GPU de última generación para ayudar a las organizaciones a gestionar las cargas de trabajo de IA más exigentes

132

OVHcloud, líder europeo del cloud y miembro de la NVIDIA Partner Network, continúa ampliando su cartera de soluciones de con la incorporación de nuevas gamas de GPU NVIDIA como parte de su visión estratégica de la inteligencia artificial. Consciente del enorme impacto que la IA tendrá en los próximos años, OVHcloud tiene la misión de ayudar a sus clientes a desarrollar su negocio en torno a un ecosistema de soluciones de IA innovadoras, sencillas y asequibles, basadas en modelos transparentes, éticos y abiertos que preserven la confidencialidad de los datos.

Con más de 20 años de experiencia en infraestructuras, a través de un modelo industrial único integrado verticalmente, OVHcloud está desarrollando infraestructuras diseñadas para IA que incluyen las nuevas GPUs NVIDIA H100 y A100 Tensor Core, las mejores de su clase. Los clientes podrán elegir entre una gama de soluciones para impulsar sus cargas de trabajo de aprendizaje automático más ambiciosas, incluidos los grandes modelos de lenguaje (LLM).

Como complemento a las competitivas y populares NVIDIA V100 y NVIDIA V100S de generaciones anteriores, el grupo acaba de anunciar nuevas ofertas basadas en las siguientes GPU: NVIDIA H100, NVIDIA A100, NVIDIA L40S y NVIDIA L4, con un despliegue efectivo en las próximas semanas.Nuevas instancias GPU con NVIDIA A100 para entrenamiento e inferencia de

Las nuevas instancias NVIDIA A100 de 80 GB ya están disponibles y permiten a los especialistas en IA ejecutar proyectos complejos en los Tensor Cores altamente especializados de NVIDIA. Con una capacidad de entrenamiento excepcional para el aprendizaje profundo, la A100 también es ideal para la inferencia gracias a varias optimizaciones realizadas para estas cargas de trabajo que integran proyectos LLM. La computación de alto rendimiento es otra área en el que las instancias GPU A100 contribuirán con la próxima generación de descubrimientos a través de simulaciones avanzadas, gracias a su rendimiento de computación de doble precisión y memoria de gran ancho de banda.

Las instancias A100 de Public cloud pueden configurarse como A100-180 con 1x A100, 15 vCore y 180 GB de RAM, A100-360 con 2x A100, 30 vCore y 360 GB de RAM y A100-720 con 4x A100, 60 vCore y 720 GB de RAM.

Nuevas instancias GPU con NVIDIA H100 para entrenamiento de deep learning

OVHcloud también anuncia nuevas instancias GPU basadas en H100 que incorporan los últimos avances de NVIDIA, con 26 petaFLOPS (FP64) de potencia de cálculo por GPU PCIe. Diseñada específicamente para los modelos de IA más exigentes, NVIDIA H100 es la elección de referencia para la en IA, ya para acelerar LLM con su Transformer Engine o para crear aplicaciones de IA generativa.

Para los casos de uso más complejos, especialmente en el ajuste fino y en el entrenamiento, el grupo ofrecerá soluciones basadas en NVIDIA H100 SXM. Con una capacidad de cálculo de 67 TFlops (FP64) y un mayor ancho de banda de GPU, esta oferta demostrará toda la potencia de la arquitectura de GPU NVIDIA Hopper.

Nuevas instancias GPU y servidores Bare Metal con NVIDIA L4 y L40S

El grupo también ha anunciado nuevas instancias GPU dotadas de GPU NVIDIA L4 con 24 GB de memoria. La L4 se basa en la arquitectura de GPU Ada Lovelace de NVIDIA y es una GPU universal apta para todo tipo de cargas de trabajo con funciones mejoradas de IA y vídeo. Este chip proporciona recursos de cálculo óptimos escenarios de gráficos, simulación, ciencia de datos y análisis de datos.

La GPU NVIDIA L40S, lanzada recientemente por NVIDIA, se une a las actuales GPU de la compañía en configuraciones de 48 GB de memoria. La NVIDIA L40S aprovecha los Tensor Cores de cuarta generación y el FP8 Transformer Engine para proporcionar un sólido rendimiento en tareas relacionadas con la IA como el entrenamiento y la inferencia.

Estas nuevas referencias de GPU estarán disponibles en instancias de Public cloud y en servidores Bare Metal dedicados: la L4 se unirá a la gama SCALE-GPU y L40S a la gama HGR-AI.

Bases sólidas para potenciar la experiencia de los clientes con la IA

Gracias a una selección única de arquitecturas GPU NVIDIA, OVHcloud ofrece ahora una infraestructura diseñada para la IA que permite a ingenieros, investigadores, científicos de datos y profesionales del sector aprovechar la elasticidad del cloud para satisfacer sus necesidades de entrenamiento o inferencia.

Además, OVHcloud añadirá gradualmente las opciones NVIDIA H100 y A100 a su conjunto de soluciones AI PaaS diseñadas para soportar el ciclo de vida de los datos: AI Notebooks, AI Training y AI Deploy. Las soluciones de IA de OVHcloud proporcionan un conjunto completo de herramientas potentes y fáciles de usar para explorar datos, entrenar modelos o servirlos en producción.

«La IA transformará seriamente el negocio de nuestros clientes y estamos en una posición ideal para ayudarles a realizar fácilmente esta transición hacia una nueva era. Con una infraestructura de IA única que aprovecha nuestra experiencia y las GPU más solicitadas, ofrecemos un rendimiento de primera clase con todas las del cloud. Nuestros clientes de soluciones de IA también se beneficiarán de estas novedades a través de nuestras sencillas ofertas AI Notebooks, AI Training y AI Deploy», afirma Michel Paulin, CEO de OVHcloud.

«Las empresas buscan servicios y opciones flexibles en la nube para impulsar la innovación internamente y ayudar a sus clientes a adoptar nuevas aplicaciones de IA generativa», ha señalado Matthew McGrigg, director de desarrollo global para partners cloud de NVIDIA. «Al ofrecer una gama completa de soluciones de computación aceleradas por NVIDIA, OVHcloud admite una gran variedad de cargas de trabajo, desde la inferencia hasta el entrenamiento».

Con una sólida hoja de ruta dedicada a la IA, OVHcloud anunciará en las próximas semanas una nueva oleada de innovaciones diseñadas para ayudar a sus clientes a navegar por este nuevo paradigma.

Precio y disponibilidad

Las instancias GPU basadas en NVIDIA A100 ya están disponibles en Public cloud a partir de 2,75 EUR por hora para A100-180, 5,50 EUR por hora para A100-360 y 11 EUR por hora para A100-720. Las soluciones de IA gestionadas basadas en A100 estarán disponibles más adelante a partir de 3 EUR por hora. Las instancias NVIDIA H100 PCIe en Public cloud se lanzarán a finales de este otoño, con reservas anticipadas desde este momento. Los clientes interesados en las próximas ofertas de NVIDIA H100 SXM pueden solicitar un presupuesto personalizado.

Las instancias GPU NVIDIA L4 y L40S estarán disponibles en . El lanzamiento de los nuevos servidores Bare Metal con NVIDIA L4 y L40S está previsto para este otoño.