GPU
Les instances GPU NVIDIA H100 et L40S pour accélérer vos calculs applicatifs sur une grande variété de tâches d’intelligence artificielle et de calcul haute performance
Pour booster la productivité des data scientists et mettre en œuvre plus rapidement de nouveaux services d’IA, il faut entraîner des modèles de plus en plus complexes, de plus en plus vite. Nos GPU NVIDIA H100 et L40S réduisent à quelques heures les procédures d’entraînement Deep Learning.
Entièrement compatible avec la plateforme Kubernetes, les systèmes de conteneurs et l’environnement de machines virtuelles du cloud de confiance, la technologie des GPU simplifie l’accès aux ressources de calcul pour tous les utilisateurs, quel que soit le type de charge de travail.
Ajustez le nombre d’instances GPU H100 en fonction de vos besoins : la technologie de GPU multi-instances (MI) permet de partitionner un GPU en sept instances distinctes sécurisées, dotée chacune d’une mémoire dédiée de 5 ou 10Go. Vos utilisateurs peuvent accéder à tous les avantages de l’accélération GPU.
techniques NVIDIA L40S
FP32
91,6 TFLops
FP32 Tensor Core
366 TFlops
FP16
733 TFlops
FP8
1466 TFlops
Mémoire
48 Go
Consommation maximale
350 W
techniques NVIDIA H100
FP32
51 TFLops
FP32 Tensor Core
756 TFlops
FP16
1513 TFlops
FP8
3026 TFlops
Mémoire
80 Go
Consommation maximale
350 W
Tarifs
CALCUL – VMWARE:V3:PERF4 – 32 Cores / 64 Threads – 2.5/4.1Ghz (Intel 6426Y ou equivalent) – 512Go – 2 x NVIDIA L40S 48Go | 1 Lame + 2xGPU | 4 692,75 € | 24 mois |
---|---|---|---|
CALCUL – VMWARE:V3:PERF5 – 32 Cores / 64 Threads – 2.5/4.1Ghz (Intel 6426Y ou equivalent) – 512Go – 2 x NVIDIA H100 80Go | 1 Lame + 2xGPU | 7 626,65 € | 24 mois |