▸ Bu ve benzeri kurumsal ürünler ve projeleriniz ile ilgili destek almak için konusunda uzman kurumsal ekibimize kurumsal@betadonanim.com.tr eposta adresinden ya da hafta içi 09:00-18:00 saatleri arasında +90 216 606 56 08 numaralı telefondan ulaşabilirsiniz.
H100, GPT-3 (175B) modelleri için önceki nesle kıyasla 4 kata kadar daha hızlı eğitim sağlayan FP8 hassasiyetinde dördüncü nesil Tensor Çekirdekleri ve bir Transformer Motoru içerir. Saniyede 900 gigabayt (GB/sn) GPU-GPU ara bağlantısı sunan dördüncü nesil NVLink; düğümler arasında her GPU ile iletişimi hızlandıran NDR Quantum-2 InfiniBand ağ iletişimi;
PCIe Gen5; ve NVIDIA Magnum IO™ yazılımının birleşimi, küçük işletme sistemlerinden devasa, birleşik GPU kümelerine kadar verimli ölçeklenebilirlik sunar.
H100 GPU’larını veri merkezi ölçeğinde dağıtmak olağanüstü performans sunar ve yeni nesil exascale yüksek performanslı bilgi işlem (HPC) ve trilyon parametreli yapay zekayı tüm araştırmacıların erişimine sunar.
Hopper Tensor Core GPU, terabayt ölçeğinde hızlandırılmış bilgi işlem için özel olarak tasarlanmış ve büyük model yapay zeka ve HPC’de 10 kat daha yüksek performans sağlayan NVIDIA Grace Hopper CPU+GPU mimarisine güç verecektir. NVIDIA Grace CPU, sıfırdan hızlandırılmış bilgi işlem için tasarlanmış bir CPU ve sunucu mimarisi oluşturmak için Arm® mimarisinin esnekliğinden yararlanır. Hopper GPU, NVIDIA’nın ultra hızlı çipten çipe ara bağlantısını kullanarak Grace CPU ile eşleştirilir ve PCIe Gen5’ten 7 kat daha hızlı olan 900 GB/sn bant genişliği sunar. Bu yenilikçi tasarım, günümüzün en hızlı sunucularına kıyasla GPU’ya 30 kata kadar daha yüksek toplam sistem belleği bant genişliği ve terabaytlarca veri çalıştıran uygulamalar için 10 kata kadar daha yüksek performans sunacaktır.
Grafik işlemci üretici | Nvidia |
---|---|
Grafik işlemci serisi | AI Enterprise |
Grafik işlemci modeli | H100 NVL |
Grafik Bellek | 94GB |
GPU Bellek Bant Genişliği | 3.9TB/s |
FP64 | 30 teraFLOPs |
FP64 Tensor Çekirdeği | 60 teraFLOPs |
FP32 | 60 teraFLOPs |
TF32 Tensor Çekirdeği | 835 teraFLOPs |
BFLOAT16 Tensor Çekirdeği | 1,671 teraFLOPS |
FP16 Tensor Çekirdeği | 1,671 teraFLOPS |
FP8 Tensor Çekirdeği | 3,341 teraFLOPS |
INT8 Tensor Çekirdeği | 3,341 TOPS |
Decoders | 7 JPEG, 7 NVDEC |
Max Thermal Design Power (TDP) | 350-400W (configurable) |
Multi-Instance GPUs | Up to 7 MIGS @ 12GB each |
Form Faktörü | dual-slot air-cooled, PCIe |
Bağlantı Türleri | NVIDIA NVLink: 600GB/s, PCIe Gen5: 128GB/s |
Sunucu Opsiyonları | Partner and NVIDIA-Certified Systems with 1–8 GPUs |
NVIDIA AI Enterprise | İçerir |