由于B200服务器的配置会根据厂商和型号有所不同,以下提供的是一些常见的配置范围和选项,联系咨询顾问
| 配置 | 1卡配置 适合个人开发和小型项目 |
2卡配置 适合企业级AI训练 |
4卡配置 适合大规模AI训练 |
整机8卡 适合超级计算中心 |
|---|---|---|---|---|
| GPU配置 | ||||
| GPU型号 | 1* NVIDIA B200 | 2* NVIDIA B200 | 4* NVIDIA B200 | 8* NVIDIA B200 |
| CUDA核心 | 20,480 | 40,960 | 81,920 | 163,840 |
| 显存 | 192GB*1 HBM3e | 192GB*2 HBM3e | 192GB*4 HBM3e | 192GB*8 HBM3e |
| AI算力 | 20,000 TFLOPS | 40,000 TFLOPS | 80,000 TFLOPS | 160,000 TFLOPS |
| 基础配置 | ||||
| CPU | 20核 vCPU | 40核 vCPU | 80核 vCPU | Intel(R) Xeon(R) Platinum 8480+ CPU @ 2.10GHz *2(112核) |
| 内存 | 256GB DDR5 | 512GB DDR5 | 1TB DDR5 | 2TB DDR5 |
| 硬盘 | 系统盘 100G SSD | 系统盘 100G SSD | 系统盘 100G SSD | 系统盘 1TB SSD |
| 网络配置 | ||||
| 带宽 | / | / | / | 独享200M |
| 流量 | 不限流量 | 不限流量 | 不限流量 | 不限流量 |
|
* 规格如有变动,以实际交付为准
|
||||
基于Blackwell架构,为AI模型训练和高性能计算提供强大算力支持
采用NVIDIA Blackwell架构,AI训练性能较Hopper架构显著提升,支持大参数模型训练
支持FP4、FP8、FP16、BFLOAT16等多种精度,AI算力高达20,000 TFLOPS,训练效率显著提升
专为Transformer模型优化,大参数模型训练速度大幅提升,显存利用率达到极致
192GB HBM3e显存,8TB/s带宽,大显存容量支持大参数模型训练
B200租赁服务广泛应用于AI模型训练、深度学习、高性能计算、科学计算等领域,为大参数级AI应用提供强大算力支持
支持大参数级模型训练,192GB大显存,第二代Transformer引擎显著加速
支持量子模拟、气候建模、科学研究等计算任务,加速科研突破
支持图像、文本、音频、视频等多模态数据联合训练,推动AI发展
支持大规模生成式AI模型实时推理,低延迟高吞吐,满足企业级AI应用需求
支持个性化医疗、基因组分析、药物发现等医疗研究,推动医疗AI发展
支持沉浸式虚拟世界、数字人等应用,推动下一代互联网发展
专业团队为您解答GPU租赁相关问题
0592-5580190
工作日 9:00-18:007x24小时在线
即时响应您的问题sales@zoneidc.com
24小时内回复厦门市软件园三期金砖未来创新园B09栋305室
欢迎到访洽谈