GPU云主机简介

云主机产品简介

GPU云主机是基于GPU的应用于视频解码、图形渲染、深度学习、科学计算等多种场景的计算服务。捷智算GPU云主机采用业界先进的GPU硬件,让客户得到极致性能体验的同时,获得最佳性价比。目前提供基于NVIDIA虚拟化技术的图形加速和科学计算云主机服务。

为什么选择GPU云主机

GPU云主机规格族相比于其他弹性云主机规格族,增加了GPU计算力,与CPU相比,GPU的特点如下:

维度GPUCPU
核心数量数千个几十个
运算单元拥有大量擅长处理大规模并发计算的算术运算单元拥有数量较少但强大的算术运算单元
逻辑控制单元相对简单复杂
缓存少量缓存大量缓存
适用场景计算密集,相似度高,且多线程并行逻辑复杂,串行运算

GPU云主机与自建GPU服务器对比 :

优势GPUCPU
弹性分钟级快速创建。
同规格族内灵活升降配。
云盘、带宽等产品可按需扩容。
自建 GPU 服务器
易用拥有大量擅长处理大规模并发计算的算术运算单元拥有数量较少但强大的算术运算单元
安全提供和标准云主机一致的使用方式和管理功能。
与多种云产品无缝接入。
清晰的 GPU 驱动的安装、部署指引。
运营维护成本高、难度大
缓存通过隧道技术实现100%二层网络隔离,实现安全隔离。
配置安全组和网络ACL,实现云主机和子网层面的访问控制,满足不同行业客户的安全隔离需要。
很难阻止MAC欺骗和ARP攻击,需额外购买基础安全防护服务。
成本提供包周期和按需两种计费方式,用户可根据自身业务情况灵活选择无法按需购买,一次投入成本巨大。

云主机优势

性能卓越可靠
GPU云主机具有超强的计算性能。 采用主流的GPU和CPU。 提供了强大的单双精度浮点运算能力,单卡最高提供312TFLOPS半精度浮点计算,同时支持单机多卡,实现性能翻倍。
功能丰富强大
支持Tensorflow、Caffe、PyTorch、MXNet等多种AI框架。 支持DirectX 、OpenGL、Vulkan等多种专业级图形加速接口。
覆盖范围广阔
GPU云主机目前已在全国不同节点实现规模化部署上线,能够更好的满足客户的各种业务部署需求。
服务稳定安全
GPU云主机提供安全可靠的网络环境和完善的防护服务。 位于高速网络环境中,内网时延低,提供优秀的计算能力。 与云安全无缝对接,享有与弹性云主机同等的云安全基础防护和高防服务。
使用方便快捷
提供和弹性云主机一致的使用方式和管理功能,GPU云主机可以做到分钟级快速发放。 入门简单,用户可以迅速搭建一个GPU云主机,无需跳板机登录,简单易用。
与负载均衡、云硬盘等多种云产品无缝接

功能特性

GPU云主机作为弹性云主机的一类实例规格,保持了部分与弹性云主机实例相同的功能特性,同时也新增了部分独有特性。

多种存储类型随意选择,满足不同I/O性能要求
提供普通IO、高IO、通用型SSD和超高IO等多个类型的云硬盘,满足不同业务对IO性能的不同需求。购买方式分为两种,在购买云主机同时购买云硬盘或后期根据需要单独购买云硬盘挂载至云主机上。

可视化管理平台,操作便捷
通过捷智算控制台对云主机进行管理,可对云主机进行开机、关机等操作。

规格丰富,满足不同应用场景需求
提供多种实例规格,满足视频解码、图形渲染、深度学习、科学计算等多种场景下不同用户对于GPU的性能需求。配备业界超强算力的GPU显卡,结合高性能CPU平台,单卡最高提供31.2TFLOPS单精度和9.7TFLOPS双精度计算,同时支持单机多卡,性能翻倍。

提供多种登录方式,安全高效
通过VNC方式、SSH方式(仅适用于Linux云主机)和Rdp方式(仅适用于Windows云主机)可登录云主机。其中,VNC方式适用于未绑定弹性IP的云主机登录查看。

多种镜像,实现业务的快速部署
支持常用的Linux、Windows镜像,如Window 10、Ubuntu等。支持将云主机导出私有镜像,并可基于私有镜像创建云主机,实现业务的批量、快速部署。支持将私有镜像共享给其它用户,方便多用户统一部署。

提供云主机备份
支持对云主机的系统盘或数据盘进行备份。基于备份数据,用户可创建新的云主机或恢复磁盘数据。

支持按需重装操作系统
支持主流的Windows、ubuntu等操作系统,满足用户对不同业务的部署需求。如在安装应用过程中出现问题,还可通过控制台重装当前操作系统。

产品规格

NVIDIA GPU云主机
GPU云主机能够提供优秀的浮点计算能力,从容应对高实时、高并发的海量计算场景。特别适合于深度学习、科学计算、CAE、3D动画渲染、CAD等应用。 目前提供计算加速型和图形加速基础型两大类,计算加速型能够支持NVIDIA显卡、昇腾AI加速卡、寒武纪AI加速卡,图形加速基础型支持NVIDIA显卡。 本文为您介绍使用NVIDIA显卡的GPU云主机的相关规格,带您更快了解产品能力。

GPU计算加速型
GPU计算加速型GPU云主机采用GPU硬件直通技术,主要适用于AI深度学习训练、推理、科学计算、视频转码、图像渲染等场景。

在售:A100 40G PCIE 计算加速型GPU云主机特点

显卡型号显卡数量单卡理论GPU性能
Nvidia Tesla A100(40G PCIE)1~8卡312 TFLOPS半精度浮点计算
19.5 TFLOPS单精度浮点计算
9.7 TFLOPS双精度浮点计算
156 TFLOPS TF32AI加速

云主机采用NVIDIA A100 40GB PCIE GPU,采用GPU直通技术,使用第三代英特尔 ® 至强® 可扩展处理器,独享宿主机的CPU资源,实例间无CPU争抢,没有进行资源超配,在提供云主机灵活性的同时,提供高性能计算能力和优秀的性价比,单卡能够提供最大312 TFLOPS的半精度浮点运算能力和9.746 TFLOPS的双精度浮点运算能力。
A100云主机能够提供超高的通用计算能力,适用于AI深度学习、科学计算,在深度学习训练、科学计算、计算流体动力学、计算金融、地震分析、分子建模、基因组学等领域都能表现出巨大的计算优势。

产品名词解释

介绍GPU云主机相关的名词概念。

名词介绍
GPU图形处理器(Graphics Processing Unit)。相比CPU具有众多计算单元和更多的流水线,适合用于大规模并行计算等场景。
CUDANVIDIA推出的通用并行计算架构,帮助您使用NVIDIA GPU解决复杂的计算问题。
cuDNNNVIDIA推出的用于深度神经网络的GPU加速库。
镜像提供了运行实例所需的信息,包括操作系统、初始化应用数据等。
地域和可用区实例部署机房位置。
SSH密码一种安全便捷的登录认证方式,由密码组成,仅支持Linux系统实例。
硬盘可弹性扩展的块存储设备,可以用作实例的系统盘或可扩展数据盘使用。