申请回电

支持

突破限制,实现超越:
GPU 再次提速

• 趋势文章

新一代 GPU 和 GPU 加速软件将掀起释放生产力与创新力的新高潮

面对数据规模和产生速度的持续攀升,要想用好数据,许多组织机构都有一场“硬仗”要打。

 

无论是训练机器学习 (ML) 模型,还是处理大量数据,都时常让一线分析师和数据科学家头疼不已,因为设备的计算能力有限,直接影响着他们的工作成效。

 

不容乐观的是,这些挑战正日益尖锐。一方面,从联网设备和大数据中提取实时价值的压力不断增加。另一方面,环境中产生的数据还在迅速增长。根据 IDC 数据,到 2025 年,全世界产生的数据将增至 175 ZB,是 2017 年的 10 倍。1 

 

此外,随着数据科学家频繁使用 ML 模型来获取见解,许多数据任务日益复杂,训练和部署难度也进一步加剧。这使得 CPU(中央处理器)主导的传统分析方案捉襟见肘,同时也推动了对前沿硬件的需求,这样才能走在创新前列。

800 亿

据 Global Market Insights 预测,到 2024 年,GPU 市场规模将超过此数字2

简而言之,数据科学家需要更强大的计算能力。这将推动硬件加速新时代的到来:新一代功能强大的 GPU(图形处理器)和 GPU 加速软件便是这个新时代的标志。数据科学家们有望提高工作效率、加快工作流程、释放 ML 潜力并加速分析,从而拓展无尽的可能性。

 

如今,向新时代的转变已经开始。根据最近的 Global Market Insights 报告,到 2024 年,仅 GPU 市场的收入预计将超过 800 亿美元,比 2018 年增长 31% 以上。届时全球 GPU 行业的出货量预计将达到 1.21 亿台。2 随着采用率增加,其所能取得的进步也将进一步增长。

通过从 CPU 转向 GPU,Google 得以“驶上”AI 图像识别训练的“快车道”

快速跟踪数据工作流

人工智能 (AI) 技术的采用、医疗卫生和汽车等行业的 ML 创新,以及物联网 (IoT) 的兴起,将大力推动这一趋势。这是由于 GPU 加速分析可以有效帮助团队应对大数据时代产生的海量数据,并加快处理速度,从而助力数据科学家快速发现关键见解。

 

“在这场‘变革’的初期,人们关注的是让数据处理跟上业务速度。”Booz Allen Hamilton 首席数据科学家兼执行顾问 Kirk Borne 说道,“我认为这种观点现在已经不适用了。我们需要以数据产生的速度发展业务。”

16,000

48 个 NVIDIA GPU 的处理性能,相当于 Google 图像识别系统中 16,000 个 CPU。4

GPU 可以协助我们应对挑战。一开始,应用 GPU 架构的主要目的是减轻游戏中 CPU 在图形处理上的负担,而事实证明,这一架构对于加速数据科学工作负载同样有效。

 

这些工作负载的核心相对简单,而且已针对浮点吞吐量进行了优化。但其核心数量却很惊人,芯片中有成千上万个,因此可以并行处理大量相同的计算。3 相比之下,CPU 则更为普适,针对应用逻辑顺序处理而优化的复杂内核更是屈指可数。这意味着 GPU 在分析巨大的数据集时具有明显优势,因为需要对每个数据执行相同的计算。

 

举例来说,Google 想要改进自己的 AI 图像识别系统,此前需要使用 16,000 个 CPU 来训练 AI 才能识别猫的照片。如今,通过与 GPU 制造商 NVIDIA 合作,只需要使用 48 个 GPU 便能达到大致相同的性能。4

“数据科学家乃至整个组织机构的工作产出和收益都将是难以想象的。”

Todd Mostak

OmniSci 首席执行官兼联合创始人

向 GPU 转移的重要原因在于,数据科学家的需求及其处理的数据类型正在发生变化。这对 CPU 来说是特殊的挑战。例如,据软件公司 OmniSci 报告,目前生成的数据中,约 80% 包含位置-时间(时空)数据,这些数据属于计算密集型数据,需要快速、精细地进行分析。使用传统的索引和预聚合技术难以完成这项工作,因此多数主流 CPU 主导的商业智能和分析系统都难以处理低容量标准以上的时空数据集。

 

此外,在处理大量数据时,传统 CPU 架构需要占用大量硬件,而且在数据“整理”中也会消耗大量资源和时间。相比之下,GPU 加速的数据分析通过“摄取”整个数据集,避免低价值任务,如下采样、索引和制作数据立方体。GPU 的并行处理能力,让查询可以在不进行预计算的情况下进行实时评估。

 

OmniSci 首席执行官兼联合创始人 Todd Mostak 表示,这意味着数据科学家在工作时能够“随心所欲”。

 

“让我大为欣喜的是这项技术的敏捷性和迭代性:在您有了创意时,无需咨询 IT 部门,也不必等上两周才能拿到想要的数据。我可以直接使用 GPU 查询数据,甚至是翻查记录、撤回数据、进行交互式可视化,以及找到所需的数据(不论好坏),然后就可以将数据输入 ML 管路,根本无需浪费数小时或数天等别人返回数据。数据科学家乃至整个组织机构的工作产出和收益都将难以想象。”

物流公司 UPS 一直在使用 GPU 加速分析方法来提高送货效率

加速创新

通过启用实时分析,同时减轻数据科学家的负担,让他们将时间花在更高价值任务上,GPU 技术的进步也有望成为创新的催化剂。

 

“我认为,将 GPU 广泛用于高阶数据科学的可能性非常大。”Domo 企业客户经理 Jake Gardner 表示,“因为 GPU 让我们可以通过可靠的途径访问硬件,而这些硬件是神经网络等应用类型的备选。”

 

实际上已有很多早期成功案例。例如,在物流领域,UPS 等公司正在使用 GPU 加速分析技术,从客户、司机和车辆提供的大数据中提取价值。该公司开发出的专业工具采用前沿算法,可以根据天气状况和事故情况,实时为运货卡车寻找优选路线。由此节省了数亿美元的成本,也改善了客户体验。

 

1000 倍

NVIDIA 预计,到 2025 年,GPU 性能将出现超大幅度的提升。11

许多行业已迎来成熟的变革时机。在金融行业中,资本市场交易公司面临市场风险报告方面的挑战,加之全新监管要求的交易账户基础评估 (FRTB) 报告等内容。GPU 加速的数据库技术可以大幅降低交互式数据的处理时间,同时轻松应对大数据挑战。CitiHub Consulting 与一级投资银行近期进行的一项试验发现,在简单查询中,GPU 的性能表现比 CPU 强 2.5 倍,而在复杂查询中则超过 400 倍。5

 

同样,保险行业的公司目前每年花费数亿美元使用 CPU 处理数据,以期为保险精算决策建立模型。转用 GPU 主导的方案可以实现事半功倍。在这一行业的其他领域,Ravin AI 等初创公司已实现耗时的汽车检查过程自动化,由此,汽车保险公司、经销商和租赁公司可以通过 GPU 驱动的算法,使用司机的手机图像来实时评估损失。

 

众所周知,天气预报要准其实很难,因为用模型根据天气数据预测未来情况对处理能力的要求非常高。GPU 加速在提升处理能力方面表现可靠,可提高预测准确性,帮助电力公司准确预测不同地区的电力需求,也有助于农民针对天气剧烈变化做好充分准备。6

 

在医疗卫生行业的众多领域中,GPU 加速数据科学早已硕果累累。探索生物信息和药物有效性之间隐藏模式和相关性的分析师们,正在寻找比传统医学分析软件性能更强的工具。7

 

在石油和天然气勘探中,传统的地球物理学分析软件难以对大量数据进行分析和可视化,也就无法确定钻孔方案是否可行。GPU 加速分析使用大量实时岩石物理数据,提升可视化能力,有助于清晰地了解新的钻探机会。8

 

其还可为数据科学流程本身带来改变。KDnuggets 创始人兼总裁、数据科学家 Gregory Piatetsky-Shapiro 表示,借助 GPU 加速分析技术,数据科学家将能够处理大量数据,创建更为精细复杂的 AI 模型,从而实现众多数据科学流程的自动化。9

 专家观点 

借助 GPU 加速业务决策

Darren Seymour-Russell

Mudano 数据科学主管

“计算能力是获取洞察力的关键,也是跑赢竞争对手的优势。因此,从金融服务分析的角度来看,对 GPU 加速深度学习平台的需求在不断上升。”

Todd Mostak

OmniSci 首席执行官兼联合创始人

“我认为 GPU 将颠覆数据科学领域,因为人们会开始期望能够实现实时交互,而且这项技术让机器学习反馈环路可以更快进入下一步,数据科学家根本不用浪费时间等待,所以我们的行动速度将更加快捷。”

优化 AI

NVIDIA 在 GPU 加速方面的创新尤为突出。该公司通过开发软件,使其 GPU 能够处理数据科学工作负载所需的数以百万计的微小计算量,从而有效抢占先机,让公司提前十年实现蓬勃发展。此外,他们还在优化用于深度学习的 GPU,希望添加新的功能,从而加速深度神经网络训练和推理,同时能效更高。

 

为了充分利用 GPU 技术的优势,NVIDIA 推出了 NVIDIA RAPIDS,其中汇聚了一系列 NVIDIA GPU 加速开源库和 API,可用于加速深度学习、机器学习和数据分析等端到端数据科学,以此推动数据科学软件生态系统的发展。软件生态系统对于释放 GPU 的潜力至关重要。

 

而生态系统的构建是一个持续进行的过程,因为随着时间推移,数据集和 ML 模型的规模会变大、复杂程度会提高,GPU 技术也需要进一步提高速度、增强性能。

 

“新一代 AI 硬件解决方案需要兼具强劲性能和经济效益,才能满足边缘应用中不断增多的精细训练模型的需求。”Wave Computing 联合创始人兼首席技术官 Chris Nicol 说道。10 

 

NVIDIA 直言 GPU 性能定会不断提升。据预测,用于图形和 AI 的新型 GPU 架构将继续增强计算能力,到 2025 年,我们有望看到性能提升 1000 倍。11

“新一代 AI 硬件解决方案需要兼具强劲性能和经济效益,以便将模型用于边缘应用。”

Chris Nicol

Wave Computing 联合创始人兼首席技术官

实现硬件平衡

同样重要的是,要认识到 AI 和 ML 加速器(如 GPU)无法取代 CPU。在大多数情况下,仍然需要 CPU 来处理应用逻辑,而 GPU 可以在任务繁重时助您一臂之力。因此,通过结合 CPU 和 GPU,系统性能、价格和功能才能实现理想的“性价比”。

 

“在理想情况下,肯定会是 CPU 核心和 GPU 核心的结合,”Inseego Corp AI 和 ML 主管 Amit Marathe 说道,“据我所知,几乎每一个团队都会并行处理数据科学和机器学习,若要将二者结合,需要将 CPU 和 GPU 加速器纳入同一台机器中,并将其作为混合解决方案提供给团队。”

 

Mostak 对此表示同意,他表示,在 GPU 与 CPU 的问题上,并不是非此即彼的抉择。他说,“我认为,我们将迎来计算融合的时代,越来越多的人接受混合计算场景,而在这种场景中,一些工作负载将在 GPU 上运行,而另一些工作负载将在 CPU 上运行。”

 

NVIDIA 已推出一种新型的专业工作站:数据科学工作站。此平台搭载了全新 Quadro GPU,具备可加速 AI 工作负载的 Tensor 核心,同时配有完整的 GPU 加速软件堆栈,可以为数据科学提供集成的硬件和软件解决方案。数据科学工作站能够快速启动并运行数据科学项目,有助于消除耗时的多应用和多库软件安装工作,从而便捷地构建和维护数据科学工作流程。12

 

据 NVIDIA 全球业务开发主管 Geoffrey Levene 所说,对数据科学家而言,有一个用于数据工作的“个性化沙盒”真是帮了大忙。“他们发现,使用 GPU 加速的工作流程后,他们可以在一天内完成一周的工作量。”

赋能未来

在不久的将来,新一代 GPU 很可能成为主导加速器。在接下来几年里,我们很可能看到 GPU 市场走向模型多样化,并针对特定市场需求进行优化。“我认为,随着未来 AI 技术的细分应用,专业的硬件和软件也将有所增加,而且会针对不同的行业和垂直领域实现简化。”惠普 Z 系列 AI 和数据科学总监 Jared Dame 说道,“金融行业将有对应的硬件/软件组合,可简化特定的工作流程;与之相比,生物医学科学行业的硬件/软件组合则会稍有差别;以此类推,不同的行业都将如此。

 

“以 GPU 为例。这项技术本身一定会发生变化,因为目前大家用的都是同一个版本。五年后,我们再来看这项技术,其实很可能会发现 10 个不同的版本。有的设计专门适用于金融行业,有的适合生物医学研究,还有的则用于安全性、视觉图像识别以及自然语言处理等。”

 

企业之间将打响“人才战”,竞相吸引和留住数据科学家和分析师,因此,为人才提供理想的硬件设施,显而易见就是很好的竞争手段。随着分析能力不断提高,获取理想见解的竞争也会加剧。

 

通过使用 GPU,公司不仅可以节省数百万计算成本,还可以提高结果准确性。若能紧跟加速器创新步伐,进步还会更加显著。

GPU 技术本身一定会发生变化,因为目前大家用的都是同一个版本。五年后,金融行业会有对应的特定设计,生物医学研究也会有自己的版本。

Jared Dame

惠普 Z 系列 AI 和数据科学主管

技术展望

GPU 技术已经开始展露锋芒,可以助力数据科学家大幅加快 ML 模型的开发,从而为难题寻找理想的解决方案。与此同时,企业若想保持领先,需要为团队提供恰当的硬件,以便作出明智的决策。

观点图标  要点精粹

GPU 已针对 ML 工作负载中的计算类型进行了优化

未来五年,GPU 技术的进步将推动性能进一步提升

企业需要采用恰当的硬件,才能作出明智的决策

选择性能强劲的硬件,留住并助力数据科学家施展才华

上一页 

下一页

了解产品

Z 系列笔记本电脑

了解详情

Z 系列台式电脑

了解详情

Z 系列显示器及配件

了解详情

VR

了解详情

强劲性能来自
英特尔® 至强®
和英特尔® 酷睿™ i9 处理器。

有疑问?
联系销售支持。 

不知道该怎么选
Z 系列工作站?

申请回电

 需要 Z 系列工作站方面的支持?

前往支持页面

免责声明

    1. https://www.seagate.com/files/www-content/our-story/trends/files/idc-seagate-dataage-whitepaper.pdf
    2. https://www.globenewswire.com/news-release/2019/01/29/1706699/0/en/Graphic-Processing-Unit-GPU-Market-to-cross-80bnby-2024-Global-Market-Insights-Inc.html
    3. https://www.datascience.com/blog/cpu-gpu-machine-learning
    4. https://www.wired.co.uk/article/nvidia-artificial-intelligence-gpu
    5. https://www.youtube.com/watch?v=0L9KxV5WfQo
    6. https://www.hpcwire.com/2019/01/09/ibm-global-weather-forecasting-system-gpus/
    7. https://www.omnisci.com/solutions/use-case/clinical-trial-analysis
    8. https://www.omnisci.com/solutions/use-case/well-logging-formation-evaluation
    9. https://blogs.thomsonreuters.com/answerson/future-of-data-science
    10. https://emerj.com/partner-content/artificial-intelligence-hardware-adopt-first/
    11. https://www.nextbigfuture.com/2017/06/moore-law-is-dead-but-gpu-will-get-1000x-faster-by-2025.html
    12. https://www.digitalengineering247.com/article/the-rise-of-data-science-workstations 

     

    4AA7-7927ENW,2020年7月

  1. 产品的Logo及位置可能与图片有所差异,不影响产品性能和功能,请以实物为准。

     

    产品图片仅供参考,因不同国家可能存在稍许差异,实际产品以销售为准。

     

    本文所载信息如有变更,恕不另行通知。惠普产品与服务的完整保修条款见此类产品和服务附带的正式保修声明。本文中的信息概不构成额外的保修条款。惠普对本文包含的技术或编辑方面的错误或遗漏概不负责。

     

    英特尔、英特尔标志、酷睿和至强是英特尔公司或其子公司在美国和其他国家(地区)的商标或注册商标。Microsoft 和 Windows 是 Microsoft Corporation 在美国和/或其他国家(地区)的注册商标或商标。NVIDIA 和 Quadro 是 NVIDIA Corporation 在美国和其他国家(地区)的商标和/或注册商标。Linux® 是 Linus Torvalds 在美国和其他国家(地区)的注册商标。AMD 是 Advanced Micro Devices, Inc. 的商标。