发表新一代 NNP 晶片外,英特尔 AI 软体和应用更透露其 AI 野心

2020-06-23
[导读 ] 整个 5 月,各大巨头举办各种开发者大会、人工智慧大会,倒是给了我们一下子看完各大巨头人工智慧布局的机会。美国时间 5 月 23 日,会议上,英特尔副总裁、AI 事业部(AIPG)负责人 Naveen……
发表新一代 NNP 晶片外,英特尔 AI 软体和应用更透露其 AI 野心

整个 5 月,各大巨头举办各种开发者大会、人工智慧大会,倒是给了我们一下子看完各大巨头人工智慧布局的机会。

美国时间 5 月 23 日,会议上,英特尔副总裁、AI 事业部(AIPG)负责人 Naveen Rao 介绍了英特尔 AI 的最新进展:英特尔 Xeon 处理器的性能有了进一步的提升,发表了新一代专为机器学习设计的神经网路处理器(NNP)晶片──Nervana NNP-L1000(Spring Crest);介绍了 nGRAPH 平台、BigDL 大数据开源平台、OpenVINO 等开源软体工具;展示了用 Movidius 神经元计算棒来进行 AI 作曲。

新一代 NNP 晶片

英特尔在人工智慧上的布局很清楚,近一年来,其反覆提到的「英特尔人工智慧全栈解决方案」揭示出其 AI 基础架构。

英特尔人工智慧全栈式解决方案是一个完整的产品组合,包括 Xeon 可扩展处理器、英特尔 Nervana 神经网路处理器和 FPGA、网路以及储存技术等;针对深度学习 / 机器学习而最佳化的基于英特尔架构的数学函数库(Intel MKL)以及数据分析加速库(Intel DAAL)等;支援和最佳化开源深度学习框架如 Spark、Caffe、Theano 以及 Neon 等;构建以英特尔 Movidius 和 Saffron 为代表的平台以推动前后端协同人工智慧发展。

发表新一代 NNP 晶片外,英特尔 AI 软体和应用更透露其 AI 野心

在会议上,Naveen Rao 讨论的重要更新之一是「英特尔 Xeon 可扩展处理器」的最佳化。与前几代相比,新一代的处理器在训练和推理方面都有显着的性能提升,这对于许多希望利用现有基础架构的公司来说是有益的。

发表新一代 NNP 晶片外,英特尔 AI 软体和应用更透露其 AI 野心

随后,Naveen Rao 介绍了全新一代 NNP 系列晶片。做为曾经不可撼动的晶片巨人,英特尔在 AI 时代却面临诸多挑战。随着像 Nvidia 和 ARM 这样的公司赢得了图像处理单元(GPU)的声誉,且 Google 也已经设计出针对 AI 的专用晶片,英特尔的通用 CPU 晶片显然落后了。

发表新一代 NNP 晶片外,英特尔 AI 软体和应用更透露其 AI 野心

2016 年,英特尔购併专注于深度学习专用晶片的加州创企 Nervana Systems,Nervana 首席执行长兼联合创始人 Rao 加入英特尔,短短几个月后,Rao 就以火箭般的速度晋升为英特尔人工智慧事业部总负责人。可以看出,英特尔重金投入 AI 晶片,且将其做为发展人工智慧的核心.

2017 年 10 月,英特尔曾介绍专为机器学习设计的神经网路处理器(NNP)系列晶片,被命名为 Lake Crest。Lake Crest 可以加速多种神经网路演算法框架,比如 Google 的 TensorFlow、Nervana 的 Neon、Facebook 的 Caffe 等。英特尔称 Lake Crest 能够比 GPU 更快、功耗更低、性能更好。但当时,英特尔只将 NNP 晶片供应给一小部分英特尔合作伙伴,计划在 2017 年年底前开始出货。

在本次的英特尔 AI 开发者大会上,Naveen Rao 介绍了新一代的 NNP 晶片 Nervana NNP-L1000(Spring Crest),是 Lake Crest 发表 7 个月后的全面更新,性能比上一代产品提升了 3-4 倍。Rao 介绍到,Spring Crest 会有多项更新,其也将是英特尔第一款商业 NNP 晶片,将不只是提供给小部分合作伙伴,将在 2019 年发货。

Naveen Rao 谈到,在英特尔 Nervana NNP-L1000 中,他们还将支援 bfloat16,这是一种业界广泛用于神经网路的数位格式。随着时间的推移,英特尔将在我们的 AI 产品线上扩展 bfloat16 支援,包括英特尔 Xeon 处理器和英特尔 FPGA。

而 Google 在 AI 晶片上的速度似乎已经超越英特尔。2017 年 Google I/O 大会上,Google 就宣布正式推出第二代 TPU 处理器,第二代 TPU 处理器加深了人工智慧在学习和推理的能力,据 Google 的内部测试,第二代 TPU 晶片针对机器学习的训练速度,比目前市场上的 GPU 节省一半时间。2018 年,Google 传奇晶片工程师 Jeff Dean 连发了十条 Twitter,宣布 Google TPU 首次对外全面开放,第三方厂商和开发者可以每小时花费 6.5 美元来使用它,但需要先行填表申请。外界认为这意味着 AI 晶片和公有云市场将迎来新的变革。看来,英特尔的 NNP 系列与 Google 的 TPU 系列是直接对标的产品。

三大开源软体工具

虽然处理器和晶片是英特尔人工智慧布局的核心,但是从本次大会来看,英特尔也将更多目光放在了扶持开发者身上。

Naveen Rao 谈到,「我们认识到,单靠英特尔无法实现人工智慧的全部愿景。相反地,我们需要联合开发者、学术界、软体生态方共同来解决这些问题。今天,我很高兴看到开发人员加入我们的示範、研究和实践培训。」

大会上,英特尔和合作伙伴介绍了 BigDL 大数据开源平台、OpenVINO、nGRAPH 平台等开源软体工具。

BigDL 是一款基于 Apache Spark 的分布式深度学习框架,它可以无缝的直接执行在现有的 Apache Spark 和 Hadoop 集群之上。

据了解,英特尔与百度也展开了合作,百度云在即将发表的数据分析平台中,将整合 BigDL 最新版本。未来英特尔还将联合百度云智​​学院推出完整的「数据分析 + BigDL」培训课程。

OpenVINO 这一套新的开源软体工具则主要用于视觉应用与神经网路最佳化,可以让开发者更简单地在边缘设备上部署视觉计算和深度学习能力。

发表新一代 NNP 晶片外,英特尔 AI 软体和应用更透露其 AI 野心

nGRAPH 则是面向开发者的深度神经网路模型开源编译器,可以直接支援 TensorFlow / MXNet 以及 Neon,还可以透过 ONNX 支援 CNTK、PyTorch、Caffe2。

AI 编曲与 AI 图像渲染

除了基层技术和软体框架之外,英特尔还展示了 AI 多种场景应用。

首先是 AI 谱曲。英特尔在现场展示人类演奏者和 AI 配合起来作曲,演奏者输入一段音符,AI 可以配合做出相同风格的下一段乐曲,AI 还可以用不同的乐器来配合,例如吉他配合键盘。从技术上来看,这需要透过深度学习从大量的资料库中训练,这样的训练需要很高的运算。

发表新一代 NNP 晶片外,英特尔 AI 软体和应用更透露其 AI 野心

而英特尔实现的方式却很简单,仅用了一个随身碟大小的 Movidius 神经元计算棒。去年 7 月英特尔就发表了这款产品,是业界首款基于 USB 超低功耗的嵌入式神经网路的开发工具,它可以工作在标準 USB 连接埠上。它内建了 Myriad2 的 VPU,可以把预先训练好的 Caffe 或者 TensorFlow 的模型直接嵌入到神经网路,直接透过所谓的随身碟对神经网路推理进行加速,进而将人工智慧应用部署在嵌入式以及边缘环境上。据了解,海康威视的智慧相机、大疆的无人机也採用了英特尔 Movidius 技术。

另一个应用是利用英特尔 AI 进行 3D 动画渲染。这是合作伙伴 ZIVA 公司基于英特尔 Xeon 处理器进行的研究,现场看来,渲染出的狮子十分逼真。

小结

据了解,英特尔近来採取不少措施,将自己的核心 AI 技术能力提供给企业和开发者,希望能有更多的合作伙伴一起打造软体 + 硬体 + 生态全方位一体的人工智慧战略。Naveen Rao 谈到,「事实上,当我思考什幺能帮助我们加快向以人工智慧为导向的计算未来转型时,我可以确信的是我们需要提供即广泛又能达到企业规模的解决方案。」

在这週的微软人工智慧大会上,微软宣布推出 Project Brainwave 预览版,以加速深度神经网路训练和部署,该技术由英特尔的现场可编程门阵列(FPGA)和晶片 Stratix 10 提供支援。现在,英特尔的合作伙伴还有 Google、AWS、百度、Novartis、C3 IoT等。


上一篇: 下一篇: