Xilinx UltraScale FPGA成为百度机器学习的利器

作者:陆健锋

机器学习(Machine Learning, ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。它是继专家系统之后人工智能应用的又一重要研究领域,也是人工智能和神经计算的核心研究课题之一。现有的人工智能系统很少有什么学习能力,因而不能满足科技和生产提出的新要求。对机器学习的讨论和机器学习研究的进展,必将促使人工智能和整个科学技术的进一步发展。

日前,Xilinx宣布百度正用Xilinx FPGA在他们数据中心来加速机器学习。今年早些时候,在加利福尼亚州库比蒂诺举办的热门芯片Hot Chips会议上,百度的欧阳简讨论了相关工作内容。(参考Nextplatform.com 网站上的这篇文章“Baidu Takes FPGA Approach to Accelerating SQL at Scale”。百度在Hot Chips上发表的文章标题为:“SDA: Software-Defined Accelerator for general-purpose big data analysis system.)根据Nextplatform.com上面的文章内容,“百度坐拥超过1Exabyte数据量,每天处理大约100Petabytes、100亿网页更新以及1 Petabyte日志更新。”

如果你对Exabyte和Petabyte还不是很熟悉,这个做个粗略的介绍,你就会对上面的数据量之大有个更加深刻的认识。Exabyte(EB,艾可萨字节或艾字节)是一种资讯计量单位,现今通常在标示网络硬盘总容量,或具有大容量的储存媒介之储存容量时使用。1Exabyte(EB)=1024PB,1Petabyte(PB)=1024TB,1Terabyte(TB)=1024GB,即1EB = 1,073,741,824 (1024)GB。

Nextplatform.com文章中指出,百度在Xilinx Kintex UltraScale KU115 FPGA上开发其自己的FPGA电路板,该板子匹配有8到32Gbytes DDR4-2400 SDRAM,并且要求能自动处理关键SQL函数。文章也包含了两处欧阳简在Hot Chips上描述的关于该FPGA板的优秀表现。有一个例子,TPC-DS查询3运行同一个功能比用C++软件运行快了25倍。Terasort显示提高了8倍(TeraSort介绍 :1TB排序通常用于衡量分布式数据处理框架的数据处理能力。Terasort是Hadoop中的一个排序作业,在2008年,Hadoop在1TB排序基准评估中赢得第一名,耗时209秒)。这些都是实质表现提升,当你一天处理将近100亿的网页量。直接带来的好处是,能为数据中心节约大量的置产费用和能源花销。

对于众多想投入到人工智能的人员一个好消息是:百度将开放机器学习方面的能力,推出深度学习开放平台和百度大脑开放平台,让开发者不用再从头写代码,推动各个行业的智能化。

声明:本文为原创文章,转载需注明作者、出处及原文链接,否则,本网站将保留追究其法律责任的权利