今日头条

作者:张国斌

今天,期盼已久的ARM服务器CPU终于正式量产了!---贵州华芯通半导体技术有限公司 (以下简称 “华芯通”) 在北京国家会议中心举办新品发布会,宣布其第一代可商用的ARM架构国产通用服务器芯片—昇龙4800 (StarDragon 4800) 正式开始量产。

作为华芯通推出的第一代产品,昇龙4800是兼容ARMv8架构的48核处理器芯片,采用10nm制程工艺封装,在400平方毫米的硅片内集成了180亿个晶体管,每秒钟最多可以执行近5000亿条指令。据称,与X86服务器至强CPU Intel 5118相比,1颗昇龙4800和2颗5118的定点和浮点运算相当,动态功耗只有其37%,静态功耗只有其8%。而在客户进行的大数据测试数据表明,一颗昇龙4800相当于2颗Intel 5118。因而4800单路相当于5118的双路,减少了延迟,更适合边缘计算。

华芯通称,在安全性方面,昇龙4800内部集成符合中国商用密码算法标准的密码模块,结合安全可控的基础架构实现。新产品市场定位是数据中心服务器市场,如互联网、电子政务外网、电信运营商、大型企业等,目标是对服务器芯片的国产化替代。

Video Codec – Xilinx EV系列Video Codec基本介绍

作者:圆宵,来源:FPGA那点事儿

随着视频应用场景和内容越来越丰富,对网络传输,存储,和AI智能分析带来了越来越高的需求和挑战。以一路FHD@60fps视频为例,其RAWDATA的带宽约为3Gbps;到了4K@60fps,带宽大约为12Gbps;到8K,带宽更是会到48Gbps。这样大的数据量,如果不进行压缩是没有办法进行传输和存储的。因此,从早年的MPEG2,到当下被广泛采用的H.264,H.265,再到VP9,AV1以及未来的VVC,各种各样的视频编解码标准被提出来。每代都比之前在编码效率上有提升,付出的代价就是更大的编码复杂度。

不管编解码标准变得如何复杂,它们的基本技术思想都是类似的。通过帧内压缩和帧间压缩,同时压缩空间冗余度和时间冗余度。对于编码来说,都要经过预处理,运动估计,变换,量化,熵编码这几个基本步骤;解码过程则跟编码过程完全相反。

一文了解 Xilinx 机器学习套件

Xilinx 机器学习(ML)套件为用户提供了开发和部署机器学习应用进行实时推断所需的工具。它支持许多常见的机器学习框架,如 Caffe、MxNet 和 Tensorflow,以及 Python 和 RESTful API 等。

xDNN v3 将于 2018 年 11 月在 ML Suite 中推出。

解决方案组件

ML Suite 由三个基本部分组成:

  • xDNN IP - 高性能通用 CNN 处理引擎。
  • xfDNN 中间件 - 与 ML 框架接口的软件库和工具,并针对实时推断进行优化。
  • ML 框架和开源支持 - 支持高层次 ML 框架和其他开源项目。
  • 加速器卡支持

    【视频】Zynq-7000 SoC 动态功耗管理演示

    该低功耗模式 (LPM) 演示将讨论并展示 Xilinx Zynq-7000 SoC 动态电源管理功能的实例。LPM 演示可清楚地展示 Zynq-7000 SoC 在通过可扩展动态电源管理 (DPM) 提供极低待机功耗时有多强大。

    赛灵思 Alveo U200 和 U250 数据中心加速器卡属于符合 PCI Express Gen3 x16 的加速器卡,设计用于加速密集型计算强度应用,包括机器学习、数据分析和视频处理等。部署 Shell 能让该卡通过 PCI Express 板载存储器完成配置。

    Alveo U200和U250产品介绍

    规格 主动散热版 被动散热版

    赛灵思蝶变之路:从FPGA进入ACAP世界

    作者:邓晓蕾,经济观察网

    近日,自适应和智能计算公司赛灵思(Xilinx)公布2019财年第二季度财报,财报显示该公司实现季度性收入7.46亿美元,比去年同期增长19%,这也是赛灵思连续12个季度实现了正增长。

    赛灵思首席执行官Victor Peng表示,得益于5G网络、数据中心及汽车等业务需求带动FPGA的出货,加上人工智能及云计算等应用的广泛增长基础, 与上一年销售额相比,我们将2019财年的收入增长率提高到大约20%。这也意味着,赛灵思对其正进行的平台战略转型极具信心。

    上任九个多月的Victor Peng,日前在赛灵思中国开发者大会上谈到赛灵思正在进行的战略转型,称赛灵思正在推进以数据中心优先,加速核心市场发展,驱动灵活应变的计算。“这就像是一个椅子的三条腿,三条腿对于整个战略的完整性来讲都是至关重要,而且是相互关联的,要超过大家的想象。”

    赛灵思成立于1984 年,首创FPGA技术。经过长期的发展,其产品线已经涵盖45/28/20/16nm四个系列的FPGA以及Zynq SoC,同时还提供相应的开发软件工具及IP支持。值得注意的是,赛灵思在16nm-28nm系列产品已经在FPGA市场上占据主导优势。

    【白皮书】赛灵思 AI 引擎及其应用

    本白皮书探讨了将赛灵思新 AI 引擎用于计算密集型应用(如 5G 蜂窝和机器学习 DNN/CNN)的架构、应用和优势。

    与前几代相比,5G 的计算密度要高 5 到 10倍;AI 引擎已针对 DSP 进行了优化,可满足吞吐量和计算要求,从而提供无线连接所需的高带宽和加速速度。

    许多产品中机器学习的采用(通常采用 DNN/CNN 网络的形式)大大增加了计算密度要求。AI 引擎针对线性代数进行了优化,可提供满足这些要求的计算密度,同时与可编程逻辑中执行的类似功能相比,功耗也降低了 50%。

    AI 引擎使用了许多程序员所熟悉的 C/C++ 范例进行编程。AI 引擎与赛灵思的自适应与标量引擎集成,可提供高度灵活且功能强大的整体解决方案。

    作者:张国斌

    物联网、人工智能技术的走热,产生了大量的数据,而这些数据的处理也大幅度增加了数据中心的能耗。调研数据显示,在全球范围内,数据中心已经成为全球能源使用规模最大的用户,将从2015年的0.9%上升到2025年的4.5%。而且到2025年,数据中心的能耗将占ICT行业总能耗的33%,如果数据中心不考虑降低能耗,则数据中心的碳足迹将达到全球碳足迹的5.5%!因此,很多数据中心运营商都要考虑保持大规模性能需求和运营效率之间的平衡,要获得性能和效率的同时提升,就要考虑通过FPGA加速卡降低能耗,因此,FPGA加速卡正成为数据中心加速应用的主流,这也进一步刺激服务器厂商加速提供各类基于FPGA的加速卡。

    10月16日,在北京举行的2018XDF赛灵思开发者大会上,领先的AI计算力厂商浪潮联合赛灵思推出了全球首款集成HBM2高速缓存的FPGA AI加速卡F37X。该卡可在不到75W典型应用功耗提供28.1TOPS的INT8计算性能和460GB/s的超高数据带宽,适合机器学习推理、视频转码、图像识别、语音识别、自然语言处理、基因组测序分析、NFV、大数据分析查询等各类应用场景,实现高性能、高带宽、低延迟、低功耗的AI计算加速!

    AWS F1覆盖区域数量翻番 ——正式宣布落地中国

    作者:赛灵思市场开发暨加速运算资深经理 Daniel Eaton

    亚马逊云端服务(AWS)于北京赛灵思开发者大会(XDF)宣布一个令人兴奋的消息: 亚马逊 EC2 F1 FPGA 实例(Instance)现已由Sinnet营运正式落地中国,并在AWS(北京) 区域开放预览,此消息是继AWS美国硅谷 XDF宣布F1实例已扩展至法兰克福、伦敦及悉尼之后的又一重要新闻发布。从去年开始,客户对F1的需求迅速扩张,从只有一个美国区迅速成长至全球八个区域。

    AWS是全球最大的云端运算服务供货商,不管是个人、企业或是政府都能获得值得信任、可扩展、且价格实惠的云端服务,其在全球18个地区提供服务。

    F1是一个采用赛灵思FPGA的实例类别,针对数据分析、AI推断、视频与图像处理、基因组学等的工作负载,创建快速且可定制的硬件加速应用。

    作者:张国斌

    在今天举行的赛灵思2018开发者大会(XDF)上,赛灵思CEO Victor Peng发布了业界又一款7nm惊世产品! 它就是赛灵思最新基于7nm工艺的ACAP平台首款产品Versal--Versal 这个词代表多样性和通用性,这是一款号称针对任何应用做AI加速应用的平台级产品,首先推出AI核心版和基础版,后续会推出旗舰版、AI RF版、边缘计算版、HBM版等,这是继华为麒麟980,苹果A12之后,又一堪称惊世之作的7nm产品。

    Victor 在演讲中指出,放眼全球,人工智能技术发展迅速,芯片技术已经赶不上AI的发展,新的算法新的框架新的场景应用层出不穷,要应对这样的变化,就需要有灵活多变的架构去是适应这样的变化,早在四年前,赛灵思启动“珠穆朗玛”技术,就是打造一个具有自适应、和可以灵活实现计算加速的平台,这就是ACAP平台。

    同步内容