F3

F3经典使用场景

1. 人工智能深度学习客户,推理应用
最近两年,人工智能在全球掀起了巨大的应用热潮,除了互联网巨头,如Google,Facebook,Alibaba之外,涌现出众多的Start up公司,也都逐渐成为行业翘楚。

在人工智能技术方案选择上,GPU无疑是现阶段的首选,这其中的主要原因,一方面,GPU完善的生态,高并行度的计算力,很好地帮助客户完成了方案的实现和部署上线;另外一方面,人工智能发展,仍处于早期阶段,各个行业都在从算法层面尝试寻找商业落地的可能性,是一个从“0”到“1”的过程。在可以预见的未来几年,随着人工智能落地应用越来越多,大规模商业部署渐渐成为可能,进而对于更低功耗,更低成本,更低处理延时,更多定制化等的需求,将会逐渐凸显。可是F3在人工智能大规模商业部署(推理应用)中,具备独特的性能优势和广阔的潜在空间不可小视。

低延迟
相比于F3(FPGA),GPU计算的处理优势,在于其众多专用的并行计算单元以及超高的显存带宽,让多路大规模数据搬移快速并行计算成为典型的计算模式,但这一模式导致了每路数据的处理延迟增加,对于一些低延迟需求的在线业务场景,如语音识别等。在Batch值较小的情况下,F3(FPGA)的处理延时,仅为GPU的1/10。

超高的定点计算力

一张图看懂FPGA-F3实例

近期,阿里云宣布全新一代FPGA云服务器F3正式上线,并且开通邀测。实现云上 FPGA 加速业务的快速研发、安全分发、一键部署和弹性伸缩能力。为人工智能产业、图片视频转码、基因计算提供强有力的加速服务。

在FPGA Shell架构上,F3不仅沿用了前代的技术,并且充分支持OpenCL,HLS以及RTL的开发流程,能够让多种应用程序开发的工程师,在不需要关注底层硬件细节的情况下,很好地完成异构计算的定制开发工作。

在硬件上,采用了创新的单卡双芯片设计,卡内双芯片互联带宽高达600Gbps,卡间互联通过硬核实现,支持100G Mac协议。单片FPGA逻辑量250万,外挂4个DDR4通道,提供64GB存储能力。

文章来源:云栖社区

近期,阿里云 全新一代 FPGA 云服务器 F3 正式上线邀测。

该产品基于自研超高性能 FPGA 加速卡打造,可在云上实现 FPGA 加速业务的快速研发、安全分发、一键部署和弹性伸缩,为人工智能产业、图片视频转码、基因计算提供加速服务,在特定场景下的处理效率比 CPU 高百倍。

F3 产品特性:

  • 采用 Xilinx 最新 16nm Virtex UltraScale+器件 VU9P
  • 最大实例 支持 16 个 VU9P 芯片,邀测开放 4 个 VU9P 实例
  • 邀测实例提供高达 47 TeraMACs的 DSP 计算能力

F3 产品结构特性

  • 在 FPGA Shell 架构上,F3 在沿用前代技术基础上,充分支持 OpenCL,HLS 以及 RTL 的开发流程,能够让多种应用程序开发的工程师,在不需要关注底层硬件细节的情况下,很好地完成异构计算的定制开发工作。

5月4日,阿里云宣布新一代FPGA计算实例F3启动邀测。该产品基于自研超高性能FPGA加速卡打造,可在云上实现FPGA加速业务的快速研发、安全分发、一键部署和弹性伸缩,为人工智能产业、图片视频转码、基因计算提供加速服务,在特定场景下的处理效率比CPU高百倍。

官网显示F3采用阿里云自研超高性能FPGA加速卡,搭载Xilinx 16nm Virtex UltraScale+ 器件VU9P,提供最高16个VU9P芯片的实例规格,此次对外发布邀测的实例规格支持4个VU9P芯片,此实例提供超过一千万逻辑单元,和高达47 TeraMACs 的DSP计算能力。

据了解,阿里云自主研发的高性能FPGA加速卡在诸多技术方面进行了创新:

1. 采用了创新的单卡双芯片设计,提高了计算密度,降低单位计算力的成本;

2. 卡内双芯片高速互联,带宽高达600Gbps,支持多种轻量级传输协议,传输效率95%

3. 卡间互连,通过硬核支持100Gbps Mac协议;

4. 提供实时健康监控能力,可感知底层故障,实时报警;

5. 首创的统一FPGA SHELL架构快速支持OpenCL,HLS以及RTL的开发流程,支持多种DMA访存加速,能够让多种应用程序开发的工程师更快捷的完成异构计算的定制开发工作;

同步内容