AWS-F1

【视频】基于 Xilinx FPGA 的加速板演示

在 2017 超算大会上,Bittware 公司向大家展示了其基于赛灵思 Virtex UltraScale+ VU9P FPGA 的板上加速技术,其中还包括了与 AWS F1 实例当中相同的功能集。

[PBX]:基于云的基因组分析算法实现

本实例由 Edico Genome 公司带来,基于“云”的基因组分析算法演示。该演示使用了基于赛灵思 All Programmable FPGA 的 AWS F1 实例实现,在使用 AWS F1 实例后,Edico Genome 可以以更低的成本为更为广泛的用户群体提供兼具高准确度,硬件加速的基因组流水线算法实现 —— 只需一个 F1 实例,即可替代多达 80 个的传统计算实例以及相关成本。

来自 Amazon 的 Gadi Hutt 在硅谷举办的首届年度 Xilinx 开发者大会上发表了主题演讲。Gadi 的主题演讲将以 FPGA 开发及云计算应用部署为重点,向您展示如何开始构建云计算应用、商业化及开发工具更新。

惊呆! 数据中心加速神器---1680核处理器+FPGA !

作者:蒙面侠客

背景:
数据中心采用FPGA做加速器已经成为主流,像MS的Catapult,Amazon基于Xilinx FPGA的AWS F1,Intel的Altera,Baidu公司等。数据中心具有大规模并行数据处理,高数据吞吐量,低延时,能效高等特点。但是存在两个问题,第一个是软件的问题,软件移植和保证一定加速的工作负荷;第二个是硬件的问题,配备众核处理器,25-100G的网络接口卡,一些DRAM/HBM通道,容易时序收敛等。

现介绍一种GRVI Phalanx FPGA加速器结构。其中,GRVI是一种基于FPGA的有效的RISC-V运算单元,即RISC-V RV321软处理器核;Phalanx是一种并行FPGA加速器框架,由PE集群,SRAM,加速器,DRAM,I/O控制器等组成,减少在开发和管理FPGA加速器时所需付出的消耗和努力;还需要Hoplite NoC,它是一种基于FPGA优化的定向2D环形片上网络系统,用到的技术还有局部内存共享和全局信息流通等。

该视频将概括介绍 F1 和 SDAccel,并将帮助您了解 AWS F1 硬件及软件协议栈。观看本视频,您将从高层面了解从 RTL 加速器创建亚马逊 FPGA 镜像 (AFI) 的流程以及如何在 F1 上开发一款主机应用 AFI。

采用基于 Xilinx 全可编程 FPGA 的 AWS F1 实例,Edico Genome 可帮助更广泛的用户群以较低的成本获得加速的高精度基因组流水线算法,仅一个 F1 实例便可替代多达 80 个传统计算实例及相关成本。

视频:在 F1 上调试定制逻辑设计的介绍

本视频将向您展示为定制逻辑设计添加调试内核的步骤。此外,它还包含一个演示,展示如何使用 Vivado 硬件管理器连接 F1 实例,如何调试在膝上型电脑/Linux 机器上运行的定制逻辑设计。

作者:jonsonxp

1. 背景

历经近5个月的邀请内测,Amazon AWS于4月20日宣布FPGA EC2实例F1正式上线。就在F1内测公布后这短短几个月时间,国内互联网巨头BAT加华为纷纷借势宣布开展FPGA云加速器业务,这一波异构计算之风势头之猛可见一斑。

其实,FPGA以其高能效和可重编程的优势,在大型互联网企业内部早有应用并逐渐成为常态。例如媒体压缩,加解密,AI,大数据处理等领域,FPGA方案较传统CPU和GPGPU,往往可达到几倍甚至几十倍的能效提升。然而过高的开发门槛和开发成本,却让中小型企业对FPGA技术可望而不可及。即便是大企业,力量也只够集中开发有数的几种加速器难以全面铺开。

FPGA结合云计算形成新的FPGA-as-a-Service或者Accelerator-as-a-Service平台,则可以整合多方资源解决上述问题。平台厂商与FPGA硬件厂商合作,在云端提供统一硬件平台与中间件,可大大降低加速器的开发与部署成本。加速器开发商的加速器上传到云,可以形成服务销售给加速器用户,消除加速技术与最终用户的硬件壁垒。而加速器用户则能够在无需了解底层硬件的情况下,直接按需购买和使用加速服务,较传统方案更快更省地完成数据处理。

手把手教你在FPGA实例上运行“Hello World”

作者:邓明轩 AWS解决方案架构师

前言
在4月19号的旧金山AWS技术峰会上,亚马逊CTO Werner Vogels宣布了多项AWS新功能,其中就包括众人期待已久的FPGA实例F1。

F1 实例配有最新的 16 nm Xilinx UltraScale Plus FPGA,目前有f1.2xlarge和f1.16xlarge两种类型,其中f1.2xlarge配备有1个FPGA卡, f1.16xlarge配备有8个FPGA卡。

使用 F1 实例部署硬件加速在许多高性能计算 (HPC) 应用程序中非常有用,可解决需要高带宽、增强型联网和较高计算能力的复杂科学、工程和业务问题。F1 实例尤其适用于有时间要求的应用程序,如临床基因组学、实时视频处理和财务风险分析。

因为这段时间都在学习神经网络,所以F1实例最吸引我的是在FPGA上部署神经网络模型,神经网络的前向计算以高频脉冲的方式同时发生在门电路构成的神经网络单元上,想想都让人激动。

不过FPGA这个东西确实太专业了,入门学习曲线不是一般的陡,启动F1实例运行一个简单的Hello World都需要折腾一番。

亚马逊AWS新服务:可编程硬件

一、 FPGA背景介绍
FPGA是Field-Programmable Gate Array的英文缩写,英文直译叫做“现场可编程门阵列”,一般都叫做“可编程硅芯片”。计算机的处理器是在预定义的电路中运行软件应用程序,与此相反,对FPGA进行编程会使芯片内部的线路重新连接,从而直接在硬件中执行所需的功能。

每一块FPGA芯片都是由有限多个带有可编程连接的预定义源组成,可实现可重配置数字电路和I/O模块并允许电路接触外部环境。

FPGA资源说明书中通常介绍了可编程逻辑模块的数量、固定功能逻辑模块(如乘法器)的数目及存储器资源(如嵌入式块RAM)的大小。FPGA芯片中还有很多其它的部分,但是以上指标通常是在为特定应用选择和比较FPGA时的最重要参考指标。

同步内容