DRAM

DRAM技术的极限在哪里?

作者:Kevin Fogarty,semiengineering

如果人类创造了一个真正有自我意识的人工智能,那么等待数据到达可能会让它倍感沮丧。

过去二十年来,基于 DRAM 的计算机内存的存取带宽已经提升了 20 倍,容量增长了 128 倍。但延迟表现仅有 1.3 倍的提升,卡内基梅隆大学的研究者 Kevin Chang 如是说,他提出了一种用于解决该问题的新型数据通路。

现代计算机需要大量高速度、高容量的内存才能保证持续运转,尤其是工作重心是内存数据库、数据密集型分析以及越来越多的机器学习和深度神经网络训练功能的数据中心服务器。尽管研究人员已经在寻找更好、更快的替代技术上努力了很多年,但在性能优先的任务上,DRAM 仍旧是人们普遍采用的选择。

这有助于解释今年的 DRAM 销量激增,尽管据 IC Insights 报告称供应有限让其平均售价增长了 74%。售价激增让 DRAM 市场收入达到了创纪录的 720 亿美元,帮助将 IC 市场的总收入推升了 22%。据这份 IC Insights 报告说,如果没有来自 DRAM 价格的额外增长(过去 12 个月增长了 111%),那么 2017 年整个 IC 市场的增长将只能达到 9%,相比而言 2016 年仅有 4%。

内存工作原理:

内存是用来存放当前正在使用的(即执行中)的数据和程序,我们平常所提到的计算机的内存指的是动态内存(即DRAM),动态内存中所谓的"动态",指的是当我们将数据写入DRAM后,经过一段时间,数据会丢失,因此需要一个额外设电路进行内存刷新操作。具体的工作过程是这样的:一个DRAM的存储单元存储的是0还是1取决于电容是否有电荷,有电荷代表1,无电荷代表0。但时间一长,代表1的电容会放电,代表0的电容会吸收电荷,这就是数据丢失的原因;刷新操作定期对电容进行检查,若电量大于满电量的1/2,则认为其代表1,并把电容充满电;若电量小于1/2,则认为其代表0,并把电容放电,藉此来保持数据的连续性 。

ROM和RAM指的都是半导体存储器,ROM是Read Only Memory的缩写,RAM是Random Access Memory的缩写。

ROM在系统停止供电的时候仍然可以保持数据,而RAM通常都是在掉电之后就丢失数据,典型的RAM就是计算机的内存。

RAM主要分为两类,一类是静态RAM(static RAM/SRAM)。另一类是动态RAM(Dynamic RAM/DRAM)。

RAM

手把手教你FPGA存储器项使用DRAM

FPGA中的存储块DRAM

某些FPGA终端,包含板载的、可以动态随机访问的存储块(DRAM),这些存储块可以在FPGA VI中直接访问,速率非常高。

DRAM可以用来缓存大批量的数据,而且速度可以非常快。针对一些特殊应用,比如:瞬时带宽非常高,而且有要保存原始数据的时候,就可以用DRAM做一个大的FIFO缓冲。

DRAM的大小每块板卡可能不同,一般在官网中对应板卡的说明中都会标明DRAM的大小(如果有DRAM的话)。比如,PXIe-7966R就有512M的DRAM空间。
http://sine.ni.com/nips/cds/view/p/lang/zhs/nid/210272
PXIe-7966R拥有512M的板载内存(DDR2)
PXIe-7966R拥有512M的板载内存(DDR2)

DRAM原理 5 :DRAM Devices Organization

作者:codingbelief

随着系统对内存容量、带宽、性能等方面的需求提高,系统会接入多个 DRAM Devices。而多个 DRAM Devices 不同的组织方式,会带来不同的效果。本文将对不同的组织方式及其效果进行简单介绍。

1. Single Channel DRAM Controller 组织方式

Single Channel 指 DRAM Controller 只有一组控制和数据总线。 在这种场景下,DRAM Controller 与单个或者多个 DRAM Devices 的连接方式如下所示:

1.1 连接单个 DRAM Device


Single Channel 连接单个 DRAM Device 是最常见的一种组织方式。 由于成本、工艺等方面的因素,单个 DRAM Device 在总线宽度、容量上有所限制,在需要大带宽、大容量的产品中,通常接入多个 DRAM Devices。

1.2 连接多个 DRAM Devices

DRAM原理 4 :DRAM Timing

作者:codingbelief

在 DRAM Device 章节中,我们简单介绍了 SDRAM 的 Active、Read、Write 等的操作,在本中,我们将详细的介绍各个操作的时序。

1. Overview

如上图所示,SDRAM 的相关操作在内部大概可以分为以下的几个阶段:

Command transport and decode

在这个阶段,Host 端会通过 Command Bus 和 Address Bus 将具体的 Command 以及相应参数传递给 SDRAM。SDRAM 接收并解析 Command,接着驱动内部模块进行相应的操作。

In bank data movement

DRAM原理 3 :DRAM Device

作者:codingbelief

在前面的文章中,介绍了 DRAM Cell 和 Memory Array。 本文则以 SDR SDRAM 为例,描述 DRAM Device 与 Host 端的接口,以及其内部的其他模块,包括 Control Logic、IO、Row & Column Decoder 等。

1. SDRAM Interface

SDR SDRAM 是 DRAM 的一种,它与 Host 端的硬件接口如下图所示:

总线上各个信号的描述如下表所示:

Symbol Type

理解汽车DDR DRAM

作者:Synopsys,产品营销主管Marc Greenberg

汽车中包含的大多数处理器相对较小且对存储器的要求适中,它们可由SRAM和非易失存储器来实现。对于计算密集、图像处理以及图像显示这些可能需要用到DRAM和更强大CPU的应用,到目前为止,它们仍然被限制在车辆内那些非安全关键的娱乐信息系统中。高级驾驶感知系统(ADAS)和无人驾驶车辆系统要求使用强大的处理器,这类处理器对存储器容量和带宽均有要求,仅当使用DRAM时这才是可能的。设计人员需要理解在安全关键汽车系统中使用DRAM的益处,以及一些共同注意事项,诸如误码率和满足严格汽车行业的有关标准如ISO 26262。

汽车中DRAM和SRAM的比较
作为很多计算装置中的主要存储器,DRAM芯片广泛应用于家庭和办公计算机,服务器和网络,移动装置,电视,以及机顶盒中。在全球最大的前10家半导体制造商中,DRAM制造商占据了三个,它们在20151年总计销售了147亿块DRAM芯片,总价值为450亿美元。.

DRAM 原理 2 :DRAM Memory Organization

作者:codingbelief

在 DRAM Storage Cell 章节中,介绍了单个 Cell 的结构。在本章节中,将介绍 DRAM 中 Cells 的组织方式。

为了更清晰的描述 Cells 的组织方式,我们先对上一章节中的 DRAM Storage Cell 进行抽象,最后得到新的结构图,如下:

1. Memory Array

DRAM 在设计上,将所有的 Cells 以特定的方式组成一个 Memory Array。本小节将介绍 DRAM 中是如何将 Cells 以 特定形式的 Memory Array 组织起来的。

首先,我们在不考虑形式的情况下,最简单的组织方式,就是在一个 Bitline 上,挂接更多的 Cells,如下图所示:

DRAM原理 1 :DRAM Storage Cell

作者:codingbelief

1. Storage Capacitor

DRAM Storage Cell 使用 Storage Capacitor 来存储 Bit 信息。

从原理层面上看,一个最简单的,存储一个 Bit 信息的 DRAM Storage Cell 的结构如下图所示:

由以下 4 个部分组成:

  • Storage Capacitor,即存储电容,它通过存储在其中的电荷的多和少,或者说电容两端电压差的高和低,来表示逻辑上的 1 和 0。
  • Access Transistor,即访问晶体管,它的导通和截止,决定了允许或禁止对 Storage Capacitor 所存储的信息的读取和改写。
  • Wordline,即字线,它决定了 Access Transistor 的导通或者截止。
  • 赛灵思公司 (Xilinx, Inc. (NASDAQ:XLNX)) 今天宣布了采用 HBM 和 CCIX 技术的新型16nm Virtex® UltraScale+™ FPGA的细节。该支持 HBM 的 FPGA系列,拥有最高存储器带宽,相比 DDR4 DIMM 将存储器带宽提升了 20 倍,而相比竞争性存储器技术,则将单位比特功耗降低 4 倍。这些新型器件专为满足诸如机器学习、以太网互联、8K 视频和雷达等计算密集型应用所需的更高存储器带宽而打造,同时还提供CCIX IP,支持任何 CCIX 处理器的缓存一致性加速,满足计算加速应用要求。

    赛灵思公司 FPGA 和 SoC 产品管理高级总监 Kirk Saban 表示:“封装集成 DRAM象征着在高端 FPGA 应用存储器带宽发展方面迈出了一大步。HBM 集成在赛灵思业界领先的器件中, 指明了未来朝向多 Tb 存储器带宽发展的清晰方向,同时我们的加速强化技术将实现高效的异构计算,满足客户极为苛刻的工作负载和应用需求。”

    同步内容