自动驾驶系统:基于Zynq的实时物体检测

作者:Steve Leibson,编译:Stark

最近几年关于自动驾驶汽车的新闻不断出现在头条新闻,各大传统汽车制造商与互联网公司结合纷纷杀入自动驾驶这个“蓝海”市场,与其说这是汽车行业所经历的一场巨大革命,倒不如说是人工智能(AI)的兴起,自动驾驶的根本原理就是利用机器视觉系统。当然自动驾驶汽车的发展也是一步一步的并且需要经验的积累,目前我们看到特斯拉、百度等厂商都推出了辅助自动驾驶系统,还远远没有实现完全的自动驾驶,此外自动驾驶汽车真正上路还必须得到国家机动车管理部门的政策许可,因此不得不承认自动驾驶汽车还有很长的一段路要走。(图1:自动驾驶汽车要能够实时感知路况信息)

机器视觉技术可以应用于自动驾驶系统中实现路况信息的采集和检测,其中CNN(卷积神经网络)在机器视觉系统中用于图像处理具有压倒性的优势。CNN网络根据复杂度可以划分为很多个“网络层”,典型的卷积神经网络可以划分为卷积层、池化层和全连接层,它能够将数量庞大的图像识别问题进行不断的降维处理,最终被训练后用于高效的图像识别。

来自韩国的ATUS公司实现了基于Zynq的CNN(卷积神经网络)系统,并且移植到汽车上进行了上路测试(如下视频所示),通过视频我们可以看到它能够实现道路上行人、汽车、动物和道路标志等的实时检测与识别。

ATUS公司的这个解决方案采用的是Xilinx Zynq-7020 SoC处理器,移植的是YOLO图像处理算法,YOLO(You Only Look Once)是基于GoogleNet的物体检测深度网络,实时和有效是YOLO网络的最大的特点和优势,这两点也是自动驾驶和ADAS系统所必须具备的,该系统的视频流速度可达到46.7fps(@416x234)。

Xilinx推出的Zynq-7000和UltraScale+ MPSoC系列是机器视觉应用的理想选择,能够为复杂多任务的并行设计提供无与伦比的性能,并且满足降低的成本和功耗要求。尤其是它们所支持的reVISION Stack能够提供丰富的算法、IP和应用开发资源,支持最流行的神经网络,帮助工程师更快的开发视觉导向的智能系统。

声明:本文来源于Xilinx Xcell Daily Blog,由创新网赛灵思中文社区编译,转载请注明作者、出处及原文链接