清华大学依托精密仪器系的类脑计算研究中心施路平教授团队提出了一种基于视觉原语的互补双通路类脑视觉感知新范式, 并据此研制出了世界首款类脑互补视觉芯片“天眸芯”,实现了高速、高精度、高动态范围的视觉信息采集,突破了传统视觉感知芯在稳定性和安全性等方面的性能瓶颈。5月30日,这项成果以“面向开放世界感知、具有互补通路的视觉芯片”为题,作为封面文章登上顶级学术期刊《自然》。
智能系统中的视觉感知作为获取信息的核心途径,发挥着至关重要的作用。但是在复杂多变的环境中,实现高效、精确的视觉感知仍是一个艰巨的挑战。传统视觉感知芯片受“功耗墙”和“带宽墙”的限制,在应对突发意外场景时往往面临失真、失效或高延迟等问题,严重影响了系统的稳定性和安全性。
“天眸芯”研究团队合影
为了克服这些挑战,清华大学精密仪器系类脑计算研究团队提出了一种基于视觉原语的互补双通路类脑视觉感知新范式。该范式借鉴了人类视觉系统的基本原理,将开放世界的视觉信息拆解为基于视觉原语的信息表示,并通过有机组合这些原语,模仿人视觉系统的特征,形成两条优势互补、信息完备的视觉感知通路。基于这一新范式,团队进一步研制出了世界首款类脑互补视觉芯片“天眸芯”,在极低的带宽(降低90%)和功耗代价下,实现了每秒10000帧的高速、10bit的高精度、130dB的高动态范围的视觉信息采集。它不仅突破了传统视觉感知范式的性能瓶颈,而且能够高效应对各种极端场景,确保系统的稳定性和安全性。基于“天眸芯”,团队还自主研发了高性能软件和算法,并在开放环境车载平台上进行了性能验证。在多种极端场景下,该系统实现了低延迟、高性能的实时感知推理,展现了其在智能无人系统领域的巨大应用潜力。
这是该团队继异构融合类脑计算“天机芯”后,第二次登上《自然》的封面,标志着我国在类脑计算和类脑感知两个重要方向上均取得了基础性突破。
摄影/张兆基
文/北京青年报记者 雷嘉
编辑/谭卫平