清华(hua)大学依托精密仪(yi)器系的类脑计算研究中心施路平(ping)教授(shou)团队提出了一种基于视觉原语的互补双通路类脑视觉感知新范式, 并据此研制(zhi)出了世界(jie)首款类脑互补视觉芯片“天眸芯”,实现了高速、高精度、高动态范围的视觉信(xin)息采集(ji),突(tu)破了传统(tong)视觉感知芯在稳定性(xing)和安全性(xing)等方面的性(xing)能瓶颈。5月30日,这项成果以(yi)“面向开放世界(jie)感知、具有互补通路的视觉芯片”为题,作为封面文章(zhang)登上顶级学术期(qi)刊《自然》。
智能系统(tong)中的视觉感知作为获取信(xin)息的核心途径(jing),发挥着至关(guan)重要的作用。但是(shi)在复杂多(duo)变(bian)的环境中,实现高效(xiao)、精确的视觉感知仍是(shi)一个艰巨的挑战。传统(tong)视觉感知芯片受“功耗墙(qiang)”和“带宽墙(qiang)”的限制(zhi),在应对突(tu)发意外场(chang)景时(shi)往往面临(lin)失真、失效(xiao)或高延迟等问题,严重影响了系统(tong)的稳定性(xing)和安全性(xing)。
“天眸芯”研究团队合影
为了克服这些挑战,清华(hua)大学精密仪(yi)器系类脑计算研究团队提出了一种基于视觉原语的互补双通路类脑视觉感知新范式。该范式借鉴了人类视觉系统(tong)的基本原理,将开放世界(jie)的视觉信(xin)息拆解(jie)为基于视觉原语的信(xin)息表示,并通过有机组合这些原语,模仿(fang)人视觉系统(tong)的特征,形成两(liang)条优势互补、信(xin)息完备的视觉感知通路。基于这一新范式,团队进(jin)一步研制(zhi)出了世界(jie)首款类脑互补视觉芯片“天眸芯”,在极低的带宽(降低90%)和功耗代(dai)价下,实现了每秒10000帧的高速、10bit的高精度、130dB的高动态范围的视觉信(xin)息采集(ji)。它不仅突(tu)破了传统(tong)视觉感知范式的性(xing)能瓶颈,而且能够高效(xiao)应对各种极端场(chang)景,确保系统(tong)的稳定性(xing)和安全性(xing)。基于“天眸芯”,团队还自主研发了高性(xing)能软件和算法,并在开放环境车载平(ping)台上进(jin)行了性(xing)能验证。在多(duo)种极端场(chang)景下,该系统(tong)实现了低延迟、高性(xing)能的实时(shi)感知推理,展现了其在智能无人系统(tong)领(ling)域的巨大应用潜力。
这是(shi)该团队继(ji)异(yi)构融合类脑计算“天机芯”后,第二次登上《自然》的封面,标(biao)志着我国(guo)在类脑计算和类脑感知两(liang)个重要方向上均取得了基础性(xing)突(tu)破。
摄(she)影/张兆基
文/北京青年报记者 雷(lei)嘉
编辑/谭卫平(ping)