中新网北京5月30日电 (记者 孙自(zi)法)国际著名学术期刊《自(zi)然》最新同步发表中外两个研(yan)究团队独立完成的两篇物(wu)理学论文,聚焦无人驾驶(shi),他们通(tong)过两种提(ti)升图像(xiang)处理的方法,分(fen)别研(yan)发出“天眸”视觉(jue)芯片和(he)混合(he)相机,或能用于自(zi)动(dong)驾驶(shi)汽(qi)车(che)。
据介绍(shao),图像(xiang)传感器对自(zi)动(dong)化机器在内的各种应用至(zhi)为重要,需要兼具良好的整体视觉(jue)质量(对场景的准确解读)以及快速运动(dong)探测(实现快速反应)。不过,整合(he)各种理想功能可能会影响效率或是需要在图像(xiang)质量和(he)延(yan)迟上(shang)做出取舍。而(er)最新发表的两项研(yan)究,证明了混合(he)方法能在克服之前局限的同时满足这两种需要。
在第一篇论文中,论文共同通(tong)讯作者、清华大学施路平领导的中国科研(yan)团队以人类视觉(jue)系统的运作方式为灵感,开发出一款传感芯片,能将快速但不精确的感觉(jue)与慢(man)速但更精确的知(zhi)觉(jue)相结合(he)。这个视觉(jue)芯片被(bei)命名为“天眸”(Tianmouc),它有一个混合(he)像(xiang)素阵列,能将低准确度但快速的事件探测(无需太多细(xi)节便可对变化做出快速反应)与慢(man)速处理相结合(he),实现对场景的准确可视化。
研(yan)究团队用一个自(zi)动(dong)驾驶(shi)感知(zhi)系统证明了该(gai)芯片能快速稳健处理图像(xiang)的能力。该(gai)芯片还在多个情景进行了测试,包括(kuo)开车(che)经过一个黑暗隧道,应对相机闪光灯的干扰,以及探测汽(qi)车(che)前方有人走(zou)过。
本项研(yan)究的图片同时显示了彩色(se)摄像(xiang)头的颜色(se)信息和(he)事件摄像(xiang)头的事件(蓝(lan)点和(he)红点);边界框显示了他们的算法对行人的检测(图片来自(zi)苏黎世大学机器人与感知(zhi)小(xiao)组)。施普林格·自(zi)然/供图
在另(ling)一篇论文中,瑞士苏黎世大学Daniel Gehrig和(he)Davide Scaramuzza用视觉(jue)感知(zhi)专用相机克服了存在的困(kun)难:全彩相机分(fen)辨率很高但需要大量数(shu)据处理(带宽)来探测快速变化;降低带宽会导致延(yan)迟增加,从(cong)而(er)会影响安全性(xing)。而(er)事件相机虽然能探测快速的移(yi)动(dong),但会牺牲准确度。
本项研(yan)究的图片显示了彩色(se)摄像(xiang)头的颜色(se)信息和(he)事件摄像(xiang)头的事件(蓝(lan)点和(he)红点);边界框显示了他们的算法对汽(qi)车(che)的检测(图片来自(zi)苏黎世大学机器人与感知(zhi)小(xiao)组)。施普林格·自(zi)然/供图
他们的研(yan)究表明,有一种混合(he)系统能让自(zi)动(dong)驾驶(shi)汽(qi)车(che)实现稳健的低延(yan)迟目标探测。通(tong)过结合(he)这两种相机,彩色(se)相机的帧(zhen)率会降低,从(cong)而(er)在确保准确性(xing)的同时降低带宽、提(ti)升效率,而(er)事件相机也能弥补彩色(se)相机造成的高延(yan)迟,确保能探测到快速移(yi)动(dong)的目标,如行人和(he)汽(qi)车(che)。
本项研(yan)究的图片显示了行人奔跑时产生的来自(zi)彩色(se)摄像(xiang)头的颜色(se)信息和(he)来自(zi)事件摄像(xiang)头(蓝(lan)点和(he)红点)的事件(图片来自(zi)苏黎世大学机器人与感知(zhi)小(xiao)组)。施普林格·自(zi)然/供图
《自(zi)然》论文认为,中国和(he)瑞士团队最新研(yan)究的这两种方法,或能让自(zi)动(dong)驾驶(shi)汽(qi)车(che)和(he)其他应用实现更快、更高效和(he)稳健的图像(xiang)处理。