视觉感知|平行视觉:让汽车拥有一双“慧眼”

无人驾驶进入汽车领域以来 , 一直无法消除汽车上安装辅助系统对道路障碍的识别盲区 。
2005年 , 中国科学院自动化所复杂系统管理与控制国家重点实验室主任王飞跃提出平行驾驶的概念 。这一概念针对自动驾驶构建其社会—信息—物理系统模型 , 从人与车、车与环境、人与车与环境等多个不同层次考虑自动驾驶的实现 , 并独特性地提出使用云端驾驶与地面端驾驶“平行”的方式 , 指导无人车实现智能驾驶 , 为未来无人驾驶指明了一种新的实现途径 。
日前 , 王飞跃带领团队在《中国图像图形学报》发表了一篇关于平行视觉感知技术的文章 , 提出将人工社会(Artificial societies)、计算实验(Computational experiments)和平行执行(Parallel execution)构成的ACP方法引入智能驾驶的视觉感知领域 , 解决了视觉模型合理训练和评估问题 , 有助于智能驾驶进一步走向实际应用 。
视觉感知努力向人眼看齐
与依靠后视镜作为辅助的早期汽车相比 , 现代汽车早已经被摄像头、毫米波雷达、超声波雷达以及激光雷达等负责感知的智能传感器“武装”起来 。“相比于雷达 , 视觉感知的智能之处体现在纹理信息提取和分辨率上 。”王飞跃在接受《中国科学报》采访时解释道 。智能驾驶需要对复杂的交通环境进行准确感知 , 其中就包括对交通标志、车道线等进行识别 , 这些交通要素的识别严重依赖色彩信息 , 而视觉感知可以有效地实现对这些目标的识别和判断 , 目前的雷达技术则无法做到 。
不仅如此 , “视觉感知提取的纹理信息还能够对同一类别的不同实例进行区分 , 有助于完成复杂环境下的目标跟踪、轨迹预测等任务 。”王飞跃表示 。此外 , 视觉感知能够以较低成本构建高分辨率图像 , 因此即使是对远处目标和较小目标 , 视觉感知方案依然能够保证有较多的信息来对其进行识别 , 从而大大提升车辆对环境的智慧感知能力 。
论文结果显示 , 目标检测的训练阶段虚实混合数据最高精度可达60.9% , 同时精度受到环境与困难程度的影响 。
“尽管我们认为在智能驾驶中视觉感知可以类比为人眼的一部分 , 它可以像人眼一样获取外界的视觉信息 , 但是目前还无法做到像人类强大视觉系统一样进行推理 。”王飞跃坦言 。为此 , 他举了个例子 , 比如在复杂城市道路环境中的交叉路口或者人行道上 , 人类可以根据当前环境推理其他车辆或者行人意图 , 并可以与其他车辆或者行人交互并根据情况礼让 , 而这一点 , 目前的视觉感知系统无法做到 。“因为视觉感知是通过车载摄像头或雷达对自动驾驶汽车周围环境数据进行收集 , 利用计算机视觉为代表的深度学习技术 , 对收集到的数据进行图像识别、图像分类 , 并对有价值的信息进行检测、跟踪 , 将其处理成自动驾驶系统能够读懂的语言 , 进而为控制决策系统提供依据 。”
视觉感知是智能驾驶核心
在这项研究中 , 研究人员将视觉感知应用到“长尾场景”中 。该场景主要涉及日常驾驶中出现概率极低、很少遇到的复杂挑战场景 , 如极端恶劣天气、突发交通事故、突然出现的行人等 。
“由于长尾场景发生概率极低且危险系数高 , 往往难以采集到相应数据来训练和测试视觉模型 , 导致目前基于深度学习的视觉算法没有经过充分测试 , 只在简单的受约束环境下有效 。一旦运用到实际复杂开放的交通环境中 , 算法很容易失败 。”王飞跃说 , 因此 , 研究人员希望用平行视觉来解决这一问题 , 目标是实现一种“长尾常规化”模式 , 通过人工虚拟场景来仿真模拟复杂的实际场景 , 利用计算实验进行视觉模型的训练与评估 , 最后借助虚实互动的平行执行实现视觉模型的在线优化 。

推荐阅读