加入收藏 | 设为首页 | 会员中心 | 我要投稿 西双版纳站长网 (https://www.0691zz.com.cn/)- 数据计算、IT业界、服务器、教程、云日志!
当前位置: 首页 > 运营中心 > 建站资源 > 经验 > 正文

频频犯错的无人车,可能缺了一个“域适应”

发布时间:2019-04-10 12:12:47 所属栏目:经验 来源:脑极体
导读:即将在6月举行的CVPR 2019,是机器视觉方向最重要的学术会议。评选结果已经宣布,今年论文量增加了56%,与无人驾驶相关的论文和项目也是扎堆亮相。其中的一大亮点,就是以自动驾驶视觉为核心的CVPR WAD 挑战赛。 今年的挑战赛中,伯克利和滴滴将分别开放了
副标题[/!--empirenews.page--]

即将在6月举行的CVPR 2019,是机器视觉方向最重要的学术会议。评选结果已经宣布,今年论文量增加了56%,与无人驾驶相关的论文和项目也是扎堆亮相。其中的一大亮点,就是以自动驾驶视觉为核心的CVPR WAD 挑战赛。

今年的挑战赛中,伯克利和滴滴将分别开放了自家的超大规模驾驶视频数据集BDD100K和D²-City,BDD100K包含10万个美国公开驾驶视频,D²-City提供中国几大城市的超过10000个视频记录。这些数据集都被标注了好了所有道路物体,以及天气、道路和交通条件等关键对象和数据,以此催生能够改变无人驾驶安全隐忧的算法。

频频犯错的无人车,可能缺了一个“域适应”

按照伯克利的规划,这次挑战将集中在目标检测与目标跟踪任务的域适应上,并能够在中美的不同城市场景中实现自动迁移。

那么,域适应对自动驾驶的安全问题究竟有多重要?我们通过一篇文章来抢先了解一下。

论自动驾驶的倒掉与重生

在解释“域适应”之前,有必要先搞清楚,现在的自动驾驶技术都在头痛哪些问题。

尽管无人驾驶测试车的上路里程和接管数据都越来越漂亮,但对于机器学习模型来说,如何在新的、未知的环境中也能和测试道路上表现的一样优秀,这仍然是一个公开的难题。

举个例子,自动驾驶汽车可以利用在硅谷的道路测试数据集训练出一个表现良好的无人车模型。然而,同样的模型如果被部署在波士顿这样多雪天气的地区,就可能表现得很糟糕,因为机器以前从来没有见过雪。如何在差异化的环境中进行有效的自主操作,复用自己学到的经验,这仍然是机器学习的一个难点。

频频犯错的无人车,可能缺了一个“域适应”

如果说波士顿和硅谷,由于气候和路况上的巨大差异,在一年的任何时候,都可以被系统标记为不同的域,可以通过不同的模型来解决。那么面对高度相似域,比如同样是城市街景,但北京和重庆却有着不同的道路设计,难度于是再一次升级了。

以往的解决方案是“吃一堑,长一智”。收集训练集(包括失败范例)的数据,提取特征,然后让机器依据经验误差最小准则学习分类器。但这样容易产生三个问题:

  • 一是域之间的迁移效果不稳定。如果训练集和测试集分布一致,则模型的迁移效果较好。如果分布不一致,在源域过拟合,目标域上则表现并不让人满意。
  • 二是有限的变化性。通过标注好的训练数据集所学会的策略,往往只能应对特定的环境和物理系统。而真实的世界常常会遇到动态变化,比如异常光线、特殊气候现象等等,这些都会改变域属性并让无人车不知所措。

三是社会舆论的高风险性。要让无人车系统从失败中吸取经验,首先,它要先犯错。但这在目前普通居民对无人车安全非常担忧的大环境下,无人车碰撞、剐蹭、识别太慢等问题都会被拿出来质疑,再采用依靠事故数据来学习如何避免错误的方法无疑是灾难性的。

显然,我们需要借助其他方法来调教无人车,来减少它在陌生环境中失败的次数。“域自适应”就是其中之一。

那么,到底什么是域自适应学习?

先解释两个关键概念:

  • 一是源域(source domain)表示与测试样本不同的领域,但是有丰富的标注数据。比如伯克利和滴滴的驾驶视频数据集BDD100K,以及D²-City。
  • 一个是目标域(target domain)表示测试样本所在的领域,无标签或者只有少量标签。当一辆无人车测试车从硅谷变换到波士顿的道路上,它面对的就是一个全新的目标域。

如何尽可能地复用它在源域数据集中得到的先验知识,尽可能准确地对目标域物体实现检测、跟踪等学习任务,就成为无人车模型要面临的一大问题。

我们再将任务分门别类梳理一下:

1.域适应的可能性。

简单来说,就是满足哪些条件才有可能实现域自适应学习。这对模型的学习能力(算法也有学霸和学渣之分)、源域和目标域的相关性(比如硅谷和重庆的路面差异)、算法的误差界分析(源域和目标域必须同时满足最小近似误差)、学习任务的先验知识等,这四个问题的妥善解决,才能有效帮助机器进行域自适应学习。

2.鲁棒性。

在域自适应学习中,训练样本和测试样本之间的分布不一致,因此导致源域上训练的模型往往不适用于目标域的学习。而域自适应学习的鲁棒性则能够度量算法对训练样本改变的敏感程度,从而克服目标域泛化误差界的“扰动”。简单来说域自适应学习模型就是一枚“暖男”,对误差的包容性更强。

3.统计估计的一致性。

在确保模型可以对目标域进行学习之后,就需要解决域适应学习有效性的问题了。

这往往依赖于有效的源域和目标域的概率分布判断也就是最考验机器智商的一致性分析。使用尽可能少的样本数,实现最小的误差上界。好的域自适应性学习算法是不允许“偏科”的,泛化能力得非常强才行。

说了这么多,不难看出域自适应性学习本质上和人类的学习模式极为相似:在课堂上学习前人总结好的科学知识,然后在与现实的交流过程中不断扩充新的知识并进行探索,完成对复杂事物的认知,从而达到自主学习、适应新科目的目的。

(编辑:西双版纳站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读