無人駕駛車輛的應急反應有時并不比人類做得
2019-12-17 14:53:09
无人驾驶车辆的应急反应 有时并不比人类做得更好
图片来源于络
继Uber之后,Waymo的无人驾驶测试车也撞了幸运的是,没有人从这起事故中去世5月4日,在亚利桑那州钱德勒市,有人驾驶车辆由于某种原因跨过中间线撞向对向行驶的Waymo测试车,导致双方车辆受损,无人驾驶安全员受轻伤警方认为,Waymo车辆和安全员无须承担
看上去,该市警方已经适应了无人驾驶车辆是主体之一的现状尽管无责,也让公众认识到,在某些情形下,无人驾驶车辆对其他车辆不可预测行为的反应,并不比人类做得更好在近乎对撞的过程中,Waymo没有采取令人惊叹的规避动作(也许保持车道更明智),但毫无反应就有点令人失望,无人驾驶测试车甚至没有采取刹车等惯常措施
Waymo将在内部彻查无人系统的训练日志,但他们不会蠢到试图搞懂车辆在“想”什么他们只会从结果逆推,发现训练系统中尚未完善、甚至尚未涉足的部分
如何训练一个“黑盒子”
这导致了谷歌“城堡”计划曝光谷歌一直宣称自己用实际路测和虚拟测试相结合的方式来训练自动驾驶系统两者如何融合,谷歌一直秘而不宣
新的事故表明,谷歌仍然领先,但不再独一无二
无人系统制造出来,就像刚出生的婴儿一样,拥有用于感知外界环境的“感官”(摄像头、毫米波雷达、激光雷达),也拥有高速大脑(计算单元、图像处理单元),但“大脑”功能尚在分化中,需要教它识别环境中一切可能出现的人和物体也可以教它一些基本的对策,但实际中它如何决策,研究人员并不知晓对于人类来说,AI决策机制是一个“黑盒子”这是很多人对此忧心忡忡的原因
教无人系统分辨道路和其他可能遇到的一切,是训练的第一步就像教婴儿看图识物一样因为图像的信息太丰富,难以建模,深度学习似乎能发挥特殊优势人类基于数百万年的进化,往往只须直觉就可以在复杂局面中找到解决路径,AI正在学习这一点,只不过遵循另一套规则
深度学习既可以用于感知,也可以用于决策比如的AlphaGo的走子络,就是一套DNN训练系统用最简单的话说,就是根据当前状态做出决策它的设计者和训练师不是要教它决策(事实上人类不知道系统将如何决策),而是教它一些基本知识
在这个阶段,识别环境是核心任务物体、什么地方可以行驶(不能开上路肩和花坛)、合法行驶路径等
首先,在一大批车的图像中提取基本特征,比如车的正面和侧面大致的几何形状,令系统分辨出车的左侧和右侧(用不同特征标记)
有了连续多帧的图像,根据其间的连续变化,可以分辨车的行驶方向并可以辨识出远处视野中很小的车辆,比任何人类都看得远、看得清楚如何评估它们对自身的影响,将放在后面训练
其次,传统图像中,路肩和马路本身颜色难以区分、立体视觉也很难辨别(毕竟高程差太小)人类是如何轻易识别的靠阴影区区10厘米的路肩,将形成一条连续暗色的窄带区域系统你学会了吗
用连续窄带阴影(断开的个别路段,正好可以做高危提醒信号),结合道线识别,勾勒出可行驶区域
看上去很完美,可是有时候没有道线、或者由于天气道线难以识别这种情况下,人类是如何驾驶的断续的树木、街边的排水明渠、两侧走动的行人,都可以成为判断依据而系统需要从大量的视频中(实际上是多帧图像)提取出人类策略,并加以优化
Waymo期待自己的AI系统和明智的人类驾驶员一样,采取几乎相同的步骤,但比任何人类反应更迅捷、处置更果断但在5月4日的车祸中,这一点没有得到体现,究竟是哪里出了问题
训练系统的局限
这表明,大量的虚拟环境训练,至少有一部分没有被用于实际场景中也就是说,融合出了问题
当无人系统具备的了辨识能力之后,它需要面对两类场景:一类是真实世界,另一类是数字世界从前者取得“实操”经验后,在后者里面变换各种条件(比如将障碍物移动位置、让行人的行为更加不可预测),不断磨练应对策略,直到最优
谷歌的专家承认,模拟不靠谱的人类行为极为困难即便简单的十字路口,无人系统也对不遵循信号的行人和摩托车感到困惑经历了一连串的刹车之后,无数车辆试图从旁边挤入,导致局面更混乱
在数字化训练系统中,Waymo再次简化了路况譬如两条同向高速车道、只涉及两辆车A车搭载无人系统,B车将作为阻碍出现
当A车以90公里的速度在内侧道路直行,右侧B车猛然超车并到A车前方,并且紧接着刹车A车能否迅速、平稳地刹车,同时还要给后面车辆留出足够的刹车时间
B以各种方式、从不同角度阻挡A车,对于A车刹车过程的测试重复上百次训练系统记录下来无人系统的表现,并对其中失败的情形进行分析,优化后者的处置动作
然后局面被设置得更复杂:城市多条车道,遇到在车道上后退车辆、路上突然出现滚动的篮球或者从隔离带上突然蹿出行人,考查无人系统将如何应对
当然,程序中无法穷尽所有输入条件程序员们希望无人系统在数万种情景中提炼出方法,以便在其他情景中也能做出理智决策
5月4日的车祸,对于当前的Waymo测试车来说,可能属于“超纲”情形面对对向车辆猛冲过来,人类的问题在于没有足够的观察、决策时间,以至于慌了手脚
但无人系统不是这样,在毫秒级的传感器数据解算下,CPU准确地获知了周围所有车辆的即时位置,斜冲过来的车辆瞬时速度和加速度,预测了此后数秒内对方的连续位置并算出如果不采取紧急制动+变换方向,1.5秒后将发生危及车内人员的剧烈碰撞
是什么促使Waymo车辆做出不予理会的决定呢是右侧车道没有机动空间,还是预测变换方向后无法保持车辆的稳定,抑或是急剧刹车也无法改变碰撞的结果,反而会因路面摩擦的不平衡使车辆侧翻、从而导致更严重的后果
我们无法获知决策过程,Waymo工程师们读取数据可能解决一部分困惑如果他们的结论和无人车当时的决策一样——什么都不做更有利,那么就毫无问题
问题在于,这样的结论超出了人类的认知面对危机我们总要做点什么,我们迅速提高肾上腺素水平、瞳孔放大、肌肉绷紧,血压上升,以迎接挑战
将AI决策与人类比较,可能是不合适的这反过来促使人们思考基于人类经验的训练系统有效性
虚拟世界可能设置得太简单了
Waymo的专家们吹嘘他们是唯一一个采用“加速训练系统”的公司,实际上,福特、优步和通用也都在硅谷建立了类似的训练系统Waymo只不过是开始得最早的一个当然,他们取得的数据也是最多的
虚拟世界的训练,在24小时内可能跑出上千万公里每一分钟都能模拟出10年前两周的工作量有专家提出模拟和真实公路测试的比例应该是100:1同时,模拟部分应该把无聊的地方切断,专注于有趣的部分(尽可能的复杂场景),达到加速训练的目的有人认为,一旦无人系统在虚拟城市中的数量达到数百万个,其群体行为模式,已经非常接近真实的超级城市日常而在其背后,必须部署足够的实际车辆和传感器,建立公路数据库完全依靠虚拟场景训练出来的无人系统,可能面对真实路况时表现“不大一样”
这提示了人们,虚拟城市的模型过于简单,会不会导致无人车无法驾驭大城市的复杂局面
不过,钱德勒市是旅游胜地,实际上人口只有几十万而且通常阳光充足、对传感器正常工作有正面作用环境影响似乎可以排除
让我们回到开始训练虽然开始时借鉴了人类司机应对的场景,但最终人工智能可能会采取不同的策略随着无人系统对人类行为理解的深入,促使它形成自己的驾驶风格令人吃惊的是,无人系统面对另一个无人系统时采取的策略,与它面对人类驾驶车辆时不一样而我们还没有想过城市里完全充斥着无人驾驶车辆的情形
这意味着,无人系统统治整个城市的时候,可能自发形成全新的交通准则更高效、更默契人类在汽车时代所积累并奉为圭臬的准则,很可能被替代车祸揭示了有人和无人车辆混行可能造成的混乱,但也让我们更期待全新的无人驾驶交通到那时,无人系统的工作可能更简单
宝宝可以用宁尔康退热冰露南阳治疗不孕不育费用
心肌缺血注意事项
- 上一篇:北美車展福特新款F150正式發布
- 下一篇:奧迪上半年中東銷量增幅達314
-
职场情商课:掌控“现像效应”,发挥积极作用,遵从自己的内心
2024-12-09
本文看点:惯常effect是心理学之外的专业术语,又指乐队烟火effect,又叫“随大流”,是指当我们作为形态受到确实群体冲击时,会可疑且扭转自己的看法、说明和不当
-
万余平度考生今日开始中考
2024-09-26
2022年潍坊市的中学学业总体入学于6年末13日-19日举行,本次入学潍坊市共设胶州北大、试验中高中时代、胶州二中、胶州三中、胶州附属中学、职教中心、试验中的中
-
消息称华为将于 6 月初释出 Freebuds Pro 2 耳机等新品
2024-08-09
IT之家 5 月末 22 日最新消息,视像该网站 @东都数君 透露,三星将于 6 月末初发布新闻新款喇叭,结合其他人的爆料来看预估是新一代 Freebuds Pro 2 喇叭。 三星 FreeBuds P
-
看淡心境才都会秀丽
2024-07-25
有心事情我,真是不需太多,八分就够了。极少了,我不会难过,陈述我在你有总是的标量毕竟,你还毕竟有心事情我;而多了,也不会受伤及害到我,因为除了恋人,