当前位置: 首页> 期刊> 《百科知识》> 2017年第6期> 正文
编号: 13000932
自动驾驶车祸暴露人工智能弱点(2)
//www.caroetjl.com 2017年3月15日 《百科知识》 2017年第6期
对于它未学习过的东西,人工智能就会不不知所措,而且不知道逻辑推理,犯错误和发生事故也在所难免。2011年2月16日,在美國益智类电视节目《风险》上,经过3天(三轮)人机大战,IBM的超级计算机沃森(Watson)电脑战胜了人类顶级高手肯·詹宁斯和布拉德·拉特。但是,沃森在非常简单的一些问题和逻辑推理上却不如人类。

例如,在回答“一个语言的方言包括吴语、粤语和客家话,这种语言是什么”时,沃森答错,詹宁斯答对。因为沃森没有学习过吴语,在逻辑上并不理解吴语、粤语和客家话其实就是中国人除普通话以外的方言。

人工智能仍然值得探索

如果人工智能不具有像人一样的识别和辨认现实环境的能力,自动驾驶或无人驾驶就可能永远是一种理想。既然部分自动驾驶以及完全自动驾驶存在危险,为何还要研发这类产品并推向市场呢?

美国高速公路交通安全管理局的调查报告给出了一个答案,以特斯拉汽车行驶里程数和安全气囊数据为依据,对特斯拉Autopilot推送Autosteer这个软件前后汽车的事故率进行对比,汽车事故率从推送前的1.3次/百万千米下降到推送后的0.8次/百万千米。汽车事故率下降了近40%左右。特斯拉的CEO伊隆·马斯克称,即便退一万步讲,现在特斯拉的部分无人驾驶系统只比人工好1%,那么一年车祸导致的120万人死亡里面,人工智能也能拯救1.2万人。

另一方面,人工智能的探索也像其他学科的探索一样,只能积跬步至千里,聚小流成江海。如果把现实生活的路面情况的各种参数设计得更为全面,包罗万象,教会人工智能进行更全面和更深度的学习和分析,也许可以逐步达到与人同样的辨析路况的智能而不会出车祸。

当然,最根本的问题是,即便人工智能的深度学习能与人媲美,人类也不能完全把命运交给人工智能来处理。这才是发展人工智能的不可违背的核心原则。

特斯拉的Autopilot出问题,就是车主布朗非常依赖Autopilot的自动驾驶功能,一切交由Autopilot来处理,布朗在车祸发生前没有使用刹车,他最后一个动作是将自动巡航速度设置为74英里/小时(119千米/小时),但两分钟后就发生了车祸。然而,如果布朗是自己驾驶,他完全可以观察到那辆拖挂车,在事故发生前采取如刹车、转向等方式,遗憾的是,他并未采取任何有效措施。

所以,美国高速公路交通安全管理局在关于特斯拉Autopilot车祸报告中既指出Autopilot不存在导致致命车祸的缺陷,但也指出,在遇到交通路口时,人们不应当过度依赖Autopilot来检测相应的路况,因为车主布朗在撞上卡车之前,有充分的时间(长达7秒)来踩刹车。

【责任编辑】张田勘 (杨欣)
上一页1 2