全自動駕駛汽車近在眼前?
如果你相信各大公司的CEO鞋倔,那么感覺可能再過幾個月全自動駕駛汽車就要實現(xiàn)了老玲。2015年,埃隆·馬斯克預測特斯拉將于2018年推出全自動駕駛汽車除呵,Google也是如此再菊。Delphi和MobileEye計劃將于2019年推出四級系統(tǒng),Nutonomy計劃于同年在新加坡街頭部署數(shù)千輛無人駕駛出租車颜曾。通用汽車將于2019年開始生產(chǎn)全自動駕駛汽車纠拔,這種車輛沒有方向盤,也無法讓司機介入——這些預測背后關系到的是資金的投入泛豪,這些公司紛紛下注賭軟件的發(fā)展能夠?qū)崿F(xiàn)這些大肆的宣傳稠诲。
從表面上看,似乎全自動駕駛汽車近在眼前诡曙。Waymo已經(jīng)開始在亞利桑那州特定的公共道路上測試汽車臀叙。特斯拉和其他效仿者也紛紛開始出售功能上有限制的自動駕駛汽車,但如果有意外情況發(fā)生价卤,這類汽車依然需要依靠司機進行干預劝萤。最近幾起事故,有些是致命的慎璧,但是只要系統(tǒng)不斷改進床嫌,從邏輯上說,我們距離沒有人為干預的自動駕駛車輛不會太遠了要捐。
但是全自動駕駛汽車的夢想可能比我們想象中還要更加遙遠风加。人工智能專家越來越擔心,距離自動駕駛系統(tǒng)可以確保避免事故抽述,可能需要數(shù)年甚至數(shù)十年责什。雖然自我訓練系統(tǒng)可以應對現(xiàn)實世界的混亂,但是紐約大學的Gary Marcus等專家則認為重新審視這一問題不可避免袄碱,有人稱之為“人工智能的寒冬”。這種延遲可能會造成整整一代人都無法實現(xiàn)全自動駕駛汽車侨识,這會給那些依靠自動駕駛技術的公司帶來災難性的后果描宁。
深度學習的通用化應用還不成熟
很容易理解為什么汽車公司對自動駕駛持樂觀態(tài)度厅驼。
在過去的十年中,深度學習(一種使用分層機器學習算法坊偿,從海量數(shù)據(jù)集中提取結(jié)構(gòu)化信息的方法)已經(jīng)在人工智能和技術行業(yè)取得了驚人的進展:它加強了Google搜索华孙、Facebook的News Feed、將會話語音轉(zhuǎn)成文本的算法申建、還支持Go-playing系統(tǒng)海槐。在互聯(lián)網(wǎng)之外,我們用機器學習檢測地震挖息、預測心臟病金拒,并通過攝像頭檢測行為,還有很多不計其數(shù)的創(chuàng)新套腹。
但是深度學習需要大量的訓練數(shù)據(jù)才能正常工作绪抛,幾乎需要涵蓋算法可能遭遇的所有情況。例如电禀,Google圖片等系統(tǒng)非常善于識別動物幢码,只要有訓練數(shù)據(jù)向他們展示每種動物的樣子。Marcus稱這種任務為“插值”尖飞,即掃描所有被標記為“豹貓”的圖像后症副,確定新圖片是否屬于同一組。
工程師可以根據(jù)數(shù)據(jù)的來源和結(jié)構(gòu)獲得創(chuàng)意政基,但是已有算法的范圍有嚴格的限制贞铣。除非已經(jīng)看過幾千張豹貓的圖片,否則即便是同一個算法也無法識別豹貓——即使這個算法已經(jīng)看過了家貓和美洲豹的圖片腋么,且知道豹貓是介于兩者之間的東西咕娄。這個稱之為“通用化”的過程需要一套不同的技術。
長期以來贺跟,研究人員以為他們已經(jīng)通過正確的算法提高了通用化技術柏咳,但是最近的研究表明,傳統(tǒng)的深度學習在實現(xiàn)通用化方面比我們想象的更糟简骗。一項研究發(fā)現(xiàn)柄倒,傳統(tǒng)的深度學習系統(tǒng)甚至難以在一個視頻的不同幀上實現(xiàn)通用化,隨著背景輕微的變化愕泣,深度學習會將同一只北極熊錯認為狒狒靡抓、貓鼬或黃鼠狼。由于每個分類都匯總了數(shù)百個因素缓膀,因此即使是圖片微小的變化也可以徹底影響系統(tǒng)的判斷簿混,這種現(xiàn)象被其他研究人員當作對抗數(shù)據(jù)集使用。
無人駕駛汽車深陷困境
Marcus指出聊天機器人熱潮就是最近炒作通用化問題的一個例子详依。
“我們承諾于2015年推出聊天機器人烁枣,”他說毡飒,“但是它們沒有什么幫助性,因為它不過是收集數(shù)據(jù)隶鹰。”當你在網(wǎng)上與人交談時痪寻,你不想重新討論早期的對話。你希望他們回應你所說的話虽惭,利用更加廣泛的會話技巧來做獨特的回應橡类。深度學習無法建立那種聊天機器人。最初的炒作過后芽唇,各個公司就會對聊天機器人項目失去信心顾画,很少有人仍在積極地開發(fā)。
這給特斯拉和其他自動駕駛公司帶來一個可怕的問題:自動駕駛汽車會像圖片搜索披摄、語音識別和其他人工智能的成功一樣不斷提高嗎亲雪?它們會像聊天機器人一樣在通用化的問題上卡殼嗎?自動駕駛技術是插值問題還是通用化問題疚膊?駕駛真的很難預測嗎义辕?
現(xiàn)在可能還為時過早。Marcus說:“無人駕駛汽車就像一個我們不知道答案的科學實驗寓盗。”我們從未實現(xiàn)過這個級別的自動駕駛灌砖,所以我們不知道它是什么類型的任務。在某種程度上傀蚌,它需要識別熟悉的對象晌叽,遵守規(guī)則,現(xiàn)有的技術應該可以勝任互聪。但是Marcus擔心囊砰,事故多發(fā)情況下的駕駛可能比業(yè)界承認的還要復雜。“新情況的出現(xiàn)突棉,對深度學習來說并不是一件好事为惧。”
我們的實驗數(shù)據(jù)來自公共事故報告,每個報告都提供了一些不尋常的難題绒怯。2016年特斯拉的那場車禍中搬即,Model S汽車由于受到拖車的高度和太陽光反射的影響,全速撞上了一輛白色半掛車的尾部笑院,今年3月贿桃,Uber的一輛自動駕駛汽車車禍撞死了一名推著自行車橫穿馬路(違反交通規(guī)則)的女士。根據(jù)美國國家運輸安全委員會的報告类玉,Uber的軟件在做其預測時裹视,首先將這位女士誤認為不明物體,繼而錯認為一輛自行車,最后確認為一輛自行車缠黍。特斯拉在加利福尼亞州的一次車禍中舆床,Model X在撞擊發(fā)生之前突然轉(zhuǎn)向障礙物并提速,原因至今不清楚嫁佳。
每次事故看似都是一個極端的例子谷暮,工程師無法對這類的事情提前作出預測。但是幾乎每次車禍都涉及某種無法預測的情況湿弦,如果沒有通用化的能力,那么自動駕駛車輛不得不在每次遇到這些情形的時候蔬充,當作第一次來處理班利。結(jié)果將是一連串的意外事故饥漫,且隨著時間的發(fā)展,這些事故次數(shù)不會減少罗标,危險系數(shù)也不會降低拍斜。對于持懷疑態(tài)度的人來說,《無手動操作報告》的轉(zhuǎn)變表明這種情況還將繼續(xù)过拿,且將維持一定的穩(wěn)定水平惹炕。
Drive.AI創(chuàng)始人Andrew Ng是前百度的高管,也是該行業(yè)最著名的推動者之一祸铁,他認為問題不在于建立完美的駕駛系統(tǒng)睦氧,而在于培訓旁觀者預測自動駕駛車輛的行為。換句話說秦谁,我們可以為汽車提供安全的道路世砰。作為一個不可預測案例的例子,我問他是否認為現(xiàn)代系統(tǒng)可以處理行人玩彈跳桿的行人守迫,即使它們以前從未見過艘赂。Ng跟我說:“我認為很多自動駕駛車輛團隊可以處理在人行橫道上玩彈跳桿的行人。話雖如此公悟,在高速公路上玩彈跳桿是非常危險的听誓。”
他說:“我們應該和政府合作,要求合法并得到人們的體諒列林,而不是通過人工智能來解決彈跳桿的問題瑞你。安全駕駛不僅僅與人工智能技術的質(zhì)量有關。”
人們應降低對自動駕駛汽車的期望
深度學習不是唯一的人工智能技術者甲,許多公司已經(jīng)在探索代替方案春感。雖然這些技術在業(yè)界受到嚴密保護(單從最近Waymo起訴Uber就能看出來),但是許多公司已經(jīng)轉(zhuǎn)向基于規(guī)則的人工智能虏缸,這是一種較老的技術鲫懒,可以讓工程師將特定的行為或邏輯寫死到其他自導系統(tǒng)中。它沒有通過研究數(shù)據(jù)來編寫自我行為的能力(而深度學習恰恰是因為這種能力引起了關注)刽辙,但是它可以讓這些公司避免一些深度學習的局限性窥岩。由于深度學習對基本感知任務的影響仍然非常深刻,因此很難說工程師如何才能成功地檢測出潛在的錯誤宰缤。
身為Lyft董事會的風險資本家Ann Miura-Ko表示颂翼,她認為問題的一部分是對自動駕駛汽車本身的高度期望,所以大家將無法全自動視為一種失敗慨灭。 Miura-Ko說:“希望它們從零級一躍到五級不等于技術的失敗朦乏,更像是不應有的期望。我認為所有這些微小的進步都對邁向全自動駕駛有著非凡的意義慢夸。”
不過罗炸,我們還不清楚自動駕駛汽車還要在目前的困境里持續(xù)多久。像特斯拉的自動駕駛汽車等半自動的產(chǎn)品也足夠智能训癌,可以處理大多數(shù)的情況祠乔,但是如果發(fā)生不可預測的情況,仍然需要人為干預娶匠。
當出現(xiàn)問題時橱序,很難判斷是汽車還是司機的問題。對于一些評論家來說炭答,即使出錯不能完全歸咎于機器疫橘,這種混合駕駛也不如人類駕駛員安全。根據(jù)蘭德公司一項研究估計匾颁,自動駕駛車輛必須在不出現(xiàn)任何死亡事件的情況下癌玩,行駛夠2.75億英里才能證明它們和人類駕駛員一樣安全。特斯拉的自動駕駛汽車出現(xiàn)第一次死亡事件時的行駛里程數(shù)大約為1.3億英里帮观,遠遠低于標準污益。
但是,利用深度學習控制車輛如何覺察物體并決定應對先口,提高事故發(fā)生率比看起來更難型奥。杜克大學教授Mary Cummings表示:“這不是一個簡單的孤立問題,”他指今年早些時候Uber車禍導致一名行人遇難碉京。“這起行人死亡事件中的感知決策周期是相互關聯(lián)的厢汹。由于感知的模糊導致了錯誤決定(不做處理)螟深,而且因為它從感知器上得到了太多的錯誤警報,所以導致沒有剎車烫葬。”
起車禍導致Uber暫停了夏季的自動駕駛車工作界弧,對其他公司計劃的推出是一個不祥之兆。在整個業(yè)界內(nèi)搭综,各大公司正在競相爭取更多數(shù)據(jù)來解決問題垢箕,并假設擁有最高里程數(shù)的公司將建立最強大的系統(tǒng)。但是這些公司看到的是數(shù)據(jù)問題兑巾,而對于Marcus來說這是更難解決的問題舰讹。
Marcus說:“他們只是在使用他們希望能夠成功的技術。他們依靠大數(shù)據(jù)闪朱,這是他們賴以生存的根本,但是沒有任何證據(jù)可以達到我們所需要的精確度引妖。”
如果你相信各大公司的CEO鞋倔,那么感覺可能再過幾個月全自動駕駛汽車就要實現(xiàn)了老玲。2015年,埃隆·馬斯克預測特斯拉將于2018年推出全自動駕駛汽車除呵,Google也是如此再菊。Delphi和MobileEye計劃將于2019年推出四級系統(tǒng),Nutonomy計劃于同年在新加坡街頭部署數(shù)千輛無人駕駛出租車颜曾。通用汽車將于2019年開始生產(chǎn)全自動駕駛汽車纠拔,這種車輛沒有方向盤,也無法讓司機介入——這些預測背后關系到的是資金的投入泛豪,這些公司紛紛下注賭軟件的發(fā)展能夠?qū)崿F(xiàn)這些大肆的宣傳稠诲。
從表面上看,似乎全自動駕駛汽車近在眼前诡曙。Waymo已經(jīng)開始在亞利桑那州特定的公共道路上測試汽車臀叙。特斯拉和其他效仿者也紛紛開始出售功能上有限制的自動駕駛汽車,但如果有意外情況發(fā)生价卤,這類汽車依然需要依靠司機進行干預劝萤。最近幾起事故,有些是致命的慎璧,但是只要系統(tǒng)不斷改進床嫌,從邏輯上說,我們距離沒有人為干預的自動駕駛車輛不會太遠了要捐。
但是全自動駕駛汽車的夢想可能比我們想象中還要更加遙遠风加。人工智能專家越來越擔心,距離自動駕駛系統(tǒng)可以確保避免事故抽述,可能需要數(shù)年甚至數(shù)十年责什。雖然自我訓練系統(tǒng)可以應對現(xiàn)實世界的混亂,但是紐約大學的Gary Marcus等專家則認為重新審視這一問題不可避免袄碱,有人稱之為“人工智能的寒冬”。這種延遲可能會造成整整一代人都無法實現(xiàn)全自動駕駛汽車侨识,這會給那些依靠自動駕駛技術的公司帶來災難性的后果描宁。
深度學習的通用化應用還不成熟
很容易理解為什么汽車公司對自動駕駛持樂觀態(tài)度厅驼。
在過去的十年中,深度學習(一種使用分層機器學習算法坊偿,從海量數(shù)據(jù)集中提取結(jié)構(gòu)化信息的方法)已經(jīng)在人工智能和技術行業(yè)取得了驚人的進展:它加強了Google搜索华孙、Facebook的News Feed、將會話語音轉(zhuǎn)成文本的算法申建、還支持Go-playing系統(tǒng)海槐。在互聯(lián)網(wǎng)之外,我們用機器學習檢測地震挖息、預測心臟病金拒,并通過攝像頭檢測行為,還有很多不計其數(shù)的創(chuàng)新套腹。
但是深度學習需要大量的訓練數(shù)據(jù)才能正常工作绪抛,幾乎需要涵蓋算法可能遭遇的所有情況。例如电禀,Google圖片等系統(tǒng)非常善于識別動物幢码,只要有訓練數(shù)據(jù)向他們展示每種動物的樣子。Marcus稱這種任務為“插值”尖飞,即掃描所有被標記為“豹貓”的圖像后症副,確定新圖片是否屬于同一組。
工程師可以根據(jù)數(shù)據(jù)的來源和結(jié)構(gòu)獲得創(chuàng)意政基,但是已有算法的范圍有嚴格的限制贞铣。除非已經(jīng)看過幾千張豹貓的圖片,否則即便是同一個算法也無法識別豹貓——即使這個算法已經(jīng)看過了家貓和美洲豹的圖片腋么,且知道豹貓是介于兩者之間的東西咕娄。這個稱之為“通用化”的過程需要一套不同的技術。
長期以來贺跟,研究人員以為他們已經(jīng)通過正確的算法提高了通用化技術柏咳,但是最近的研究表明,傳統(tǒng)的深度學習在實現(xiàn)通用化方面比我們想象的更糟简骗。一項研究發(fā)現(xiàn)柄倒,傳統(tǒng)的深度學習系統(tǒng)甚至難以在一個視頻的不同幀上實現(xiàn)通用化,隨著背景輕微的變化愕泣,深度學習會將同一只北極熊錯認為狒狒靡抓、貓鼬或黃鼠狼。由于每個分類都匯總了數(shù)百個因素缓膀,因此即使是圖片微小的變化也可以徹底影響系統(tǒng)的判斷簿混,這種現(xiàn)象被其他研究人員當作對抗數(shù)據(jù)集使用。
無人駕駛汽車深陷困境
Marcus指出聊天機器人熱潮就是最近炒作通用化問題的一個例子详依。
“我們承諾于2015年推出聊天機器人烁枣,”他說毡飒,“但是它們沒有什么幫助性,因為它不過是收集數(shù)據(jù)隶鹰。”當你在網(wǎng)上與人交談時痪寻,你不想重新討論早期的對話。你希望他們回應你所說的話虽惭,利用更加廣泛的會話技巧來做獨特的回應橡类。深度學習無法建立那種聊天機器人。最初的炒作過后芽唇,各個公司就會對聊天機器人項目失去信心顾画,很少有人仍在積極地開發(fā)。
這給特斯拉和其他自動駕駛公司帶來一個可怕的問題:自動駕駛汽車會像圖片搜索披摄、語音識別和其他人工智能的成功一樣不斷提高嗎亲雪?它們會像聊天機器人一樣在通用化的問題上卡殼嗎?自動駕駛技術是插值問題還是通用化問題疚膊?駕駛真的很難預測嗎义辕?
現(xiàn)在可能還為時過早。Marcus說:“無人駕駛汽車就像一個我們不知道答案的科學實驗寓盗。”我們從未實現(xiàn)過這個級別的自動駕駛灌砖,所以我們不知道它是什么類型的任務。在某種程度上傀蚌,它需要識別熟悉的對象晌叽,遵守規(guī)則,現(xiàn)有的技術應該可以勝任互聪。但是Marcus擔心囊砰,事故多發(fā)情況下的駕駛可能比業(yè)界承認的還要復雜。“新情況的出現(xiàn)突棉,對深度學習來說并不是一件好事为惧。”
我們的實驗數(shù)據(jù)來自公共事故報告,每個報告都提供了一些不尋常的難題绒怯。2016年特斯拉的那場車禍中搬即,Model S汽車由于受到拖車的高度和太陽光反射的影響,全速撞上了一輛白色半掛車的尾部笑院,今年3月贿桃,Uber的一輛自動駕駛汽車車禍撞死了一名推著自行車橫穿馬路(違反交通規(guī)則)的女士。根據(jù)美國國家運輸安全委員會的報告类玉,Uber的軟件在做其預測時裹视,首先將這位女士誤認為不明物體,繼而錯認為一輛自行車,最后確認為一輛自行車缠黍。特斯拉在加利福尼亞州的一次車禍中舆床,Model X在撞擊發(fā)生之前突然轉(zhuǎn)向障礙物并提速,原因至今不清楚嫁佳。
每次事故看似都是一個極端的例子谷暮,工程師無法對這類的事情提前作出預測。但是幾乎每次車禍都涉及某種無法預測的情況湿弦,如果沒有通用化的能力,那么自動駕駛車輛不得不在每次遇到這些情形的時候蔬充,當作第一次來處理班利。結(jié)果將是一連串的意外事故饥漫,且隨著時間的發(fā)展,這些事故次數(shù)不會減少罗标,危險系數(shù)也不會降低拍斜。對于持懷疑態(tài)度的人來說,《無手動操作報告》的轉(zhuǎn)變表明這種情況還將繼續(xù)过拿,且將維持一定的穩(wěn)定水平惹炕。
Drive.AI創(chuàng)始人Andrew Ng是前百度的高管,也是該行業(yè)最著名的推動者之一祸铁,他認為問題不在于建立完美的駕駛系統(tǒng)睦氧,而在于培訓旁觀者預測自動駕駛車輛的行為。換句話說秦谁,我們可以為汽車提供安全的道路世砰。作為一個不可預測案例的例子,我問他是否認為現(xiàn)代系統(tǒng)可以處理行人玩彈跳桿的行人守迫,即使它們以前從未見過艘赂。Ng跟我說:“我認為很多自動駕駛車輛團隊可以處理在人行橫道上玩彈跳桿的行人。話雖如此公悟,在高速公路上玩彈跳桿是非常危險的听誓。”
他說:“我們應該和政府合作,要求合法并得到人們的體諒列林,而不是通過人工智能來解決彈跳桿的問題瑞你。安全駕駛不僅僅與人工智能技術的質(zhì)量有關。”
人們應降低對自動駕駛汽車的期望
深度學習不是唯一的人工智能技術者甲,許多公司已經(jīng)在探索代替方案春感。雖然這些技術在業(yè)界受到嚴密保護(單從最近Waymo起訴Uber就能看出來),但是許多公司已經(jīng)轉(zhuǎn)向基于規(guī)則的人工智能虏缸,這是一種較老的技術鲫懒,可以讓工程師將特定的行為或邏輯寫死到其他自導系統(tǒng)中。它沒有通過研究數(shù)據(jù)來編寫自我行為的能力(而深度學習恰恰是因為這種能力引起了關注)刽辙,但是它可以讓這些公司避免一些深度學習的局限性窥岩。由于深度學習對基本感知任務的影響仍然非常深刻,因此很難說工程師如何才能成功地檢測出潛在的錯誤宰缤。
身為Lyft董事會的風險資本家Ann Miura-Ko表示颂翼,她認為問題的一部分是對自動駕駛汽車本身的高度期望,所以大家將無法全自動視為一種失敗慨灭。 Miura-Ko說:“希望它們從零級一躍到五級不等于技術的失敗朦乏,更像是不應有的期望。我認為所有這些微小的進步都對邁向全自動駕駛有著非凡的意義慢夸。”
不過罗炸,我們還不清楚自動駕駛汽車還要在目前的困境里持續(xù)多久。像特斯拉的自動駕駛汽車等半自動的產(chǎn)品也足夠智能训癌,可以處理大多數(shù)的情況祠乔,但是如果發(fā)生不可預測的情況,仍然需要人為干預娶匠。
當出現(xiàn)問題時橱序,很難判斷是汽車還是司機的問題。對于一些評論家來說炭答,即使出錯不能完全歸咎于機器疫橘,這種混合駕駛也不如人類駕駛員安全。根據(jù)蘭德公司一項研究估計匾颁,自動駕駛車輛必須在不出現(xiàn)任何死亡事件的情況下癌玩,行駛夠2.75億英里才能證明它們和人類駕駛員一樣安全。特斯拉的自動駕駛汽車出現(xiàn)第一次死亡事件時的行駛里程數(shù)大約為1.3億英里帮观,遠遠低于標準污益。
但是,利用深度學習控制車輛如何覺察物體并決定應對先口,提高事故發(fā)生率比看起來更難型奥。杜克大學教授Mary Cummings表示:“這不是一個簡單的孤立問題,”他指今年早些時候Uber車禍導致一名行人遇難碉京。“這起行人死亡事件中的感知決策周期是相互關聯(lián)的厢汹。由于感知的模糊導致了錯誤決定(不做處理)螟深,而且因為它從感知器上得到了太多的錯誤警報,所以導致沒有剎車烫葬。”
起車禍導致Uber暫停了夏季的自動駕駛車工作界弧,對其他公司計劃的推出是一個不祥之兆。在整個業(yè)界內(nèi)搭综,各大公司正在競相爭取更多數(shù)據(jù)來解決問題垢箕,并假設擁有最高里程數(shù)的公司將建立最強大的系統(tǒng)。但是這些公司看到的是數(shù)據(jù)問題兑巾,而對于Marcus來說這是更難解決的問題舰讹。
Marcus說:“他們只是在使用他們希望能夠成功的技術。他們依靠大數(shù)據(jù)闪朱,這是他們賴以生存的根本,但是沒有任何證據(jù)可以達到我們所需要的精確度引妖。”