蓋世汽車訊 自動駕駛汽車必須可以快速、準確地識別遇到的物體,包括停在拐角處的送貨卡車、正在接近十字路口的騎行者等。為此,自動駕駛汽車可能會使用一個強大的計算機視覺模型來對高分辨率場景圖像中的每個像素進行分類,從而讓其不會忽略在低質量圖像中可能被遮擋的物體。但是,此種稱作語義分割(semantic segmentation)的任務非常復雜,當圖像分辨率高時,需要進行大量的計算。
據外媒報道,美國麻省理工學院(MIT)和麻省理工學院-IBM沃森人工智能實驗室(MIT-IBM Watson AI Lab)及來自其他地方的研究人員合作研發了一款更高效的計算機視覺模型,大大降低了上述任務的計算復雜性。該款模型可在車載計算機等硬件資源有限的設備上實時、準確地進行語義分割,使自動駕駛汽車能夠在瞬間做出決策。
EfficientViT模型(圖片來源:MIT)
現在最先進的語義分割模型都可直接學習圖像每對像素之間的交互情況,因此其計算會隨著圖像分辨率的增加而呈二次方增長。因此,雖然此類模型非常準確,但是處理速度太慢,無法在傳感器或手機等邊緣設備上實時處理高分辨率圖像。
MIT的研究人員為語義分割模型設計了一個新型構件,其能力與此類最先進模型相同,但是復雜性只達到線性計算,而且實現了硬件高效操作。
研究人員的成果是一個用于高分辨率計算機視覺的新型模型系列,在將其部署到移動設備上時,其運行速度比原來的模型快9倍。重要的是,與此類替代方案相比,該款新模型的準確性與之相同,甚至更高。
該技術不僅可以用于幫助自動駕駛汽車實時做出決策,還可以提高醫學圖像分割等其他高分辨率計算機視覺任務的效率。
來源:蓋世汽車
作者:Fairy
本文地址:http://m.155ck.com/news/jishu/210135
以上內容轉載自蓋世汽車,目的在于傳播更多信息,如有侵僅請聯系admin#d1ev.com(#替換成@)刪除,轉載內容并不代表第一電動網(m.155ck.com)立場。
文中圖片源自互聯網,如有侵權請聯系admin#d1ev.com(#替換成@)刪除。