第三十一屆中國汽車工程學(xué)會年會暨展覽會(SAECCE 2024)于日前在中國重慶·科學(xué)會堂隆重召開。
SAECCE 2024以“智能涌現(xiàn),邁進加速變革新階段”為主題,將聚焦汽車產(chǎn)業(yè)創(chuàng)新重大需求,瞄準(zhǔn)未來的前沿性、顛覆性技術(shù)發(fā)展,重點突出汽車科技前沿、關(guān)鍵技術(shù)創(chuàng)新、工程技術(shù)研發(fā)與應(yīng)用實踐以及產(chǎn)業(yè)合作等,著力推動汽車科技進步、跨領(lǐng)域技術(shù)融合創(chuàng)新及產(chǎn)業(yè)合作,加速汽車人才發(fā)展,引領(lǐng)汽車產(chǎn)業(yè)高質(zhì)量發(fā)展。
作為國內(nèi)汽車產(chǎn)業(yè)技術(shù)體系最全、規(guī)模最大、層次最豐富的綜合性學(xué)術(shù)交流年會。從官方獲悉,本屆年會征集了來自全國重點高校、科研機構(gòu)、主機廠、高新企業(yè)等近1500篇有效論文投稿,經(jīng)過組委會近半年的嚴(yán)格選拔,由軒轅智駕撰稿的《基于區(qū)域注意力的紅外與可見光圖像融合》論文被成功錄用,并作為優(yōu)秀論文在本次年會現(xiàn)場進行展示,本次入選充分體現(xiàn)了軒轅智駕在紅外感知領(lǐng)域的技術(shù)能力和學(xué)術(shù)成果。
軒轅智駕科研論文《基于區(qū)域注意力的紅外與可見光圖像融合》,主題為通過區(qū)域注意力融合策略和多尺度卷積層(Multiscale convolutional layers),改善視覺感知融合效果。目的是為解決汽車單一傳感器的局限性。例如,可見光攝像頭在能見度較低(夜晚、雨霧天)和光線差(眩光)的情況下成像質(zhì)量不佳,但在理想光線條件下擅長捕捉目標(biāo)紋理信息。紅外熱成像能全天候、全氣候運作,靠熱輻射能捕捉人、車、動物等發(fā)熱源,卻無法提供豐富的紋理信息。在駕駛場景中,為了更好地進行后續(xù)的感知(檢測、分割、預(yù)警)任務(wù),需要更優(yōu)質(zhì)的圖像信息,利用兩種傳感器的成像圖像進行融合具有重要意義。而現(xiàn)有技術(shù)在融合兩種圖像時,存在融合效果不理想、算法穩(wěn)定性和魯棒性不足等問題,無法充分滿足駕駛場景對視覺感知的需求。
為應(yīng)對這一難題,軒轅智駕研發(fā)團隊在論文中提到了一個新的觀點:CSF算法依賴人為設(shè)計的融合策略,成為算法穩(wěn)定性和魯棒性的瓶頸。團隊通過設(shè)計一組針對分類器的對比實驗發(fā)現(xiàn),隨著迭代次數(shù)的增加,融合圖像的視覺效果更差,相關(guān)系數(shù)(CC)和互信息(MI)等指標(biāo)也變得更差,而分類器在 8000 次迭代之后就收斂了。
通過消融實驗,只在 CSF 的基礎(chǔ)上將原先的融合模塊替換成基于區(qū)域注意力的融合模塊,進一步將編碼器的卷積層替換成多尺度卷積層之后,融合效果得到進一步提升,所有指標(biāo)均有所提高。
實驗結(jié)果
1改善融合效果。多尺度卷積層能捕捉不同感受野的特征,更好地適應(yīng)圖像中不同區(qū)域的特征,提高編碼器的語義表征能力。最終使得融合結(jié)果在細(xì)節(jié)保留、對比度、銳度等方面都有明顯提升,可大幅改善現(xiàn)有融合算法中存在的融合圖像細(xì)節(jié)丟失、對比度和銳度不足等問題,更好地滿足了汽車駕駛場景對視覺感知的需求。
2提升融合算法魯棒性。基于區(qū)域注意力的融合策略能根據(jù)不同區(qū)域的特點合理分配權(quán)重,不再完全依賴分類器的結(jié)果,使得融合算法對分類器的敏感性降低,解決了 CSF 算法中因過度依賴分類器而導(dǎo)致的隨著迭代次數(shù)增加融合效果變差的問題,提高了算法的穩(wěn)定性和魯棒性。
軒轅研發(fā)團隊希望,通過區(qū)域注意力融合策略和多尺度卷積層的實驗方法,改善融合圖像的質(zhì)量,提升算法的魯棒性,滿足可見光和雙光圖像融合的高標(biāo)準(zhǔn)視覺感知需求,為用戶提供更安全的駕駛體驗!
-
汽車駕駛
+關(guān)注
關(guān)注
0文章
10瀏覽量
8651 -
軒轅智駕
+關(guān)注
關(guān)注
0文章
31瀏覽量
1266
原文標(biāo)題:喜訊|軒轅智駕學(xué)術(shù)成果再獲權(quán)威認(rèn)可!
文章出處:【微信號:xy-idrive,微信公眾號:軒轅智駕】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
評論