女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

自動駕駛的新技術:根據視頻生成深度圖

ml8z_IV_Technol ? 來源:ZF ? 2019-04-29 15:32 ? 次閱讀

目前自動駕駛的核心技術是LiDAR(激光雷達),一種運用雷達原理,采用光和激光作為主要傳感器的汽車視覺系統。LiDAR傳感器賦予了自動駕駛汽車能夠看到周邊環境的“雙眼”,激光雷達技術越先進,視覺感知的精準程度越高,這是自動駕駛得以實現的底層技術基礎。但是最近幾年,放在攝像頭上的深度學習研究,發展很蓬勃。相比之下, 雖然激光雷達 (LiDAR)的數據有諸多優點,但相關學術進展并不太多。相機+數據+神經網絡的組合,正在迅速縮小與LiDAR的能力差距。

本文來源圖靈TOPIA 作者:Ariel Gordon等 編譯:劉靜

無需相機參數、單目、以無監督學習的方式從未標記場景視頻中搞定深度圖!

這是谷歌AI機器人實驗室聯合發布的最新研究結果,效果可媲美LiDAR。

什么是深度圖?

深度圖像(depth image)也被稱為距離影像(range image),由相機拍攝,是指將從圖像采集器到場景中各點的距離(深度)作為像素值的圖像,它直接反映了景物可見表面的幾何形狀。單位為mm,效果參考下圖:

在場景視頻景深學習領域,谷歌AI和機器人實驗室聯合公布了三項最新研究突破:

第一,證明了可以以一種無監督的方式訓練深度網絡,這個深度網絡可以從視頻本身預測相機的內在參數,包括鏡頭失真(見圖1)。

第二,在這種情況下,他們是第一個以幾何方式從預測深度直接解決遮擋的問題。

第三,大大減少了處理場景中移動元素所需的語義理解量:只需要一個覆蓋可能屬于移動對象的像素的單個掩碼,而不是分割移動對象的每個實例并跨幀跟蹤它。

圖1:從未知來源的視頻中學習深度的方法的定性結果,通過同時學習相機的外在和內在參數來實現。 由于該方法不需要知道相機參數,因此它可以應用于任何視頻集。 所有深度圖(在右側可視化,作為差異)都是從原始視頻中學習而不使用任何相機內在函數。 從上到下:來自YouTube8M的幀,來自EuRoC MAV數據集,來自Cityscapes和來自KITTI的幀。

推特網友對此不吝贊美:“這是我見過的最令人印象深刻的無監督結果之一。來自未標記視頻的深度圖對于自動駕駛非常有用:)“

以下是論文具體內容:

從視頻中估計3D結構和相機運動是計算機視覺中的一個關鍵問題,這個技術在自動駕駛領域有著廣闊的工業應用前景。

解決該問題的傳統方法依賴于在多個連續幀中識別場景中的相同點,并求解在這些幀上最大程度一致的3D結構和相機運動。

但是,幀之間的這種對應關系只能針對所有像素的子集建立,這導致了深度估計不確定的問題。與通常處理逆問題一樣,這些缺口是由連續性和平面性等假設填充的。

深度學習能夠從數據中獲得這些假設,而不是手工指定這些假設。在信息不足以解決模糊性的地方,深度網絡可以通過對先前示例進行歸納,以生成深度圖和流場。

無監督方法允許單獨從原始視頻中學習,使用與傳統方法類似的一致性損失,但在訓練期間對其進行優化。在推論中,經過訓練的網絡能夠預測來自單個圖像的深度以及來自成對或更長圖像序列的運動。

隨著對這個方向的研究越來越有吸引力,很明顯,物體運動是一個主要障礙,因為它違反了場景是靜態的假設。已經提出了幾個方向來解決該問題,包括通過實例分割利用對場景的語義理解。

遮擋是另一個限制因素,最后,在此方向的所有先前工作中,必須給出相機的內在參數。這項工作解決了這些問題,因此減少了監督,提高了未標記視頻的深度和運動預測質量。

首先,我們證明了可以以一種無監督的方式訓練深度網絡,這個深度網絡從視頻本身預測相機的內在參數,包括鏡頭失真(見圖1)。

其次,在這種情況下,我們是第一個以幾何方式從預測深度直接解決遮擋的問題。

最后,我們大大減少了處理場景中移動元素所需的語義理解量:我們需要一個覆蓋可能屬于移動對象的像素的單個掩碼,而不是分割移動對象的每個實例并跨幀跟蹤它。

這個掩模可能非常粗糙,實際上可以是矩形邊界框的組合。獲得這樣的粗糙掩模是一個簡單得多的問題,而且與實例分割相比,使用現有的模型可以更可靠地解決這個問題。

除了這些定性進展之外,我們還對我們的方法進行了廣泛的定量評估,并發現它在多個廣泛使用的基準數據集上建立了新的技術水平。將數據集匯集在一起,這種能力通過我們的方法得到了極大的提升,證明可以提高質量。

自動駕駛的新技術:根據視頻生成深度圖

表1:總結了在KITTI上訓練的模型和評估結果,使用給定相機內建和學習相機內建兩種方式來評估我們方法的深度估計,結果顯而易見,我們獲得了當前最佳SOTA。

自動駕駛的新技術:根據視頻生成深度圖

表2:總結了在Cityscapes上訓練和測試的模型的評估結果,我們的方法優于以前的方法,并從學習的內建中獲益。

自動駕駛的新技術:根據視頻生成深度圖

表3:深度估計的消融實驗。 在所有實驗中,訓練集是Cityscapes(CS)和KITTI組合,我們分別在Cityscapes(CS)和KITTI(Eigen partition)上測試模型。 每行代表一個實驗,其中與主方法相比進行了一次更改,如“實驗”行中所述。 數字越小越好。

除了這些定性的進步,我們對我們的方法進行了廣泛的定量評估,發現它在多個廣泛使用的基準數據集上建立了一個新的技術狀態。將數據集集中在一起,這種方法大大提高了數據集的質量。

最后,我們首次演示了可以在YouTube視頻上學習深度和相機內在預測,這些視頻是使用多個不同的相機拍攝的,每個相機的內建都是未知的,而且通常是不同的。

來自YouTube8M收集的圖像和學習的視差圖。

論文摘要

《場景視頻景深學習——非特定相機單眼圖片景深無監督學習》

我們提出了一種新穎的方法,僅使用相鄰視頻幀的一致性作為監督信號,用于同時學習單眼視頻的深度,運動,物體運動和相機內建。與先前的工作類似,我們的方法通過將可微變形應用于幀,并將結果與相鄰結果進行比較來學習,但它提供了若干改進:我們直接使用在訓練期間預測的深度圖,以幾何和可微的方式處理遮擋。我們介紹了隨機層標準化,一種新穎的強大正則化器,并考慮了目標相對于場景的運動。據我們所知,我們的工作是第一個以無監督的方式從視頻中學習相機固有參數(包括鏡頭失真)的工作,從而使我們能夠從規模未知原點的任意視頻中提取準確的深度圖和運動信息。

我們在Cityscapes,KITTI和EuRoC數據集上評估我們的結果,建立深度預測和測距的新技術水平,并定性地證明,深度預測可以從YouTube上的一系列視頻中學到。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 自動駕駛
    +關注

    關注

    788

    文章

    14252

    瀏覽量

    170039
收藏 人收藏

    評論

    相關推薦
    熱點推薦

    新能源車軟件單元測試深度解析:自動駕駛系統視角

    的潛在風險增加,尤其是在自動駕駛等安全關鍵系統中。根據ISO 26262標準,自動駕駛系統的安全完整性等級(ASIL-D)要求單點故障率必須低于10^-8/小時,這意味著每小時的故障概率需控制在億
    發表于 05-12 15:59

    阿里云通義萬相2.1視頻生成模型震撼發布

    近日,阿里云旗下的通義萬相迎來了重要升級,正式推出了全新的萬相2.1視頻生成模型。這一創新成果標志著阿里云在視頻生成技術領域的又一次重大突破。 據悉,萬相2.1視頻生成模型在多個方面實
    的頭像 發表于 01-13 10:00 ?796次閱讀

    OpenAI推出AI視頻生成模型Sora

    近日,備受期待的OpenAI再次推出了其創新之作——AI視頻生成模型Sora。這一新品的發布,無疑為AI技術注入了新的活力。 據悉,Sora與OpenAI旗下的AI工具DALL-E有著異曲同工之妙
    的頭像 發表于 12-12 09:40 ?670次閱讀

    OpenAI開放Sora視頻生成模型

    升級,準備迎接廣大用戶的深入探索與廣泛應用。 據官方公告介紹,Sora Turbo作為Sora的升級版本,具備強大的視頻生成能力。它能夠根據用戶的文本提示,快速創建出最長達20秒的高清視頻片段。更令人驚喜的是,Sora Turb
    的頭像 發表于 12-10 11:16 ?704次閱讀

    一文聊聊自動駕駛測試技術的挑戰與創新

    ,包括場景生成的多樣性與準確性、多傳感器數據融合的精度驗證、高效的時間同步機制,以及仿真平臺與實際場景的匹配等問題。 自動駕駛測試的必要性與現狀 1.1 自動駕駛技術的復雜性推動測試變
    的頭像 發表于 12-03 15:56 ?658次閱讀
    一文聊聊<b class='flag-5'>自動駕駛</b>測試<b class='flag-5'>技術</b>的挑戰與創新

    自動駕駛技術的典型應用 自動駕駛技術涉及到哪些技術

    自動駕駛技術的典型應用 自動駕駛技術是一種依賴計算機、無人駕駛設備以及各種傳感器,實現汽車自主行駛的技術
    的頭像 發表于 10-18 17:31 ?1784次閱讀

    今日看點丨Vishay裁員800人,關閉上海等三家工廠;字節跳動發布兩款視頻生成大模型

    企業市場開啟邀測。 ? 火山引擎介紹,豆包視頻生成模型基于DiT架構,通過高效的DiT融合計算單元,能更充分地壓縮編碼視頻與文本,讓視頻在大動態與運鏡中自由切換,擁有變焦、環繞、平搖、縮放、目標跟隨等多鏡頭語言能力。此外,豆包
    發表于 09-25 15:48 ?932次閱讀

    火山引擎推出豆包·視頻生成模型

    在近期舉辦的2024火山引擎AI創新巡展上,火山引擎總裁譚待隆重推出了豆包·視頻生成模型,這一舉措標志著火山引擎在視頻內容生成領域邁出了重要一步。豆包模型憑借其獨特的技術優勢,吸引了業
    的頭像 發表于 09-25 14:11 ?606次閱讀

    FPGA在自動駕駛領域有哪些優勢?

    可以根據自動駕駛系統的具體需求,通過編程來配置FPGA的邏輯功能和連接關系,以適應不同的應用場景和算法變化。這種靈活性使得FPGA能夠快速適應自動駕駛技術的快速發展和變化。 低延遲:
    發表于 07-29 17:11

    FPGA在自動駕駛領域有哪些應用?

    控制。在視覺算法方面,FPGA利用自身并行處理和高速存儲器的特點,極大地加快了算法的執行速度,提高了運算效率。 五、未來發展趨勢隨著自動駕駛技術的不斷發展,FPGA在自動駕駛領域的應用將會更加廣泛
    發表于 07-29 17:09

    自動駕駛識別技術有哪些

    自動駕駛的識別技術自動駕駛系統中的重要組成部分,它使車輛能夠感知并理解周圍環境,從而做出智能決策。自動駕駛識別技術主要包括多種傳感器及其融
    的頭像 發表于 07-23 16:16 ?1413次閱讀

    MediaTek與快手攜手創新,端側視頻生成技術引領AI新紀元

    在科技日新月異的今天,MediaTek與快手再次攜手,于近日宣布了一項重大技術突破——高效端側視頻生成技術的誕生。這項技術不僅是對即將于2024年世界移動通信大會(MWC 2024)上
    的頭像 發表于 07-05 11:52 ?1684次閱讀

    MediaTek聯合快手推出高效端側視頻生成技術

    MediaTek 與快手共同宣布,推出高效端側視頻生成技術,共同探索并推進生成式 AI 技術的革新。作為對 2024 世界移動通信大會(MWC 2024)上亮相的
    的頭像 發表于 07-05 11:23 ?1w次閱讀

    商湯發布首個“可控”人物視頻生成大模型Vimi

    近日,商湯科技在人工智能領域再次取得重大突破,正式發布了其首個面向消費者的“可控”人物視頻生成大模型——Vimi。這一創新技術的問世,標志著視頻內容創作進入了一個全新的互動與個性化時代。
    的頭像 發表于 07-04 15:29 ?1003次閱讀

    深度學習在自動駕駛中的關鍵技術

    隨著人工智能技術的飛速發展,自動駕駛技術作為其中的重要分支,正逐漸走向成熟。在自動駕駛系統中,深度學習
    的頭像 發表于 07-01 11:40 ?1249次閱讀