女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

介紹一個(gè)重要的慣性框架數(shù)據(jù)集Berkeley DeepDrive Drone

3D視覺(jué)工坊 ? 來(lái)源:深藍(lán)AI ? 作者:口香糖 ? 2022-11-01 09:41 ? 次閱讀

1. 引言

研究自動(dòng)駕駛車輛在復(fù)雜路況下的行為決策具有重要意義,但目前大多數(shù)自動(dòng)駕駛數(shù)據(jù)集只關(guān)注結(jié)構(gòu)化場(chǎng)景,很少有人去研究非結(jié)構(gòu)化道路環(huán)境,更少人去研究復(fù)雜非結(jié)構(gòu)化場(chǎng)景中的車輛行為。 本文將介紹一個(gè)重要的慣性框架數(shù)據(jù)集Berkeley DeepDrive Drone (B3D),該數(shù)據(jù)集由相機(jī)采集,廣泛包含大量的復(fù)雜非結(jié)構(gòu)化場(chǎng)景,包括有交通事故的高速公路、無(wú)信號(hào)燈交叉路口等。 該

數(shù)據(jù)集有助于研究復(fù)雜路況下的自動(dòng)駕駛車輛行為,并啟發(fā)自動(dòng)駕駛汽車和倉(cāng)庫(kù)機(jī)器人的分散運(yùn)動(dòng)規(guī)劃算法的新設(shè)計(jì)。

2. 摘要

分散式多智能體規(guī)劃一直是機(jī)器人領(lǐng)域的一個(gè)重要研究方向。在該領(lǐng)域的一個(gè)有趣和有影響力的應(yīng)用是非結(jié)構(gòu)化道路環(huán)境中的分散車輛協(xié)調(diào)。 例如,在一個(gè)交叉路口,在沒(méi)有中央?yún)f(xié)調(diào)器的情況下,對(duì)相交路徑的多個(gè)車輛進(jìn)行拆分是有用的,但卻是困難的。

我們從常識(shí)中了解到,要讓車輛通過(guò)這種非結(jié)構(gòu)化的環(huán)境,駕駛員必須理解并遵守附近駕駛員所觀察到的隱含的社交禮儀。為了研究這種隱式駕駛協(xié)議,我們收集了伯克利Deep Drive Drone數(shù)據(jù)集。

該數(shù)據(jù)集包含1 )一組記錄非結(jié)構(gòu)化駕駛的航拍視頻,2 )一組用于訓(xùn)練車輛檢測(cè)模型的圖像和注釋,以及3 )一組用于說(shuō)明典型用法的開(kāi)發(fā)腳本。我們認(rèn)為,該數(shù)據(jù)集對(duì)于研究人類駕駛員所采用的分散多智能體規(guī)劃具有主要意義,對(duì)于遙感環(huán)境中的計(jì)算機(jī)視覺(jué)具有次要意義。

3. 數(shù)據(jù)集介紹

3.1 數(shù)據(jù)集格式

B3D數(shù)據(jù)集中記錄的場(chǎng)景可以分為以下六類:1)無(wú)信號(hào)燈控制的交叉路口,2) 無(wú)信號(hào)燈控制的環(huán)形交叉口,3)追尾事故,4)走走停停的車流,5)道路施工引起的車流合并,以及6)匝道引起的合并。 B3D數(shù)據(jù)集由20個(gè)后處理視頻、16002個(gè)帶注釋的圖像和一個(gè)開(kāi)發(fā)工具包組成,視頻、帶注釋的圖像和開(kāi)發(fā)工具包的大小分別為84.5 GB、1.55 GB和225 MB,總計(jì)約86.3 GB。在20個(gè)經(jīng)過(guò)處理的視頻中,有8個(gè)是在路口上錄制的,12個(gè)是在高速公路上錄制的,視頻格式為mp4,數(shù)據(jù)集的結(jié)構(gòu)如圖1所示。

95385936-5973-11ed-a3b6-dac502259ad0.png

圖1B3D數(shù)據(jù)集的文件結(jié)構(gòu)

如圖2所示是B3D數(shù)據(jù)集中所展示的追尾事故,分別發(fā)生在hwy00.mp4,以及hwy01.mp4中。在hwy00.mp4的00:45,可以觀察到框架左邊緣附近的第一次事故。在hwy01.mp4的13:10,在幀中間發(fā)現(xiàn)了另一個(gè)碰撞事故。

954c94f0-5973-11ed-a3b6-dac502259ad0.png

圖2 hwy00.mp4和hwy01.mp4的追尾碰撞。

第一次事故涉及至少兩輛車,而第二起事件涉及四輛車。 無(wú)信號(hào)控制的交叉路口可以在jnc00.mp4、jnc01.mp4、jnc02.mp4和jnc07.mp4的視頻中找到。如圖3a所示和數(shù)字3b所示,視頻jnc00.mp4和jnc01.mp4是三叉路口的兩種變體。如圖3c和3d所示數(shù)字,視頻jnc02.mp4和jnc07.mp4是四向交叉口的兩種變體。

jnc03.mp4、jnc04.mp4、jnc05.mp4和jnc06.mp4都有無(wú)信號(hào)環(huán)形交叉口。如圖3e所示,視頻jnc03.mp4和jnc04.mp4是兩個(gè)ve-way環(huán)島的記錄。如圖3f和3g所示,視頻jnc05.mp4和jnc06.mp4是四向環(huán)形交叉口的兩種變體。 hwy04.mp4和hwy05.mp4記錄了走走停停的車流。

第一個(gè)走走停停行為在hwy04.mp4時(shí)間02:30到05:07之間形成。第二次停停走走的浪潮出現(xiàn)在hwy04.mp4時(shí)間06:06到08:10之間。第三次停停走走的波動(dòng)出現(xiàn)在hwy04.mp4時(shí)間的10:26到12:25之間。第四次發(fā)生在hwy05.mp4時(shí)間00:00到01:33之間。最后一次出現(xiàn)在hwy05.mp4時(shí)間05:19到06:07之間。停停走走波的形成和消散過(guò)程如圖4所示。

hwy06.mp4、hwy07.mp4和hwy08.mp4都記錄了道路工程引發(fā)的車輛合并。如圖3j所示,該場(chǎng)景的拓?fù)涫且粋€(gè)四車道到兩車道的瓶頸。 hwy09.mp4、hwy10.mp4和hwy11.mp4記錄了匝道誘導(dǎo)合并。如圖3k所示,匝道的拓?fù)浣Y(jié)構(gòu)是一條三車道的入口匝道正在并入一條四車道的擁堵公路。在合并點(diǎn)之前和之后,車流保持堵塞。

9569aae0-5973-11ed-a3b6-dac502259ad0.png

圖3 B3D數(shù)據(jù)集中的典型道路拓?fù)洹?br />
(a)-(d)無(wú)信號(hào)燈交叉口,(e)-(g)無(wú)信號(hào)燈環(huán)形交叉口,(h)-(i)高速公路,以及(i)-(k)合流瓶頸。

95a10e36-5973-11ed-a3b6-dac502259ad0.png

圖4 走走停停車流的時(shí)間線。 綠色表示正常交通,紅色表示由強(qiáng)降雨引起的擁堵,淺紅色表示由走走停停引起的擁堵。

3.2 圖片標(biāo)注

為了定性分析視頻中觀察到的車輛行為,需要獲得場(chǎng)景中每輛相關(guān)車輛的精確軌跡。為了構(gòu)建車輛的軌跡,作者首先在每一幀中檢測(cè)其位置,然后使用跟蹤算法將跨幀的每個(gè)檢測(cè)位置關(guān)聯(lián)起來(lái)。 為此,作者建立了一個(gè)圖像數(shù)據(jù)集,可用于訓(xùn)練車輛檢測(cè)模型。該數(shù)據(jù)集由16002個(gè)帶注釋的圖像組成,其中80%被分割用于訓(xùn)練,10%用于驗(yàn)證,10%用于測(cè)試。

圖5顯示了一個(gè)示例注釋。 數(shù)據(jù)集中,總共有135303個(gè)邊界框被注釋為路口圖像,總共有129939個(gè)邊界框被創(chuàng)建為高速公路圖像。注意,所有車輛均被不加區(qū)分得定義為vehicle類。

95c19d2c-5973-11ed-a3b6-dac502259ad0.png

圖5 注釋圖像示例。彩色矩形是場(chǎng)景中車輛的軸向?qū)R邊界框。

3.3 開(kāi)發(fā)工具包

除了視頻和帶注釋的圖片,作者還提供了一個(gè)開(kāi)發(fā)工具包,其中包含三個(gè)示例腳本:train.py、test.py和mask.py。 其中,腳本train.py用于顯示注釋圖像數(shù)據(jù)如何用來(lái)訓(xùn)練用于車輛檢測(cè)的神經(jīng)網(wǎng)絡(luò)模型。在這個(gè)腳本中,作者使用對(duì)象檢測(cè)庫(kù)Detectron2來(lái)訓(xùn)練RetinaNet模型,用于檢測(cè)輸入圖像中車輛的位置。

腳本test.py將通過(guò)train.py腳本訓(xùn)練的訓(xùn)練模型應(yīng)用于輸入圖像,用于訓(xùn)練后的評(píng)估和推理。作者提供了預(yù)訓(xùn)練模型,可以直接用于推理,使用預(yù)訓(xùn)練模型的檢測(cè)結(jié)果的實(shí)例如圖6所示。

95d124d6-5973-11ed-a3b6-dac502259ad0.png

圖6 帶有檢測(cè)結(jié)果的示例圖像。

彩色矩形是軸向?qū)R的邊界框。黑色數(shù)字是估計(jì)邊界框的置信分?jǐn)?shù),其中1.0表示完全確定,0.0表示完全不確定。 最后,mask.py根據(jù)預(yù)先定義的多邊形遮罩來(lái)裁剪圖像。圖7顯示了腳本如何根據(jù)紅色遮罩裁剪掉環(huán)島圖像的不相關(guān)部分。該腳本旨在幫助用戶專注于場(chǎng)景中唯一相關(guān)的部分,其中的相關(guān)性由用戶通過(guò)CVAT工具確定。

要裁剪視頻,只需為視頻的一幀定義一個(gè)多邊形遮罩,然后對(duì)視頻的每一幀應(yīng)用遮罩。此外,作者還提供了Docker文件。

95ea5cc6-5973-11ed-a3b6-dac502259ad0.png

圖7 mask過(guò)程的演示。紅色多邊形面具由CVAT設(shè)計(jì)。蒙版之外的像素被認(rèn)為是不相關(guān)的,并被標(biāo)記為黑色。

4. 視頻采集和處理

4.1 數(shù)據(jù)采集時(shí)間

這20個(gè)航拍視頻是2019年12月11日至12月21日在中國(guó)由DJI Mavic 2 Pro四軸飛行器拍攝的。具體的日期、長(zhǎng)度和地點(diǎn)如表1所示。

表1視頻日期、長(zhǎng)度及定位

960130c2-5973-11ed-a3b6-dac502259ad0.png

在每次視頻拍攝期間,作者將四軸無(wú)人機(jī)直接懸停。然后使用內(nèi)置相機(jī)以4K和30 FPS記錄俯視視頻。實(shí)驗(yàn)設(shè)置的可視化如圖8所示。由于電池容量有限,每次拍攝被限制在15到20分鐘之間。

96173ade-5973-11ed-a3b6-dac502259ad0.png

圖8 實(shí)驗(yàn)裝置的圖解。四軸無(wú)人機(jī)懸停在感興趣的道路上,內(nèi)置攝像機(jī)記錄每個(gè)交通參與者進(jìn)出場(chǎng)景的俯視圖。

為了訓(xùn)練用于車輛檢測(cè)的神經(jīng)網(wǎng)絡(luò)模型,作者從20個(gè)視頻中每15秒提取一個(gè)幀,然后手動(dòng)標(biāo)記一個(gè)軸向?qū)R的邊界框,在選定的幀中的每個(gè)車輛。此外,作者裁剪了視頻幀中不相關(guān)的部分,如樹(shù)木、屋頂和停車場(chǎng),以此來(lái)減小圖像的大小。

4.2 應(yīng)用領(lǐng)域

B3D數(shù)據(jù)集主要有2個(gè)重要的應(yīng)用場(chǎng)景:運(yùn)動(dòng)規(guī)劃,以及計(jì)算機(jī)視覺(jué)。

在運(yùn)動(dòng)規(guī)劃任務(wù)中,B3D數(shù)據(jù)集典型的應(yīng)用過(guò)程如下: 1)運(yùn)行mask腳本以選擇視頻數(shù)據(jù)集的相關(guān)部分; 2)應(yīng)用檢測(cè)模型提取mask場(chǎng)景中每輛車的位置; 3)檢查檢測(cè)結(jié)果,并且手動(dòng)校正檢測(cè)錯(cuò)誤; 4)使用SORT等跟蹤算法,將檢測(cè)到的位置關(guān)聯(lián)到軌跡中; 5)基于估計(jì)的軌跡學(xué)習(xí)和驗(yàn)證人類駕駛模型。

以此估計(jì)得到的模型可以部署在自動(dòng)駕駛系統(tǒng)上,用于在特殊非結(jié)構(gòu)化場(chǎng)景中導(dǎo)航。此外,所得到的模型可以作為倉(cāng)庫(kù)機(jī)器人開(kāi)發(fā)分散協(xié)調(diào)算法的基線。 在計(jì)算機(jī)視覺(jué)中,B3D主要用于開(kāi)發(fā)或評(píng)估遙感環(huán)境中的小型道路目標(biāo)的CV算法。

從空中視頻中檢測(cè)行人或騎自行車的人對(duì)于最先進(jìn)的計(jì)算機(jī)視覺(jué)來(lái)說(shuō)仍然是一個(gè)挑戰(zhàn)。這很大程度上是由于這些小物體的低分辨率,因?yàn)榈头直媛适刮矬w在視覺(jué)上模糊不清。如圖9所示,檢測(cè)模型可能會(huì)將行人與水印混淆,或弄混行人和騎自行車的人。

為此,B3D可以作為構(gòu)建訓(xùn)練數(shù)據(jù)和驗(yàn)證候選算法的數(shù)據(jù)源。

9630aba4-5973-11ed-a3b6-dac502259ad0.png

圖9 低分辨率物體的視覺(jué)模糊

5. 總結(jié)

本文介紹了伯克利DeepDrive無(wú)人機(jī)數(shù)據(jù)集,該數(shù)據(jù)集拓展了自動(dòng)駕駛中的非結(jié)構(gòu)化場(chǎng)景,對(duì)于研究復(fù)雜路況下的自動(dòng)駕駛車輛行為具有重要意義。

該數(shù)據(jù)集包含總共20個(gè)視頻序列、16002個(gè)帶注釋的圖像和一個(gè)開(kāi)發(fā)工具包。它可用于以下應(yīng)用:1)在底層結(jié)構(gòu)道路環(huán)境中模擬駕駛員行為,2)設(shè)計(jì)去中心化運(yùn)動(dòng)規(guī)劃算法,以及3)開(kāi)發(fā)用于低分辨率道路目標(biāo)的檢測(cè)方法。





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 無(wú)人機(jī)
    +關(guān)注

    關(guān)注

    230

    文章

    10728

    瀏覽量

    185526
  • 信號(hào)控制
    +關(guān)注

    關(guān)注

    0

    文章

    41

    瀏覽量

    9326
  • 自動(dòng)駕駛
    +關(guān)注

    關(guān)注

    788

    文章

    14193

    瀏覽量

    169498

原文標(biāo)題:分散式車輛協(xié)同:伯克利DeepDrive無(wú)人機(jī)數(shù)據(jù)集B3D

文章出處:【微信號(hào):3D視覺(jué)工坊,微信公眾號(hào):3D視覺(jué)工坊】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    慣性傳感器的分類和應(yīng)用

    慣性傳感器是種利用物體慣性效應(yīng)來(lái)測(cè)量加速度、角速度等運(yùn)動(dòng)參數(shù)的傳感器。隨著微機(jī)電系統(tǒng)(MEMS)技術(shù)的快速發(fā)展,慣性傳感器已經(jīng)廣泛應(yīng)用于汽車、航空航天、消費(fèi)電子、工業(yè)自動(dòng)化等多個(gè)領(lǐng)域
    的頭像 發(fā)表于 02-03 14:20 ?1800次閱讀

    AI開(kāi)發(fā)框架集成介紹

    隨著AI應(yīng)用的廣泛深入,單框架往往難以滿足多樣化的需求,因此,AI開(kāi)發(fā)框架的集成成為了提升開(kāi)發(fā)效率、促進(jìn)技術(shù)創(chuàng)新的關(guān)鍵路徑。以下,是對(duì)AI開(kāi)發(fā)框架集成的
    的頭像 發(fā)表于 01-07 15:58 ?469次閱讀

    用于SLAM中點(diǎn)云地圖綜合評(píng)估的開(kāi)源框架

    在SLAM中評(píng)估大規(guī)模的點(diǎn)云地圖仍頗具挑戰(zhàn),主要原因在于缺乏統(tǒng)、穩(wěn)健且高效的評(píng)估框架。本文提出了MapEval,這是個(gè)用于點(diǎn)云地圖綜合評(píng)估的開(kāi)源
    的頭像 發(fā)表于 12-13 11:18 ?840次閱讀
    用于SLAM中點(diǎn)云地圖綜合評(píng)估的開(kāi)源<b class='flag-5'>框架</b>

    RISC-V指令概述

    基礎(chǔ)指令,加上若干個(gè)擴(kuò)展指令進(jìn)行搭配使用,就可以得到我們想要的指令架構(gòu),進(jìn)而根據(jù)這樣的指令架構(gòu),設(shè)計(jì)出貼合我們需求的CPU。其中最核心部分是
    發(fā)表于 11-30 23:30

    種面向飛行試驗(yàn)的數(shù)據(jù)融合框架

    天地氣動(dòng)數(shù)據(jù)一致性,針對(duì)某外形飛行試驗(yàn)數(shù)據(jù)開(kāi)展了典型對(duì)象的天地氣動(dòng)數(shù)據(jù)融合方法研究。結(jié)合數(shù)據(jù)挖掘的隨機(jī)森林方法,本文提出了種面向飛行試驗(yàn)的
    的頭像 發(fā)表于 11-27 11:34 ?708次閱讀
    <b class='flag-5'>一</b>種面向飛行試驗(yàn)的<b class='flag-5'>數(shù)據(jù)</b>融合<b class='flag-5'>框架</b>

    芯片封裝設(shè)計(jì)引腳寬度和框架引腳的設(shè)計(jì)介紹

    芯片的封裝設(shè)計(jì)中,引腳寬度的設(shè)計(jì)和框架引腳的整形設(shè)計(jì)是兩個(gè)關(guān)鍵的方面,它們直接影響到元件的鍵合質(zhì)量和可靠性,本文對(duì)其進(jìn)行介紹,分述如下:
    的頭像 發(fā)表于 11-05 12:21 ?1961次閱讀
    芯片封裝設(shè)計(jì)引腳寬度和<b class='flag-5'>框架</b>引腳的設(shè)計(jì)<b class='flag-5'>介紹</b>

    基于旋轉(zhuǎn)平移解耦框架的視覺(jué)慣性初始化方法

    精確和魯棒的初始化對(duì)于視覺(jué)慣性里程計(jì)(VIO)至關(guān)重要,因?yàn)椴涣嫉某跏蓟瘯?huì)嚴(yán)重降低姿態(tài)精度。
    的頭像 發(fā)表于 11-01 10:16 ?846次閱讀
    基于旋轉(zhuǎn)平移解耦<b class='flag-5'>框架</b>的視覺(jué)<b class='flag-5'>慣性</b>初始化方法

    種完全分布式的點(diǎn)線協(xié)同視覺(jué)慣性導(dǎo)航系統(tǒng)

    在本文中,我們提出了種完全分布式的點(diǎn)線協(xié)同視覺(jué)慣性導(dǎo)航系統(tǒng)。我們通過(guò)蒙特卡羅模擬和真實(shí)環(huán)境數(shù)據(jù),在稠密特征或稀疏特征環(huán)境下將所提出的算法與其他四種算法進(jìn)行了比較。所有結(jié)果表明,我們
    的頭像 發(fā)表于 09-30 14:45 ?795次閱讀
    <b class='flag-5'>一</b>種完全分布式的點(diǎn)線協(xié)同視覺(jué)<b class='flag-5'>慣性</b>導(dǎo)航系統(tǒng)

    使用rt-thread的ADC框架,增加了DMA采集部分,采集到的兩通道數(shù)據(jù)中,有個(gè)通道數(shù)據(jù)異常,為什么?

    裸機(jī)程序通過(guò)ADC+DMA采集兩通道模擬量數(shù)據(jù),可以正常采集到數(shù)據(jù),使用rt-thread的ADC框架,增加了DMA采集部分,采集到的兩通道數(shù)據(jù)中,有
    發(fā)表于 07-12 08:07

    pycharm怎么訓(xùn)練數(shù)據(jù)

    在本文中,我們將介紹如何在PyCharm中訓(xùn)練數(shù)據(jù)。PyCharm是款流行的Python集成開(kāi)發(fā)環(huán)境,提供了許多用于數(shù)據(jù)科學(xué)和機(jī)器學(xué)習(xí)的
    的頭像 發(fā)表于 07-11 10:10 ?1120次閱讀

    bootstrap框架介紹

    Bootstrap是個(gè)流行的前端框架,它提供了套響應(yīng)式、移動(dòng)優(yōu)先的CSS和JavaScript組件,可以幫助開(kāi)發(fā)者快速構(gòu)建美觀、功能豐富的網(wǎng)頁(yè)。
    的頭像 發(fā)表于 07-11 09:53 ?998次閱讀

    如何理解機(jī)器學(xué)習(xí)中的訓(xùn)練、驗(yàn)證和測(cè)試

    理解機(jī)器學(xué)習(xí)中的訓(xùn)練、驗(yàn)證和測(cè)試,是掌握機(jī)器學(xué)習(xí)核心概念和流程的重要步。這三者不僅構(gòu)成了模型學(xué)習(xí)與評(píng)估的基礎(chǔ)
    的頭像 發(fā)表于 07-10 15:45 ?6320次閱讀

    PyTorch如何訓(xùn)練自己的數(shù)據(jù)

    PyTorch是個(gè)廣泛使用的深度學(xué)習(xí)框架,它以其靈活性、易用性和強(qiáng)大的動(dòng)態(tài)圖特性而聞名。在訓(xùn)練深度學(xué)習(xí)模型時(shí),數(shù)據(jù)是不可或缺的組成部分。
    的頭像 發(fā)表于 07-02 14:09 ?3299次閱讀

    TensorFlow與PyTorch深度學(xué)習(xí)框架的比較與選擇

    深度學(xué)習(xí)作為人工智能領(lǐng)域的個(gè)重要分支,在過(guò)去十年中取得了顯著的進(jìn)展。在構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型的過(guò)程中,深度學(xué)習(xí)框架扮演著至關(guān)重要的角色。T
    的頭像 發(fā)表于 07-02 14:04 ?1502次閱讀

    常見(jiàn)的數(shù)據(jù)采集工具的介紹

    數(shù)據(jù)采集是數(shù)據(jù)分析和處理的基礎(chǔ),它涉及到從各種數(shù)據(jù)源中提取、收集和整理數(shù)據(jù)的過(guò)程。數(shù)據(jù)采集工具的選擇對(duì)于
    的頭像 發(fā)表于 07-01 14:51 ?1610次閱讀