女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

誰才是真正的C位 讓AI告訴你

人工智能與大數據技術 ? 來源:yxw ? 2019-06-20 17:34 ? 次閱讀

C位是近年網絡上一個比較熱門的詞,最早來源于DOTA等游戲領域,是核心位置(Carry位)的簡稱,代表的是能夠在游戲前中期打錢發(fā)育并在游戲后期帶領隊伍力挽狂瀾的角色。現(xiàn)在C位一詞逐漸擴大到了娛樂圈乃至我們的生活中,在社交、表演、比賽以及各種日常活動場景中,只要當某一個人在人群中處于中心位置,即最重要的人,大家便稱呼他是C位(Center位)。

在包含眾多人像的照片中,由于每個人的穿著和動作各異,同時人與人之間存在各種交互信息,以及所處的場景不同,我們通過肉眼來確定C位的時候可能會出現(xiàn)各種偏差。在人工智能快速發(fā)展的今天,我們能否可以通過AI來自動找出C位呢?答案當然是肯定的。在這篇文章中,我們將介紹如何利用計算機視覺深度學習技術構建一個性能優(yōu)異的C位檢測器,從而快速準確地在一群人中發(fā)現(xiàn)真正站C位的那個最重要的人。

C位檢測器前傳

C位檢測器的目標是檢測出一群人中最重要的人。一般來說,C位檢測器主要由兩部分組成,第一部分是人臉/全身檢測模型,通過該模型首先檢測出照片中的所有人像;第二部分是人像重要性預測模型,通過該模型對檢測出的每個人像計算重要性得分,重要性得分最高的人即為C位。

當前的人臉/全身檢測模型的性能已經比較理想,而人像重要性預測模型還處在研究和探索階段,所以下面我們的內容將主要圍繞如何量化一群人中每個人的重要性展開。

最直接的人像重要性計算可以基于照片中人像所處的位置和面積進行設計,例如,離照片中心點越近則重要性越高,人像的面積越大則重要性越高等等。然而我們判斷一個人是不是C位,除了利用照片中人像所處的位置和面積這類人像自身的幾何信息外,還會根據照片上的各種信息綜合判斷:人像自身的外表信息(上圖(a))、與其他人之間的關系信息(上圖(b))以及所處的全局場景信息(上圖(c))。

人與人之間的關系和人與場景之間的關系對C位的判斷起到關鍵性作用。如果我們只利用人像的自身特征進行重要性計算,例如上圖(a)中的紅框女性,我們其實無法知道她是否是照片中最重要的人。但我們通過她與周圍人之間和與整體場景之間的關系信息分析便可以得出她是C位的結論。

一個理想的人像重要性預測模型應根據上面提到的各方面信息進行聯(lián)合計算。如何提取照片上豐富的多元化信息?如何對人與人之間和人與場景之間的關系建模,從而獲取高層次的語義信息?如何最終根據照片上人像的多元化信息和高層次語義信息的特征進行重要性評估?這些都是擺在我們面前的問題,需要我們去一一解決。

一個出色的C位檢測器

為了解決上節(jié)末提出的三個問題,我們實驗室的小伙伴們攻堅克難,提出了一種全新而高效的人像重要性預測模型,構建了一個出色的C位檢測器,相關工作發(fā)表在CVPR 2019。下面我們對其中的模型框架和建模思路進行一一介紹,希望給大家?guī)砀嗟膯l(fā)和思考。

整個人像重要性預測模型分為三個模塊,分別是特征表達模塊、關系計算模塊和重要性分類模塊。特征表達模塊能夠有效地提取照片中每個人的自身特征和整張照片的全局場景特征。關系計算模塊能夠對人與人之間和人與場景之間的關系進行建模。重要性分類模塊能夠計算每個人像的重要性得分,從而最終識別出最重要的C位人選。完整的模型框架如下圖所示。

特征表達模塊針對上節(jié)末“如何提取照片上豐富的多元化信息?”這一問題進行設計。為了充分地獲取人像自身豐富的特征表達,人像的外表信息和幾何信息都會進行特征提取。深度卷積神經網絡被用來實現(xiàn)提取流程,如下圖所示。其中,外表信息被分為內在(綠框)和外在(藍框)兩部分,內在區(qū)域更多提取人像固有的外表信息,外在區(qū)域更多用于提取人像外表以及與周圍環(huán)境的上下文信息,從而保證了人像信息的多元化。此外整張照片的全局場景信息(黃框)也會通過卷積神經網絡實現(xiàn)特征提取。

關系計算模塊針對上節(jié)末“如何對人與人之間和人與場景之間的關系建模,從而獲取高層次的語義信息?”這一問題進行設計,是整個模型中最關鍵的模塊。在該模塊中,關系網絡(Relation Networks)被用來對在特征表達模塊中提取的人像特征和場景特征進行關系建模。關系網絡能夠在沒有額外監(jiān)督信息的前提下,自動學習人與人之間和人與場景之間的關系,從而提取更高層次的語義信息以表征人在場景中的重要性。具體會分別建立人與人之間的關系圖和人與場景之間的關系圖,通過多個并行的關系網絡提取關系特征并連接,再與原有的人像特征相加,得到最終的特征表達。

重要性分類模塊針對上節(jié)末“如何最終根據照片上人像的多元化信息以及高層次語義信息的特征進行重要性評估?”這一問題進行設計。通過對在關系計算模型中提取的每個人像的最終特征表達進行重要/不重要的二分類,將每個人像被分為重要這個類別的概率作為重要性得分,得分最高的人像就是模型認定的C位。

以上三個模塊一起實現(xiàn)了端到端的人像重要性訓練和預測。最后我們來看一看利用上述模型進行C位檢測的可視化結果。紅框代表的是模型檢測出來的C位,綠框代表的是當前其他最好方法的檢測結果,可以看出在充分考慮了照片中人與人之間和人與場景之間的關系信息后,在各種復雜場景下,AI均能夠準確地檢測出真正的C位。

C位檢測可以自動快速地在人群中找出最重要的那個人。通過這篇文章,我們介紹了利用AI進行C位檢測的一般流程和遇到的挑戰(zhàn),也進一步分享了一種優(yōu)秀的C位檢測器的構建思路與過程。其中的更多細節(jié)大家可以在arXiv上搜索《Learning to Learn Relation for Important People Detection in Still Images》進行查看。最后祝大家都能在各自的領域內不斷進步,實現(xiàn)自我價值,站上屬于自己的C位。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 機器視覺
    +關注

    關注

    163

    文章

    4508

    瀏覽量

    122195
  • 人工智能
    +關注

    關注

    1804

    文章

    48677

    瀏覽量

    246251
  • 深度學習
    +關注

    關注

    73

    文章

    5554

    瀏覽量

    122449

原文標題:誰才是真正的C位,讓AI告訴你

文章出處:【微信號:TheBigData1024,微信公眾號:人工智能與大數據技術】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    神眸引領AI智能視覺新范式,科技更有溫度

    AI能力矩陣,更是通過情感化交互與場景化服務,用戶真正感受到科技帶來的溫暖陪伴。神眸以“云、網、邊、端、芯”全鏈路自研架構為基石,從芯片級性能突破到云端智能服
    的頭像 發(fā)表于 05-23 13:24 ?199次閱讀
    神眸引領<b class='flag-5'>AI</b>智能視覺新范式,<b class='flag-5'>讓</b>科技更有溫度

    聯(lián)想,AI計算發(fā)生“鐘擺革命”

    AI基礎設施革新,智能化越過山丘
    的頭像 發(fā)表于 05-15 19:12 ?1134次閱讀
    聯(lián)想,<b class='flag-5'>讓</b><b class='flag-5'>AI</b>計算發(fā)生“鐘擺革命”

    失去工作不是因為AI,而是因為使用AI的人

    當算法能精準預測消費者需求時,當AI生成的文案比人類更懂傳播心理學時,當自動化系統(tǒng)開始取代基礎決策崗位時,真正的危機已悄然降臨—— 不是AI在搶奪的工作,而是那些比你更早掌握
    的頭像 發(fā)表于 05-13 12:05 ?112次閱讀
    <b class='flag-5'>你</b>失去工作不是因為<b class='flag-5'>AI</b>,而是因為使用<b class='flag-5'>AI</b>的人

    最討厭AI的人選了特朗普

    魔幻的“川普美國”,只是果,選了特朗普,才是
    的頭像 發(fā)表于 04-22 16:42 ?633次閱讀
    最討厭<b class='flag-5'>AI</b>的人選了特朗普

    首創(chuàng)開源架構,天璣AI開發(fā)套件端側AI模型接入得心應手

    科正將AI能力體系化并賦能終端生態(tài)。 大會上,聯(lián)發(fā)科定義了“智能體化用戶體驗”的五大特征:主動及時、知懂你、互動協(xié)作、學習進化和專屬隱私信息守護。這五大特征需要跨越從芯片、模型、應用、終端乃至整個
    發(fā)表于 04-13 19:52

    利爾達AI豆系列C出道!快來Pick的智能新頂流

    //3月22日,由扣子Coze與火山引擎聯(lián)合主辦的“扣子AI工坊·硬件專場”在深圳、北京、杭州、成都四城圓滿落幕。利爾達作為Coze與火山引擎的重要合作伙伴受邀出席,不僅全面展示了最新推出的AI
    的頭像 發(fā)表于 03-28 16:43 ?431次閱讀
    利爾達<b class='flag-5'>AI</b>豆系列<b class='flag-5'>C</b><b class='flag-5'>位</b>出道!快來Pick<b class='flag-5'>你</b>的智能新頂流

    AnyDesk vs. Raspberry Pi Connect,才是“遠程霸主”?

    在樹莓派的世界里,遠程控制就像是一場魔法對決,而今天,我們的主角是兩遠程控制界的“魔法師”——AnyDesk和RaspberryPiConnect。它們都聲稱自己是遠程控制的最佳選擇,那么,才是
    的頭像 發(fā)表于 03-25 09:24 ?255次閱讀
    AnyDesk vs. Raspberry Pi Connect,<b class='flag-5'>誰</b><b class='flag-5'>才是</b>“遠程霸主”?

    AI全能助手 三星Galaxy S25系列生活更高效便捷

    生成式AI技術為智能手機開啟全新的進化路徑。如何更高效地管理行程,如何更快速地獲取信息,如何設備真正理解用戶的需求,成為廣大用戶對智能手機新的期待。三星Galaxy S25系列憑借全面升級
    的頭像 發(fā)表于 03-24 16:05 ?295次閱讀

    啟明智顯AI服務機器人解決方案:智能硬件方案的佼佼者

    啟明智顯AI服務機器人解決方案,以多模態(tài)感知+全棧AI能力,打造真正“會思考、能辦事”的服務伙伴,機器人在家用與商用場景中真正“活”起來!
    的頭像 發(fā)表于 03-11 17:15 ?549次閱讀
    啟明智顯<b class='flag-5'>AI</b>服務機器人解決方案:智能硬件方案的佼佼者

    【「AI Agent應用與項目實戰(zhàn)」閱讀體驗】書籍介紹

    會追根溯源,有種“大徹大悟”的感覺。 這本書主要講大語言模型的內容,教我們做一個AI Agent應用出來,其實這個東西現(xiàn)在也叫智能體了,他跟我們平常使用大語言模型有個不同點在于他會專注某個領域
    發(fā)表于 03-05 20:40

    如何在STM32f4系列開發(fā)板上部署STM32Cube.AI

    已下載STM32Cube.AI擴展包,但是無法使用,感覺像是沒有部署AI模型,我是想要通過攝像頭拍照,上傳圖像后,經過開發(fā)板處理器進行AI模型處理識別過后,告訴我識別結果,顯示在TFL
    發(fā)表于 11-18 09:39

    AI搞砸工作“抗雷”

    AI行業(yè)資訊
    jf_02331860
    發(fā)布于 :2024年07月02日 15:03:30

    AI辦公鼠標推薦:唯有科大訊飛鼠標AM30,才能真正體驗到AI智慧

    唯有科大訊飛鼠標AM30,才能真正體驗到AI帶來的驚喜與便利 AI時代,一切都在飛速發(fā)展,效率成為了成功的關鍵。還在用傳統(tǒng)鼠標,一字一句敲打著鍵盤,熬夜趕方案、做PPT? 醒醒吧!科
    的頭像 發(fā)表于 06-18 16:47 ?839次閱讀
    <b class='flag-5'>AI</b>辦公鼠標推薦:唯有科大訊飛鼠標AM30,才能<b class='flag-5'>真正</b>體驗到<b class='flag-5'>AI</b>智慧

    AI PC:真正AI PC,敢于下場

    在過去的半年里,我們無一不在聆聽關于人工智能(AI)PC的種種聲音,然而當步入現(xiàn)實生活時,恐怕仍有眾多讀者對此感到迷茫:這些AI PC究竟具有哪些AI功能呢?誠然,這并非易解之題。毫不掩飾地說,在我
    的頭像 發(fā)表于 06-11 15:02 ?1029次閱讀

    國產QX320F280049,雙核對比TI的 C28X+CLA,的算力更強?

    的 TMS320F280049采用C28X+CLA協(xié)處理器模式,主頻只有100MHz 的處理能力更強,在數字電源上使用哪個比較合適?
    發(fā)表于 06-03 15:17