女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

可通過面部表情來發送表情包的耳機

hl5C_deeptechch ? 來源:DeepTech深科技 ? 作者:DeepTech深科技 ? 2020-10-30 10:13 ? 次閱讀

無需打字、無需搜索表情,只需對著手機微笑,就能發出微笑表情包。

同樣的,對著手機皺眉,就能發出皺眉表情包。

以上功能來自一款名為 C-Face 耳機的設備,它誕生于康奈爾大學華人科學家張鋮的 SciFi 實驗室。他近日以通訊作者身份在 UIST 2020(User Interface Software and Technology)會議上發表了這項研究,論文名為《即使戴著口罩耳機也可以跟蹤面部表情》(Earphone tracks facial expressions, even with a face mask)。 圖 | 張鋮(來源:受訪者) 除張鋮之外,論文第一作者還有來自北京大學、目前在康奈爾大學訪問的本科生陳拓潮。 論文表示,該耳機可通過觀察臉頰輪廓,來連續跟蹤面部表情,并能把表情轉換為表情符號、或無聲語音命令。DeepTech 聯系到張鋮,并就該耳機和其進行了深入交流。 圖 | 耳機的展示視頻 他表示,C-Face 耳機是實驗室系列研究的其中一款設備。該系列研究主要探索信息的獲知,如果缺乏信息,計算機就很難理解人類動機和行為。而 SciFi 實驗室的長期工作,是致力于提升人機交流,但是第一步,計算機需要獲取到信息。 攝像頭是獲取信息的最常用手段之一,比如在室內外布置攝像頭,并且攝像頭必須沒有遮擋,這就導致傳統的 “攝像頭方法” 會在某些場景中失靈。比如,在獲取臉部表情時,是用攝像頭直接 “捕捉” 人臉,但用戶在外面時,不可能時刻臉部對著攝像頭。 而本次的 C-Face 耳機,正是一款可用于實時獲取臉部信息的耳機。其原理是,由于人臉有很多肌肉,肌肉之間相互連接,臉部在做不同表情時,其他肌肉也會被牽動,嘴巴、眼睛和眉毛的位置與形狀也會發生變化。基于此,經該實驗室的設計后,耳機可通過比較容易捕捉到的肌肉變化來推測出面部表情。

圖 | 不戴口罩時戴著耳機做表情 由于新冠疫情的影響,研究人員只能在 9 名參與者的情況下測試耳機。盡管如此,表情符號的識別準確度仍然超過 88%,面部提示的準確度超過 85%。

圖 | 戴口罩時戴著耳機做表情 具體來說,耳機內置兩個迷你攝像頭,它們可以捕捉到側面臉頰形狀,并通過臉頰形狀來判斷你的臉部表情。因為人在執行面部特征時,面部肌肉組織就會拉伸和收縮,進而推動和拉動毛孔和皮膚,并對面部肌肉組織的緊繃產生影響,這種影響會導致臉頰輪廓發生改變。

在耳機中,攝像頭可以傳輸數據,數據會傳輸到微處理器(Raspberry Pi),微處理器收集數據,并把它發到計算機上,這時深度學習算法就能開始工作。 深度學習在耳機中的應用 很多情況下,深度學習在數據上的效果,比傳統機器學習的效果更好。本次耳機之要想實現根據側臉和臉頰形狀來推斷整個面部表情,其實并不容易,因為每個人的側臉都不一樣。 因此,就得通過深度學習來采集訓練數據,具體做法是先采集到用戶臉頰變化情況,并結合前置攝像頭來捕捉面部表情,以標記出相對應的臉部表情。 這相當于攝像頭每一幀圖片,都有一個對應的面部表情。采集到訓練數據后,研究人員就能發掘出不同臉頰形狀與面部表情間的復雜對應關系。

張鋮表示,深度學習的好處是能通過復雜學習,來學習一些人類不擅長的技能。有的技能人類很擅長,比如一眼就能識別某些物體。但有些技能人類并不擅長,比如只根據側面臉頰,我們很難判斷出臉部全部形狀。 深度學習的能力是,可通過算法找出事物間的復雜聯系,從而根據側部面頰,準確推斷出面部表情。 具體工作時,在攝像機捕獲圖像后,計算機視覺和深度學習模型會對其進行重建。由于原始數據是二維的,因此卷積神經網絡(一種擅長對圖像進行分類、檢測和檢索的人工智能模型)有助于將輪廓重構為表達式。 此外,該模型可將臉頰圖像轉換為 42 個面部特征點,它們分別代表受表情變化影響最大的部位,如嘴巴、眼睛、眉毛等。 這 42 個特征點代表的面部表情,也可用于推測出 8 個表情符號,包括 “無表情”“生氣” 和 “ Kissy-face”,另外還有 8 個可用于控制音樂設備的靜音語音命令,如 “播放” ,“下一首” 和 “音量增大” 等。

相比傳統方法用前置攝像頭來識別表情,C-Face 耳機的獨特優勢是戴著口罩也能被耳機捕捉到表情,即攝像機無需對著人臉,只需觀察從耳朵到側面臉頰的形狀就能識別表情。 因為即使你戴著口罩(超大口罩除外),側面臉頰形狀并不會發生巨大改變,這時深度學習仍然可以工作。

本次研究還展示了 C-Face 耳機的兩大功能:無聲語音識別和前文的輸入表情包。 無聲語音識別指的是,一般的語音識別,都是通過聲音來識別。如果不通過聲音,是否也能識別?因為,假如你在開會、看電影等場合,突然說話就會很奇怪。再就是,當周圍有很多噪音,即便說話也無法識別。 而 C-Face 耳機可通過分析用戶表情,來識別沉默的語音指令。這一功能的常見應用場景有,當你跑步時只需做個嘴形,相關智能設備就能以非常私密的方式,來獲悉你的指令。 另一個可以想象的應用場景是健康預測,張鋮表示,未來該耳機有望連續記錄表情。獲得大量表情數據后,就可獲知用戶每天的心情狀況。這樣大量的情緒信息,還可幫助計算機了解用戶的精神健康狀況。

兩款耳機:入耳式和頭戴式 本次耳機分為兩款:入耳式和頭戴式,功能上它們非常類似。張鋮表示,它們所屬項目都叫 C-Face,該項目并不局限于某一種特定的設備,只是在本次論文中展示了入耳式耳機和頭戴式耳機。 唯一的區別是,兩種耳機的攝像頭位置略微不同。頭戴耳機相對大一點,有較大空間放攝像頭。 談及耳機是否可用于 VR 游戲,張鋮表示,經常有人問他這個問題,而他的答案一直是 Yes or NO。 即當然可以用在 VR 上面,但以他了解到的最新技術來說,VR 眼鏡已有更好的解決方案。 VR 眼鏡本身已經很大,通過在上面加設備來捕捉人的表情,此前已經有人做過。而 C-Face 耳機的好處是它非常小,日常可以進行穿戴。因此,他覺得 VR 眼鏡不一定是 C-Face 耳機最核心的爆點。

他舉例稱,該實驗室的耳機可以潛在地提供視頻聊天功能。現在的視頻聊天,都需要用戶面前放置一個攝像頭 (桌子上或者手舉著)。 但如果用耳機來聊天,耳機自己就能捕捉你的面部表情,你也不需要把攝像頭對著臉,你的朋友時時刻刻都能看到你的臉,包括走路時、開車時、甚至做飯時都可以跟人聊天。 解決功耗問題,就能加速落地 談及商業落地,張鋮表示本次論文發表后,有廠商已經和他們聯系討論一些初步的合作可能性。但想在短期內實現到現有設備,最需要解決的仍然是可穿戴設備上的功耗問題。而這一難題,超出了該實驗室的能力,因此需要工業界投入資金去優化功耗問題。

目前的耳機,是研究人員買來零件組裝的,攝像頭可以選配,只是價錢和分辨率會有區別。在零件的選擇上,他們未做過高要求,目的是讓設備更快速落地成產品。 他認為,該實驗室做這款設備,更多是著眼于未來。他們做研究的目的,更多是描述研究人員眼中的未來可能性。 張鋮表示,未來的攝像頭可能會變得非常小、功耗也非常低。盡管現在的耳機只是實驗室設備,但是如果能耗問題得以解決,它有可能在 5 到 10 年后實現應用。 如果想把小型攝像頭利用到現有設備上,能耗是個很大的問題。因為,攝像頭會耗電,處理攝像頭數據也會耗電,這是該設備的最大局限性。 就落地為產品來說,頭戴式耳機短期內可能相對方便一點,因為它可以放置更大的電池。對于入耳式耳機,該實驗室未來也會尋找更加低功耗的方法來解決問題。

因為如果把攝像頭裝在耳機上,那么攝像頭的耗電量肯定比耳機多。這種情況下,無論產品有多么酷炫,如果使用十分鐘就沒電了,也不會有人愿意購買。 如果想快速推出該耳機,可能只能先實現一部分功能,因為工業界做產品都有一個提前周期,比如要想現在發布一款產品,可能兩年前就得開始規劃。 與此同時,該實驗室并不局限于耳機,他們關注的是 “無處不在的計算和人機交互”,未來還有可能研發出智能耳環、智能衣服,而他們的愿望就是讓似乎無法智能的物體也變得智能起來。 -End-

原文標題:耳機可檢測表情?戴著口罩也可以,華人科學家新發明讓人臉變成“表情包”

文章出處:【微信公眾號:DeepTech深科技】歡迎添加關注!文章轉載請注明出處。

責任編輯:haq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 處理器
    +關注

    關注

    68

    文章

    19798

    瀏覽量

    233423
  • 耳機
    +關注

    關注

    28

    文章

    3039

    瀏覽量

    83043
  • 人臉識別
    +關注

    關注

    76

    文章

    4069

    瀏覽量

    83616

原文標題:耳機可檢測表情?戴著口罩也可以,華人科學家新發明讓人臉變成“表情包”

文章出處:【微信號:deeptechchina,微信公眾號:deeptechchina】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    基于XIAO RP2040和樹莓派的圍棋棋盤游戲系統設計

    今天小編給大家帶來的是來自mocketech的基于樹莓派和XIAO RP2040的圍棋棋盤娛樂系統,每塊圍棋石都會根據其狀態顯示面部表情,從而便于評估整體比賽情況。即使是不熟悉圍棋規則的人也可以通過這些
    的頭像 發表于 04-29 14:01 ?161次閱讀
    基于XIAO RP2040和樹莓派的圍棋棋盤游戲系統設計

    開源項目!能夠精確地行走、跳舞和執行復雜動作的機器人—Tillu

    。其核心設計包括15Kg的伺服電機腿部,使其能夠精確地行走、跳舞和執行復雜動作。 Tillu的個性通過內置屏幕上的豐富面部表情得以展現,同時還配備了一系列傳感器,包括: 用于語音識別的麥克風 用于平衡
    發表于 01-02 17:24

    mtu配置步驟詳解 mtu與數據丟失的關系

    步驟 確定當前MTU值 : 在配置MTU之前,首先需要了解當前網絡的MTU值。這可以通過使用ping命令(如ping -f -l [數據長度] [網關IP地址])測試,并通過逐步調
    的頭像 發表于 12-16 14:33 ?2229次閱讀

    ATA-7030高壓放大器在電致變形柔性致動器表情機器人實驗中的應用

    實驗名稱:ATA-7030高壓放大器在電致變形柔性致動器表情機器人實驗中的應用實驗內容:該表情機器人的核心柔性器件是采用PVC凝膠電致伸縮柔性材料與不銹鋼金屬網狀電極層疊而成。在電場作用下,凝膠會發
    的頭像 發表于 10-29 17:57 ?531次閱讀
    ATA-7030高壓放大器在電致變形柔性致動器<b class='flag-5'>表情</b>機器人實驗中的應用

    LM4875可通過控制DC Vol腳的電壓改變增益,如果用兩個音量按鍵控制音量要怎么做?

    LM4875可通過控制 DC Vol腳的電壓改變增益,我如果用兩個音量按鍵控制音量要怎么做?除了用電位器,還有什么其他方式嗎?我的按鍵應該怎么接?
    發表于 10-15 06:42

    低功耗Bluetooth–有關CC1350和CC26x0器件通過SPI發送的UNPI數據缺失長度檢查

    電子發燒友網站提供《低功耗Bluetooth–有關CC1350和CC26x0器件通過SPI發送的UNPI數據缺失長度檢查.pdf》資料免費下載
    發表于 09-20 10:49 ?0次下載
    低功耗Bluetooth–有關CC1350和CC26x0器件<b class='flag-5'>通過</b>SPI<b class='flag-5'>發送</b>的UNPI數據<b class='flag-5'>包</b>缺失長度檢查

    開源六軸協作機器人myCobot 320結合人臉表情識別情緒!

    與眾不同的功能。通過結合人臉表情識別技術,我們可以讓機械臂感知到我們的情緒變化。當我們開心時,機械臂可以跟著一起開心地舞動;當我們傷心難過時,它可以過來安慰我們,給予溫暖的撫摸。這種基于表情反饋的互動能讓機械臂更
    的頭像 發表于 08-12 15:21 ?1290次閱讀
    開源六軸協作機器人myCobot 320結合人臉<b class='flag-5'>表情</b>識別情緒!

    esp8266怎么做才能每秒發送更多的數據呢?

    在我的項目中,我需要通過WIFI實時傳輸大量數據。在 esp8266 參考手冊中指出,我可以將 UART 波特率提高到 4 Mbits 左右,以實現更快的通信。 問題是,增加波特率不會改變整體發送
    發表于 07-22 08:00

    請問如何使用AT CIPSEND或AT CIPSENDBUF發送多個數據

    我可以使用 AT CIPSEND 發送單個數據。但是我必須發送一系列二進制數據。如何使用AT CISEND或AT CIPSENDBUF發送
    發表于 07-15 07:37

    曠視AI開源新突破:上傳照片即可生成表情視頻!

    為了展示其泛化性,MegActor甚至可以將VASA中的人物肖像和視頻組合生成,得到生動的表情視頻。即使與阿里EMO的官方案例相比,MegActor也能生成近似的效果。
    的頭像 發表于 07-12 11:20 ?702次閱讀
    曠視AI開源新突破:上傳照片即可生成<b class='flag-5'>表情</b><b class='flag-5'>包</b>視頻!

    NONOS如何檢查是否實際發送了UDP數據

    我發現進入深度睡眠通常無法傳輸發送的最后一個 UDP 數據。我現在將睡眠延遲 30 毫秒,這是一個黑客。 我寧愿有一種方法檢查是否可以休眠,或者以其他方式能夠注冊指示數據
    發表于 07-12 06:14

    加入IGMP組后,數據不再通過UDP發送,為什么?

    有誰知道IGMP_Join后發送數據需要什么 似乎在加入IGMP組后,數據不再通過UDP發送。 在下面的示例中,第一個數據
    發表于 07-10 07:20

    若用mdf的router例程做開發,是否需要在應用層通過心跳檢測mesh組網網絡是否正常?

    請教一下,若用mdf的router例程做開發,是否需要在應用層通過心跳檢測mesh組網網絡是否正常?目前通過父節點定時
    發表于 06-28 08:01

    機器人動態表情模塊JZRF-----江智公司開始全面對外開放提供

    機器人動態表情模塊江智公司開始全面對外開放提供江智機器人公司在多年單一靜態表情板基礎上,通過近1年左右的動態表情變化的研究實際測試,現正式對外提供不同規格(也可按客戶規格定制)
    的頭像 發表于 06-19 08:14 ?460次閱讀
    機器人動態<b class='flag-5'>表情</b>模塊JZRF-----江智公司開始全面對外開放提供

    CC2640R2L使用BLE的Notify功能,通過定時器每隔10ms向手機發送數據,會出現丟的原因?

    使用BLE的Notify功能,通過定時器每隔10ms向手機發送數據,每包數據20字節,發送大約4000后出現丟
    發表于 05-30 07:43