女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

看奶爸如何自己開發系統用AI「馴服」人類幼崽

人工智能與大數據技術 ? 來源:機器之心 ? 作者:機器之心 ? 2021-01-27 16:43 ? 次閱讀

為了能安心看幾集 Netflix 劇,技術宅奶爸都做了些什么……

長期以來,「奶爸」+「萌娃」一直是一個不被看好的組合,甚至有人說,「父愛如山體滑坡」。

眾所周知,人類幼崽似乎是臺永動機,在一天 24 小時任何時間段里都有可能向你發難。你能讓自己睡個安穩覺的方法看來是在白天消耗他們的精力,因此人們想出了各種各樣的方法。 當然,并不是所有的奶爸都這么不靠譜,也有人帶起娃來挺正常的,Agustinus Nalwan 就是其中之一。 Agustinus Nalwan 是 Medium 上的一位博主,曾經從事計算機視覺、3D / 動畫、游戲開發等方面的工作,目前供職于澳洲最大的汽車交易平臺 carsale.com.au。 他有一個兩歲半的兒子,名叫 Dexie。Dexie 非常活潑,喜歡動物,尤其是老鷹,經常學老鷹在家里飛來飛去。

孩子的這種舉動一般也就引起家長的「哈哈」一笑(有的會拍成短視頻發網上),但 Nalwan 可不是一般的家長,他一直在嘗試用技術增添帶娃的樂趣。去年三月份,Nalwan 就開發過一款具有玩具識別能力的系統,可以和兒子互動并根據他手里的玩具播放相關視頻。

? 這個項目幫他拿到了英偉達「Jetson Project of the Month: Qrio – an interactive AI bot」活動的大獎,獎品是一臺英偉達 Jetson AGX Xavier。

91edbce8-6001-11eb-8b86-12bb97331649.png

Jetson AGX Xavier 的配置信息。 這是一種算力不小的開發者套件,曾被京東、美團、菜鳥的無人快遞車用作計算核心。鑒于 Jetson AGX Xavier 配置還不錯,Nalwan 決定用它來幫兒子做一個新玩具,實現他「展翅高飛」的夢想。 新玩具名叫 Griffin(神話中的獅鷲),最終實現效果是這樣的:

當然,奶爸也可以跟著一起玩或者自己玩。

這么好的帶娃經驗當然要分享出來。在最近的一篇博客中,Nalwan 完整地介紹了他打造 Griffin 的完整過程,手頭有娃的可以參考一下。

傳說中獅身鷹首的 griffin。《哈利波特》中的 Gryffindor 學院意為金色的 griffin。 以下是 Nalwan「從零開始」構建整套姿態識別游戲的歷程。 物料準備 要實現上圖中的效果,Griffin 需要具備以下模塊:

3D 游戲引擎:借助一個用 OpenGL 寫成的飛行模擬器生成帶有山脈、天空和 Griffin 的 3D 魔幻世界。

人體姿態估計:使用 OpenPose 姿態估計模型和 SSD 目標檢測模型來持續檢測玩家的身體姿態,作為系統的輸入,以控制 Griffin。

動作映射和手勢識別:將身體姿態轉化為有意義的動作和手勢,如抬起左 / 右翅膀、左右翻滾身體、起飛等。

通信系統:使用 socket 將姿態輸入送進 3D 游戲引擎。

以下是整個系統所需要的硬件:

NVIDIA Jetson AGX Xavier:這是一個 GPU 驅動的小型嵌入式設備,用來運行以上所有模塊。它可以通過一個簡單的 HDMI 接口支持音視頻輸出。此外,他還有一個以太網接口,方便聯網。你甚至可以插入鼠標和鍵盤在該設備上進行開發和調試,因為它有一個功能齊全的 Ubuntu 18.04 OS。

TV(帶有 HDMI 輸入和內置揚聲器):作為游戲引擎的顯示器。

攝像頭:我用的是 Sony IMX327。其實這里只需要 224x224 的圖像分辨率,因此也可以選低端一點的攝像頭。

Blu-Tack:把所有硬件拼接在一起。

Jetson AGX Xavier、 IMX327 攝像頭和 Blu Tack。 實現構建 3D 游戲引擎 為了更好地模擬飛行體驗,Griffin 系統將以第三人稱視角渲染 3D 世界。想象一下在 Griffin 正后方有一個攝像頭看著他所看的地方。為什么不用飛行模擬器那樣的第一人稱視角呢?因為看到鷹的翅膀并同步移動自己的手臂,可以幫助 Dexie 快速學習如何控制這個游戲,并擁有一個更沉浸式的體驗。 自行構建 3D 游戲引擎并非易事,可能需要好幾周的時間。現在大多數開發者只使用專門的游戲引擎,如 Unity 或 Unreal。但是很遺憾,我找不到可以在 Ubuntu OS/ARM 芯片組上運行的游戲引擎。一種替代方法是找到在 OpenGL 上運行的開源飛行模擬器。這可以保證游戲引擎能在 AGX 上運行,因為它支持 OpenGL ES(OpenGL 的輕量級版本)并且得到硬件加速。如果你不想游戲引擎以龜速運行的話,則這是必要的條件。 幸運的是,我找到了一個滿足標準的 C++ 開源飛行模擬器,并做了以下修改:

我用基于目標的系統替換了基于按鍵的飛行控制系統。這樣我就可以不時地設置 Griffin 身體的目標旋轉角度,之后這一旋轉目標將通過手勢識別模塊自行設置,該模塊可以映射 Dexie 胳膊的方向。

我增強了靜態 3D 模型管理,以支持層級結構。原始的飛機模型是作為一個剛體移動的,它沒有移動的身體部位。但是 Griffin 有兩個翅膀,需要獨立于身體單獨運動。為此,我添加了兩個翅膀,使之作為身體之上的單獨 3D 模型。我可以單獨旋轉每個翅膀,也可以移動 Griffin 的身體,間接移動兩個翅膀。實現該目標的一種恰當方式是構建骨骼動畫系統,將身體部位組織為樹結構的形式。但是,由于我要處理的身體部位只有三個(身體和兩個翅膀),因此我可以選擇一種簡便的方式。為了編輯鷹和樹 3D 模型,我使用了一個免費易用的 3D 編輯工具 Blender。

9917a560-6001-11eb-8b86-12bb97331649.png

在 Blender 中編輯鷹的 3D 模型。

我添加了 Griffin 起飛狀態的樹模型,以及無需重啟應用即可重啟游戲的游戲狀態。Griffin 有兩種狀態:站立(站在樹枝上)和飛翔。

我利用 libSFML 添加音效播放:當 Griffin 起飛時,會出現鷹的尖嘯和風聲。

構建人體姿態估計模塊 該模塊旨在檢測來自攝像頭輸入的人體姿態。具體而言,我們需要知道左 / 右手肘、左 / 右肩膀、脖子和鼻子的位置,才能駕馭 Griffin 的翅膀和身體,并觸發特定的姿勢。OpenPose 是一個流行的開源庫,并具備大量估計人體姿態、手部姿勢和面部特征的 AI 模型。我使用的是人體姿態估計 COCO 模型,以 resnet18 作為骨干特征提取器。該模型可以實時檢測 18 個關節點,包括上述我們所需的 6 個點。

996dc472-6001-11eb-8b86-12bb97331649.png

COCO 關節點圖。 這里存在一個大問題:OpenPose 基于 PyTorch 框架構建,在 NVIDIA AGX Xavier 中運行速度很慢(4FPS),因為它無法利用重度優化的 TensorRT 框架。幸運的是,還有一個厲害的工具 torch2trt,它可以自動將 PyTorch 模型移植到 TensorRT 框架中!具體步驟是:安裝 OpenPose,將 PyTorch 轉換為 TensorRT,下載預訓練 resnet18 骨干模型。 為了獲取來自攝像頭的視頻內容,我使用另一個庫 Jetcam。只需要四行代碼,就可以運行。

99a2f7e6-6001-11eb-8b86-12bb97331649.png

人體姿態估計。 這樣就得到了可以 100FPS 速度運行的人體姿態估計模塊! 經過一些測試后,我發現有時候這個模型會將隨機對象錯誤地識別為關節點(假正例,如下圖所示),這會給 Griffin 的動作控制帶來麻煩。

使用 Amazon SageMaker JumpStart 構建目標檢測模型 解決該問題的一種方式是添加一個輔助 AI 模型,用目標檢測模塊來提供人體邊界框,這樣就可以排除掉在邊界框以外檢測到的人體關節點了。此外,這些邊界框還可以幫助在一堆人中識別主要玩家,距離攝像頭最近的人應該是主要玩家。 在之前的項目中,我手動訓練過 SSDMobileNetV2 目標檢測模型。這次我選擇使用 Amazon SageMaker JumpStart,只需一鍵操作就可以從 TensorFlowHub 和 PyTorchHub 部署 AI 模型。這里有 150 多個可選的模型,其中就有經過完全預訓練的 SSDMobileNetV2。

9bac1c34-6001-11eb-8b86-12bb97331649.png

從 Amazon SageMaker Studio 中啟動 JumpStart。 在 Amazon JumpStart 中選擇 SSDMobileNetV2 后,只需一鍵操作就可以部署模型。有了目標檢測模型后,我可以為邊界框以外的關節點添加 exclusion logic,這樣假正例就會少很多!

在人體邊界框以外的關節點被排除在外。 構建動作映射和手勢識別模塊 該模塊對于將人體姿態估計模塊檢測到的 6 個關節點動作轉換為更具意義的輸入至關重要。這包括三種直接的動作映射:

飛行時的身體轉動:用于控制 Griffin 飛行時的方向。身體轉動可以通過橫軸和左右手肘向量之間的夾角進行計算(下圖上)。在飛行時,兩只翅膀基于這一轉動角度同步移動。選擇手肘而不是手腕是為了最大化可見度,因為手腕經常會掉出攝像頭視角或被其他身體部位遮擋住。

站立時的翅膀旋轉:這純粹是出于美觀,為了讓游戲更具趣味性,給人一種站立的時候可以單獨控制每個翅膀的印象。這通過橫軸與肩膀 - 手肘向量之間的夾角進行計算(下圖下)。最終的翅膀旋轉角度會添加 15 度,以加大翅膀的動作,畢竟人長時間舉高胳膊會很累。

身體轉動和翅膀旋轉時的動作映射。

蹲伏:這是另一個美觀動作,可以讓人感受到能夠控制 Griffin 起飛前的蹲伏姿勢。這通過脖子 - 鼻子向量和肩膀向量之間的長度比進行計算。蹲伏得越深,脖子和鼻子之間的距離越短,而左右肩膀之間的距離保持不變,因此長度比變小。

蹲伏動作映射。

起飛姿勢:當左右肩膀之間的中心點在一秒內上下移動的幅度超過閾值時,則該動作會被識別為起飛姿勢。閾值是肩膀之間的長度。當這一動作被觸發時,Griffin 會跳下樹枝,開始飛翔。

游戲復位姿勢:當左右肩膀的水平位置反轉時則為游戲復位姿勢,如玩家背對攝像頭。游戲將復位,Griffin 回到站在樹上的姿勢,準備下一次飛行。

起飛和復位手勢識別。 通信系統 現在,我們完成了三個主要組件,只需要將它們粘合在一起就行了。我們需要將姿態估計模塊檢測到的人體關節點發送至手勢識別模塊,這個任務比較簡單。但是,將動作和姿勢映射結果發送至 3D 游戲引擎就不那么簡單了,因為游戲引擎是用 C++ 寫的。你可能會疑惑為什么不用 Python 構建 3D 游戲引擎,原因在于沒有靠譜的方式來使用 Python 訪問 OpenGL。此外,即使可能,我也不想花費好幾周時間將 C++ 轉換為 Python 代碼。 此時我需要以最小花銷高效地在這二者之間傳遞信息。對于游戲引擎而言,最小花銷是非常重要的因素,輸入控制器和動作發生之間出現 100ms 的延遲都會導致玩家失去沉浸式體驗。因此,兩個單獨應用之間的最好通信媒介是 socket。由于這兩個應用在同一臺計算機內,因此延遲會在 5ms 以內。 在 C++ 中,我們簡單地使用 sys/socket 庫,而在 Python 中,我們可以使用 socket 框架。從現在開始,我把手勢識別和姿態估計模塊稱作 Python app,該客戶端發送五種信息:roll_target、lwing_target、rwing_target、body_height 和 game_state。把 3D 游戲引擎稱為 C++ app,充當監聽并不斷接收上述信息的服務器。 為了將這五種信息 / 變量正確地從 Python 映射到 C++ 上,在發送之前我們需要將其放置在 Python C-like 結構中。

class Payload(Structure): _fields_ = [(“roll_target”, c_int32), (“lwing_target”, c_int32), ("rwing_target", c_int32), ("body_height", c_int32), ("game_state", c_int32)] 在 C++ app 中,它們以本機 C 結構形式接收。

typedef struct payload_t { int32_t roll_target; int32_t lwing_target; int32_t rwing_target; int32_t body_height; int32_t game_state;} payload; 從下面的架構圖可以看出,通信層由一個位于 Python app 中的客戶端模塊和一個位于 C ++ app 中的服務器模塊組成。

9e52c5fa-6001-11eb-8b86-12bb97331649.png

Griffin 的整體架構圖。 校準與測試 準備就緒后,我設置了 Griffin 系統以執行校準和測試。這套系統的性能要比我預測的好很多,在執行所有實時 3D 渲染和姿態估計時一直都保持在 60FPS 的幀率,看來英偉達的 Jetson AGX Xavier 性能強大不是說說而已。在下面的視頻中,你可以看到校準和測試的過程。這個視頻幀率較低,是因為我在 Ubuntu 桌面上以 15FPS 錄屏,盡量減少對 Griffin 的影響。

Griffin 系統的校準與測試。 起飛 最后,是時候讓 Dexie 用 Griffin 嘗試第一次飛行了,這才是真正的大考。我在客廳里架設好了系統,我兒子一直在不耐煩地等待行動。

Dexie 使用 Griffin 飛行的經歷。 我只演示了一遍如何控制 Griffin 系統,跳一下就是起飛,展開手臂依靠姿勢控制翅膀,Dexie 就學會了。由于游戲是第三人稱視角,所以他很快就發現畫面中翅膀的運動是直接和自己姿勢同步的。隨后他就開始享受自己的飛行體驗了。沒有什么是比你自己更好的游戲控制器了——記住喬布斯在發布第一代 iPhone 時嘲笑手寫筆時所說的話。 有意思的是,Dexie 有次快要撞山時,他奮力揚起手臂想要來個急轉彎,但由于我設置了最大旋轉角度限制,Griffin 不允許他飛特別極限的角度,隨后他就撞了山…… 當時是這個樣子:

Dexie 在 Griffin 上的首飛。 他上來就玩了半小時,發瘋似地揮舞著手臂,直到疲倦襲來。最重要的是,那天晚上他睡得很香,對我們來說這是一次勝利!我有更多時間看 Netflix 了 :)

總結 構建這樣一套系統讓我學到了很多,同時獲得的樂趣也很多。總體來說我學到了:

Torch2trt 是一個很強大的工具,可以自動將 PyTorch 模型轉化為 TensorRT 版,讓 AI 模型在 Jetson AGX Xavier 上運行地更快。很多最先進的 AI 模型都是用 PyTorch 構建起來的,但手動將它們移植到 TensorFlow 上可不是好的體驗。

英偉達 Jetson AGX Xavier 的性能非常強大!很多人說它可以實時處理 30 個 1080p 視頻流的計算機視覺模型處理任務,看來的確是這樣。

亞馬遜 SageMaker JumpStart 提供了大量流行的 AI 模型,并讓它們非常易于部署。

構建 3D 游戲引擎的經歷讓我重拾之前作為游戲和電影 SFX 開發人員的經歷,再次用起了生疏的 OpenGL、C++ 和三角學方面的技能。

說到動作識別游戲,人們自然會想到 Xbox——我本可以用 Unity 引擎和 Kinect 傳感器在 Xbox 上構建一個 Griffin,但是這樣不就沒有太大意義了嗎?有時從頭構建一套系統才是樂趣所在。

扮演老鷹是一個很累的工作,尤其是長時間抬起手臂這件事。不過真正的老鷹是通過上升氣流獲得幫助并滑翔在天空中的。

不知這樣的一段經歷,是否能給你一些啟發? 最后,作者計劃在近期將項目代碼開源出來。

原文標題:用AI「馴服」人類幼崽:這個奶爸找到了硬核帶娃的樂趣

文章出處:【微信公眾號:人工智能與大數據技術】歡迎添加關注!文章轉載請注明出處。

責任編輯:haq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    34223

    瀏覽量

    275380
  • 人工智能
    +關注

    關注

    1804

    文章

    48708

    瀏覽量

    246497

原文標題:用AI「馴服」人類幼崽:這個奶爸找到了硬核帶娃的樂趣

文章出處:【微信號:TheBigData1024,微信公眾號:人工智能與大數據技術】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    迪米科技·溫器/搖器紅外傳感器測溫應用--愛不“觸碰”,溫更精準

    使用迪米科技非接觸式紅外傳感器可實現高精度測溫、實時反饋以及智能溫控等功能,為溫器/搖器注入了全新的智能化溫控解決方案。
    的頭像 發表于 05-09 16:41 ?160次閱讀
    迪米科技·溫<b class='flag-5'>奶</b>器/搖<b class='flag-5'>奶</b>器紅外傳感器測溫應用--愛不“觸碰”,溫更精準

    如何用FastMCP快速開發自己的MCP Server?

    的感受到了基于AI大模型和 MCP可以非常方便的構建自己AI智能體工作流。在此基礎上,不少讀者咨詢,如何將自己已有的工具或函數,制作成MCP Server給
    的頭像 發表于 05-07 16:07 ?818次閱讀
    如何用FastMCP快速<b class='flag-5'>開發自己</b>的MCP Server?

    愛不“觸碰”,溫更精準 —溫器/搖器測溫應用

    在育兒領域,精準控制奶液溫度是高效育兒的重要環節,使用非接觸式紅外傳感器可實現高精度測溫、實時反饋以及智能溫控等功能,為溫器/搖器注入了全新的智能化溫控解決方案。這一方案應用不僅提升了溫器/搖
    的頭像 發表于 05-07 16:04 ?73次閱讀
    愛不“觸碰”,溫更精準 —溫<b class='flag-5'>奶</b>器/搖<b class='flag-5'>奶</b>器測溫應用

    GNSS馴服銣原子頻標基準頻率源介紹

    銣原子頻標作為高精度的基準頻率源是很多檢定規程中都會提到的計量器具。廣泛應用于無線電導航與定位、數字通訊工程、時間頻率測量等領域。今天主要介紹一下GNSS馴服銣原子頻率的原理及其相關的幾點重要指標
    發表于 05-07 10:26

    咖啡機應用方案-“智”控溫度、打造完美咖啡

    傳統測溫方案:通過用戶預設時間控制打泡的時常使用溫度計來直接測量牛奶的溫度或手感溫度來大致判斷奶泡的溫度采用接觸式測溫(熱電偶/熱敏電阻等)控制蒸汽棒關停傳統方案的痛點與不便之處:通過預設時間控制
    的頭像 發表于 04-29 16:58 ?394次閱讀
    咖啡機應用方案-“智”控溫度、打造完美咖啡<b class='flag-5'>奶</b>泡

    《零基礎開發AI Agent——手把手教你扣子做智能體》

    《零基礎開發AI Agent——手把手教你扣子做智能體》是一本為普通人量身打造的AI開發指南。它不僅深入淺出地講解了Agent的概念和發展
    發表于 03-18 12:03

    啟明智顯AI解決方案,AI生活助手角度打開AI智能體的一天

    啟明智顯AI解決方案打造AI生活助手,AI智能體的角度AI解決方案能實現哪些功能
    的頭像 發表于 02-26 14:43 ?513次閱讀
    啟明智顯<b class='flag-5'>AI</b>解決方案,<b class='flag-5'>用</b><b class='flag-5'>AI</b>生活助手角度打開<b class='flag-5'>AI</b>智能體的一天

    泡棒專用芯片詳細解析

    泡棒專用芯片詳細解析
    的頭像 發表于 02-24 11:23 ?251次閱讀

    AI Agent 應用與項目實戰》第1-2章閱讀心得——理解Agent框架與Coze平臺的應用

    Agent各司其職又緊密配合,大大提升了分析效率和質量。這種分布式智能的理念啟發我們思考:在構建AI系統時,不應該追求單一模型的全能性,而是要設計合理的分工機制,讓每個Agent都能在自己擅長的領域發揮
    發表于 02-19 16:35

    AI開發平臺模型怎么

    AI開發平臺極大地簡化了AI應用的開發流程,從環境搭建、模型訓練到部署集成,每一步都提供了豐富的工具和資源。那么,AI
    的頭像 發表于 02-11 09:53 ?285次閱讀

    名單公布!【書籍評測活動NO.55】AI Agent應用與項目實戰

    日程預測性地調整了今天的工作安排。 在近日的Agent OpenDay上,智譜AI展示了在AI Agent(智能體)方面最新成果,發布了AI替代
    發表于 01-13 11:04

    馬斯克預言:AI將全面超越人類智力

    近日,科技巨頭馬斯克作出了一個關于人工智能(AI)的大膽預測。他斷言,AI的發展速度將超乎人類的想象,并將在不久的將來全面超越人類的智力。 馬斯克在X平臺上明確表示,
    的頭像 發表于 12-28 14:23 ?659次閱讀

    云端AI開發者工具怎么

    云端AI開發者工具通常包括代碼編輯器、模型訓練平臺、自動化測試工具、代碼管理工具等。這些工具不僅降低了AI開發的門檻,還極大地提高了開發效率
    的頭像 發表于 12-05 13:31 ?449次閱讀

    AI項目管理平臺怎么

    AI項目管理平臺是一種集成了項目管理工具、AI開發環境和數據分析能力的綜合性平臺。接下來,AI部落小編為您梳理AI項目管理平臺怎么
    的頭像 發表于 11-13 09:38 ?575次閱讀

    如何訓練自己AI大模型

    和訓練AI大模型之前,需要明確自己的具體需求,比如是進行自然語言處理、圖像識別、推薦系統還是其他任務。 二、數據收集與預處理 數據收集 根據任務需求,收集并準備好足夠的數據集。 可以選擇公開數據集、自有數據集或者通過數據標
    的頭像 發表于 10-23 15:07 ?4694次閱讀