一般利用均衡器可以將音樂中的低音部分調出來,但是麻省理工學院的計算機科學和人工智能實驗室(Computer Science and Artificial Intelligence Lab,CSAIL)的研究人員發現了更好的解決方案。他們所研發的新系統 PixelPlayer,能夠利用人工智能來區分和過濾聲音,讓音樂聽起來更洪亮或更柔和。
將指定視頻錄入經過充分訓練的 PixelPlayer,系統隨機能夠過濾伴奏,同時識別音源,接著計算圖像中每個像素的音量,然后通過“空間定位”確定產生相似音波的片段。
今年9月,德國慕尼黑即將舉行歐洲計算機視覺會議(European Conference on Computer Vision),會議中要發表的一篇新論文則詳細論述了“像素的聲音(The Sound of Pixels)”。麻省理工學院計算機科學和人工智能實驗室的博士生,同時也是這篇論文的合著者 Zhao Hang 同學表示,“最好的情況就是,我們能識別出哪種樂器發出怎樣的聲音。”
PixelPlayer 的核心是一種基于樂器組合多模態訓練的神經網絡,數據集采用了 Youtube 上 714 條未經修剪且未經標記的視頻。其中,總時長為 60 小時的 500 條視頻用于訓練,剩余的則用于驗證和測試。在訓練過程中,研究人員分別根據原聲吉他、大提琴、單簧管、長笛和其他樂器向系統饋入了算法。
這只是 PixelPlayer 多重機器學習框架的一個部分。經過訓練后的視頻分析算法將從剪輯幀中提取出視覺特征,這就是系統的第二個神經網絡,即音頻分析網絡。音頻分析網絡將聲音拆分為片段,并從中提取特征。最后,音頻合成網絡將把上述兩個網絡輸出的特定像素和聲波關聯起來。
PixelPlayer 進行完全自監督的學習,人們無需對數據注釋,而且系統目前已經能識別 20 種樂器。Zhao Hang 說,較大的數據集增強了系統的識別量,但識別樂器子類的能力卻不佳。系統也可以識別音樂元素,例如小提琴的諧波頻率。
研究人員認為 PixelPlayer 可以進行聲音剪輯,或者幫助機器人理解動物、車輛和其他物體所制造的環境聲音。他們寫到,“我們希望我們的工作能夠開辟新的研究途徑,從視覺和聽覺信號角度實現聲源分離”。
-
神經網絡
+關注
關注
42文章
4808瀏覽量
102822 -
AI
+關注
關注
87文章
34275瀏覽量
275464 -
MIT
+關注
關注
3文章
254瀏覽量
24229
原文標題:MIT實現用AI過濾音源 讓音樂更悅耳
文章出處:【微信號:worldofai,微信公眾號:worldofai】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
KSC XA輕觸開關提供聲音柔和的輕觸反饋,增強用戶體驗

首創開源架構,天璣AI開發套件讓端側AI模型接入得心應手
愛立信如何讓網絡運維更簡單
《AI Agent應用與項目實戰》閱讀體驗--跟著迪哥學Agent
如何讓您的空氣過濾系統具備未來適應性
CAN協議的軟件過濾和硬件過濾

評論