https://scholars.lib.ntu.edu.tw/handle/123456789/122772
標題: | 利用詮釋資料分類音樂情緒 Exploiting Metadata for Music Emotion Classification |
作者: | 林佑璟 Lin, Yu-Ching |
關鍵字: | 音樂情緒分類;利用詮釋資料;可適性融合;music emotion classification;metadata exploitation;adaptive fusion | 公開日期: | 2009 | 摘要: | 隨著社群標注系統與音樂網路服務的快速增長,獲取大量音樂詮釋資料變得相當容易。由於此類詮釋資料往往與人類對音樂的感知有關,因此可用於幫助基於音樂內容的自動化分類。現有的自動化音樂分類往往受制於音樂訊號特徵與人類感知之間的巨大隔閡,將詮釋資料納入系統,勢必可對分類校能有一定的提昇。在此篇論文中,我們先檢驗情緒與音樂詮釋資料的相關性,接著運用此相關性來幫助音樂情緒的分類。我們提出使用詮釋資料劃分歌曲,並建立特定詮釋資料的分類模型以專注於分類各群內的歌曲情緒。由於一首歌可同時被標上不同型態的音樂詮釋資料,我們再提出了一個新穎的可適性融合的架構,可將各種詮釋資料合併使用。相較於現有方法往往受制於詮釋資料的混亂與稀少,我們提出的方法克服了這些困難並大幅提昇音樂情緒分類的準確度。 Along with the explosive growth of the social tagging systems and musical web services, abundant musical metadata are readily obtainable from the Internet. Since most metadata are related to the human perception of music, they can be utilized to bridge the so-called semantic gap between audio signals and high-level semantics for content-based music classification. In this thesis, we first examine the correlation between emotion and the musical metadta by a statistical association test, and then exploit such correlation for emotion classification. We propose to divide songs according to the metadata and build a metadata-specific model to concentrate on the classification in each group. Since a song can be associated with different types of metadata, such as genre and style, we further propose a novel adaptive fusion scheme to utilize all types of metadata. While the existing methods of exploiting metadata are hampered by the noise and sparseness inherent to metadata, the proposed scheme overcomes these difficulties and significantly improves the accuracy of emotion classification. |
URI: | http://ntur.lib.ntu.edu.tw//handle/246246/188306 |
顯示於: | 電信工程學研究所 |
檔案 | 描述 | 大小 | 格式 | |
---|---|---|---|---|
ntu-98-R96942052-1.pdf | 23.32 kB | Adobe PDF | 檢視/開啟 |
在 IR 系統中的文件,除了特別指名其著作權條款之外,均受到著作權保護,並且保留所有的權利。