DC 欄位 | 值 | 語言 |
dc.contributor | 陳宏銘 | zh-TW |
dc.contributor | 臺灣大學:電信工程學研究所 | zh-TW |
dc.contributor.author | 林佑璟 | zh-TW |
dc.contributor.author | Lin, Yu-Ching | en |
dc.creator | 林佑璟 | zh-TW |
dc.creator | Lin, Yu-Ching | en |
dc.date | 2009 | en |
dc.date.accessioned | 2010-07-01T08:47:56Z | - |
dc.date.accessioned | 2018-07-05T04:11:00Z | - |
dc.date.available | 2010-07-01T08:47:56Z | - |
dc.date.available | 2018-07-05T04:11:00Z | - |
dc.date.issued | 2009 | - |
dc.identifier.other | U0001-2007200901451800 | en |
dc.identifier.uri | http://ntur.lib.ntu.edu.tw//handle/246246/188306 | - |
dc.description.abstract | 隨著社群標注系統與音樂網路服務的快速增長,獲取大量音樂詮釋資料變得相當容易。由於此類詮釋資料往往與人類對音樂的感知有關,因此可用於幫助基於音樂內容的自動化分類。現有的自動化音樂分類往往受制於音樂訊號特徵與人類感知之間的巨大隔閡,將詮釋資料納入系統,勢必可對分類校能有一定的提昇。在此篇論文中,我們先檢驗情緒與音樂詮釋資料的相關性,接著運用此相關性來幫助音樂情緒的分類。我們提出使用詮釋資料劃分歌曲,並建立特定詮釋資料的分類模型以專注於分類各群內的歌曲情緒。由於一首歌可同時被標上不同型態的音樂詮釋資料,我們再提出了一個新穎的可適性融合的架構,可將各種詮釋資料合併使用。相較於現有方法往往受制於詮釋資料的混亂與稀少,我們提出的方法克服了這些困難並大幅提昇音樂情緒分類的準確度。 | zh-TW |
dc.description.abstract | Along with the explosive growth of the social tagging systems and musical web services, abundant musical metadata are readily obtainable from the Internet. Since most metadata are related to the human perception of music, they can be utilized to bridge the so-called semantic gap between audio signals and high-level semantics for content-based music classification. In this thesis, we first examine the correlation between emotion and the musical metadta by a statistical association test, and then exploit such correlation for emotion classification. We propose to divide songs according to the metadata and build a metadata-specific model to concentrate on the classification in each group. Since a song can be associated with different types of metadata, such as genre and style, we further propose a novel adaptive fusion scheme to utilize all types of metadata. While the existing methods of exploiting metadata are hampered by the noise and sparseness inherent to metadata, the proposed scheme overcomes these difficulties and significantly improves the accuracy of emotion classification. | en |
dc.description.tableofcontents | 口試委員會審定書 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . i 謝 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ii 文摘要 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iii BSTRACT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . iv IST OF FIGURES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . vii IST OF TABLES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . viii HAPTER . Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 .1 Music Emotion Classification . . . . . . . . . . . . . . . . . . . 1 .2 Metadata Exploitation for Music Classification . . . . . . . . . 2 .3 Research Contribution . . . . . . . . . . . . . . . . . . . . . . . 2 .4 Thesis Organization . . . . . . . . . . . . . . . . . . . . . . . . 4 I. Related Work . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 .1 Metadata and Tag Analysis . . . . . . . . . . . . . . . . . . . . 5 .2 Metadata Exploitation for Music Classification . . . . . . . . . 7 .3 Fusion Methods . . . . . . . . . . . . . . . . . . . . . . . . . . 9 II. Data Collection and Analysis . . . . . . . . . . . . . . . . . . . . . 10 .1 Data Collection . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 .2 Statistical Association Analysis . . . . . . . . . . . . . . . . . . 11 .3 Metadata Reduction . . . . . . . . . . . . . . . . . . . . . . . . 13 V. Proposed Framework . . . . . . . . . . . . . . . . . . . . . . . . . . 17 .1 Metadata Exploitation . . . . . . . . . . . . . . . . . . . . . . . 17 .2 Local Semantic Coherence . . . . . . . . . . . . . . . . . . . . . 19 .3 Adaptive Fusion . . . . . . . . . . . . . . . . . . . . . . . . . . 21 . Experiments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 .1 Experimental Setup . . . . . . . . . . . . . . . . . . . . . . . . 22 .2 Evaluation Measures . . . . . . . . . . . . . . . . . . . . . . . . 23 .3 Metadata Exploitation . . . . . . . . . . . . . . . . . . . . . . . 23 .4 Adaptive Fusion . . . . . . . . . . . . . . . . . . . . . . . . . . 33 .5 Issues About Converting Metadata Based On The Clusters in ection 3.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 I. Conclusion and Discussion . . . . . . . . . . . . . . . . . . . . . . . 41 IBLIOGRAPHY . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 | en |
dc.format.extent | 1618073 bytes | - |
dc.format.mimetype | application/pdf | - |
dc.language | en | en |
dc.language.iso | en_US | - |
dc.subject | 音樂情緒分類 | zh-TW |
dc.subject | 利用詮釋資料 | zh-TW |
dc.subject | 可適性融合 | zh-TW |
dc.subject | music emotion classification | en |
dc.subject | metadata exploitation | en |
dc.subject | adaptive fusion | en |
dc.title | 利用詮釋資料分類音樂情緒 | zh-TW |
dc.title | Exploiting Metadata for Music Emotion Classification | en |
dc.type | thesis | en |
dc.identifier.uri.fulltext | http://ntur.lib.ntu.edu.tw/bitstream/246246/188306/1/ntu-98-R96942052-1.pdf | - |
item.openairetype | thesis | - |
item.cerifentitytype | Publications | - |
item.grantfulltext | open | - |
item.fulltext | with fulltext | - |
item.languageiso639-1 | en_US | - |
item.openairecristype | http://purl.org/coar/resource_type/c_46ec | - |
顯示於: | 電信工程學研究所
|