指導教授:張瑞益臺灣大學:工程科學及海洋工程學研究所紀玟君Chi, Wen-ChunWen-ChunChi2014-11-252018-06-282014-11-252018-06-282014http://ntur.lib.ntu.edu.tw//handle/246246/260944動機:近年隨著巨量資料(Big Data)受到關注,各種解決方案隨之而生,平行運算(parallel computing)即為其一,本論文探討以詢問式學習法改良的粒子群最佳化(particle swarm optimization, PSO)演算法如何透過Hadoop MapReduce 架構達成平行化進行運算,用以改良其不擅處理巨量資料的缺點。 作法:本研究參考以詢問式學習法改良的PSO 演算法,此改良方法加入了含糊地帶的學習法則,提高粒子搜尋到真正解答的可能性,我們試圖將此演算法於MapReduce 架構上實現,為更有效發揮其平行運算的優勢而針對學習法則稍作修改,後以二維函數的實驗結果說明修改後的方法是否依然能引導粒子跳脫局部最佳解的困境,另實測實驗架構上的機器數量對執行效率的影響。 成果:實驗結果顯示,我們針對學習法則進行修改後,搭配適當的參數設置,演算法運行結果仍優於傳統的PSO 演算法,並且所運行的資料量越大時,平行運算架構所帶來的優勢越明顯。中文摘要 ii ABSTRACT iii 第1章 緒論 1 1.1 前言 1 1.2 研究背景與動機 1 1.3 論文架構 2 第2章 文獻探討 3 2.1 基本粒子群演算法 3 2.1.1 PSO 發展背景與概念 3 2.1.2 PSO 演算法理論 4 2.2 PSO 相關研究 6 2.2.1 PSO 收斂性相關探討 6 2.2.2 QBL-PSO 7 2.3 MapReduce 10 2.3.1 MapReduce 介紹 10 2.3.2 MRPSO 11 第3章 研究架構與設計 13 3.1 研究方法概念 13 3.2 MRPSO-QBL 14 3.2.1 MRPSO-QBL 求解過程 14 3.2.2 粒子打散規則 15 3.2.3 PSO 初始化參數 19 第4章 實驗結果與討論 20 4.1 實驗與評估方式說明 20 4.1.1 實驗方式 20 4.1.2 評估方式 20 4.2 測試資料說明 21 4.2.1 Rastrigin Function 22 4.2.2 Griewank Function 23 4.2.3 Michalewicz Function 24 4.3 實驗結果 25 4.3.1 實驗環境與設定說明 25 4.3.2 第一階段實驗 – 運行時間比較 27 4.3.3 第二階段實驗 – MRPSO-QBL 參數選擇 29 4.3.4 第三階段實驗 – QBL-PSO v.s. MRPSO-QBL 31 4.3.5 延伸實驗 34 第5章 結論與未來發展 36 5.1 結論與貢獻 36 5.2 未來展望 37 5.2.1 MapReduce 配置最佳化 37 5.2.2 高維度實現 37 5.2.3 加入子演化的設計 37 5.2.4 動態設置參數 38 5.3 總結 38 REFERENCES 39931895 bytesapplication/pdf論文使用權限:不同意授權粒子群演算法詢問式學習平行運算MapReduce使用MapReduce 之平行化詢問式粒子群演算法Parallel QBL-PSO Using MapReducethesishttp://ntur.lib.ntu.edu.tw/bitstream/246246/260944/1/ntu-103-R01525054-1.pdf