強化學習如何做資料分析?新加坡國立等TKDE 2022綜述論文

強化學習如何做資料分析?新加坡國立等TKDE 2022綜述論文

新智元報道

【新智元導讀】

資料分析是現在必備的技能之一。傳統大多采用靜態演算法或者規則進行資料分析,但在現實場景中往往面臨的是複雜的互動環境中,如何學習更好的策略是個很實際的問題。幸運的是強化學習可以作為解決這種問題的一種有效方法。來自新加坡南洋理工大學的學者在TKDE發表了《深度強化學習資料處理與分析》的綜述論文,對最近的工作進行了全面的回顧,重點是利用DRL改進資料處理和分析。

資料處理和分析是基礎和普遍的。演算法在資料處理和分析中發揮著至關重要的作用,許多演算法設計都結合了啟發式和人類知識和經驗的一般規則,以提高其有效性。

近年來,強化學習,特別是深度強化學習(DRL)在許多領域得到了越來越多的探索和利用,因為與靜態設計的演算法相比,它可以在複雜的互動環境中學習更好的策略。受這一趨勢的推動,我們對最近的工作進行了全面的回顧,重點是利用DRL改進資料處理和分析。

首先,我們介紹了DRL中的關鍵概念、理論和方法。接下來,我們將討論DRL在資料庫系統上的部署,在各個方面促進資料處理和分析,包括資料組織、排程、調優和索引。

然後,我們調查了DRL在資料處理和分析中的應用,從資料準備、自然語言處理到醫療保健、金融科技等。

最後,我們討論了在資料處理和分析中使用DRL所面臨的重要挑戰和未來的研究方向。

強化學習如何做資料分析?新加坡國立等TKDE 2022綜述論文

論文連結:https://arxiv。org/abs/2108。04526

在大資料時代,資料處理和分析是基礎的、無處不在的,對於許多組織來說是至關重要的,這些組織正在進行數字化之旅,以改善和轉變其業務和運營。在提取洞察力之前,資料分析通常需要其他關鍵操作,如資料採集、資料清理、資料整合、建模等。

大資料可以在醫療保健和零售等許多行業釋放出巨大的價值創造。然而,資料的複雜性(例如,高容量、高速度和高多樣性)給資料分析帶來了許多挑戰,因此很難得出有意義的見解。為了應對這一挑戰,促進資料處理和分析的高效和有效,研究人員和實踐人員設計了大量的演算法和技術,也開發了大量的學習系統,如Spark MLlib和Rafiki。

為了支援快速的資料處理和準確的資料分析,大量的演算法依賴於基於人類知識和經驗開發的規則。例如,「最短作業優先」是一種排程演算法,它選擇執行時間最短的作業進行下一次執行。但在沒有充分利用工作負載特性的情況下,與基於學習的排程演算法相比,其效能較差。另一個例子是計算機網路中的包分類,它將一個包與一組規則中的一條規則進行匹配。一種解決方案是使用手工調整的啟發式分類來構造決策樹。具體來說,啟發式演算法是為一組特定的規則設計的,因此可能不能很好地工作於具有不同特徵的其他工作負載。

我們觀察到現有演算法的三個侷限性:

首先,演算法是次優的。諸如資料分佈之類的有用資訊可能會被忽略或未被規則充分利用。其次,演算法缺乏自適應能力。為特定工作負載設計的演算法不能在另一個不同的工作負載中很好地執行。第三,演算法設計是一個耗時的過程。開發人員必須花很多時間嘗試很多規則,以找到一個經驗有效的規則。

基於學習的演算法也被用於資料處理和分析。經常使用的學習方法有兩種:監督學習和強化學習。它們透過直接最佳化效能目標來實現更好的效能。監督學習通常需要一組豐富的高質量標註訓練資料,這可能是很難和具有挑戰性的獲取。例如,配置調優對於最佳化資料庫管理系統(DBMS)的整體效能非常重要。在離散和連續的空間中,可能有數百個調諧旋鈕相互關聯。此外,不同的資料庫例項、查詢工作負載和硬體特性使得資料收集變得不可用,尤其是在雲環境中。

與監督學習相比,強化學習具有較好的效能,因為它採用了試錯搜尋,並且需要更少的訓練樣本來找到雲資料庫的良好配置。

另一個具體的例子是查詢處理中的查詢最佳化。資料庫系統最佳化器的任務是為查詢找到最佳的執行計劃,以降低查詢成本。傳統的最佳化器通常列舉許多候選計劃,並使用成本模型來找到成本最小的計劃。最佳化過程可能是緩慢且不準確的。

在不依賴於不準確的成本模型的情況下,深度強化學習(DRL)方法透過與資料庫互動來改進執行計劃(例如,更改表連線順序)。

當查詢傳送給agent(即DRL最佳化器)時,代理透過對基本資訊(如訪問的關係和表)進行特徵化,生成狀態向量。agent以狀態為輸入,利用神經網路生成一個動作集的機率分佈,動作集可以包含所有可能的作為潛在動作的join操作。

每個操作表示一對錶上的部分連線計劃,一旦執行操作,狀態將被更新。在採取可能的行動之後,生成一個完整的計劃,然後由DBMS執行該計劃以獲得獎勵。

在這個查詢最佳化問題中,獎勵可以根據實際延遲計算。在有獎勵訊號的訓練過程中,agent可以改進策略,產生更高獎勵的更好的連線排序(即延遲更少)。

強化學習如何做資料分析?新加坡國立等TKDE 2022綜述論文

查詢最佳化的DRL工作流程

強化學習(RL)專注於學習在環境中做出智慧的行動。RL演算法在探索和開發的基礎上,透過環境反饋來改進自身。在過去的幾十年裡,RL在理論和技術方面都取得了巨大的進步。

值得注意的是,DRL結合了深度學習(DL)技術來處理複雜的非結構化資料,並被設計用於從歷史資料中學習和自我探索,以解決眾所周知的困難和大規模問題(如AlphaGo)。

近年來,來自不同社群的研究人員提出了DRL解決方案,以解決資料處理和分析中的問題。我們將現有的使用DRL的作品從系統和應用兩個角度進行分類。

從系統的角度來看,我們專注於基礎研究課題,從一般的,如排程,到系統特定的,如資料庫的查詢最佳化。我們還應當強調它是如何制定的馬爾可夫決策過程,並討論如何更有效地解決DRL問題與傳統方法相比。由於實際系統中的工作負載執行和資料採集時間比較長,因此採用了取樣、模擬等技術來提高DRL訓練效率。

從應用的角度來看,我們將涵蓋資料處理和資料分析中的各種關鍵應用,以提供對DRL的可用性和適應性的全面理解。許多領域透過採用DRL進行轉換,這有助於學習有關應用的領域特定知識。

在這次綜述中,我們的目標是提供一個廣泛和系統的回顧,在解決資料系統、資料處理和分析問題中使用DRL的最新進展。

強化學習如何做資料分析?新加坡國立等TKDE 2022綜述論文

RL技術分類

參考資料:

[1] J。 Manyika, M。 Chui, B。 Brown, J。 Bughin, R。 Dobbs, C。 Roxburgh, A。 Hung Byers et al。, Big data: The next frontier for innovation, competition, and productivity。 McKinsey Global Institute, 2011。

[2] X。 Meng, J。 Bradley, B。 Yavuz, E。 Sparks, S。 Venkataraman, D。 Liu, J。 Freeman, D。 Tsai, M。 Amde, S。 Owen et al。, “Mllib: Machine learning in apache spark,” The Journal of Machine Learning Research, vol。 17, no。 1, pp。 1235–1241, 2016。

[3] W。Wang, J。 Gao, M。 Zhang, S。Wang, G。 Chen, T。 K。 Ng, B。 C。 Ooi, J。 Shao, and M。 Reyad, “Rafiki: machine learning as an analytics service system,” VLDB, vol。 12, no。 2, pp。 128–140, 2018。

TAG: DRL資料處理演算法學習最佳化