the definition of transfer learning
Data
- Feature space
source domain和target domain特征空間的一致性 - Data availabilit
訓練階段,target domain數據集是否可用,是否充足 - Balanced data
每個類別之間數據量是否平衡 - Sequential data
數據是否為序列數據
Label
- Label availability
source domain和target domain的標簽是否可用 - Label space
兩個數據集之間類別是否一致
Taxonomy Different Views
By Data Distribution
- Inductive TL
- Transductive TL
- Unsupervised TL
By Methodology
-
Instance-based transfer
基于實例的遷移學習旨在通過特殊的加權方式,從source domain選擇部分實例作為target domain數據的補充。該方法基于假設,“盡管兩個domain是不同的領域,但是source domain中的部分實例仍然是可以被source domain以一定比例利用,用于提升模型效果”。
圖中亮藍色的source domain實例與target domain實例不相似,則應該被排除,而暗藍色與target domain相似,則應該以一定比例加入target domain進行訓練。
- Feature representation based transfer
- Asymmetric feature-based transfer learning
-
Symmetric feature-based transfer learning
source domain和target domain只有部分重疊的特征(大量的特征只出現在某一個domain中),通過學習一個好的特征表示來減少領域之間的偏差,最終減少學習誤差
基于對抗學習的深度遷移學習方法,旨在通過引入對抗學習技術來找到同時適合source domain和target domain的特征表示。該方法基于假設,“對于有效的遷移,良好的特征表示是對主要的學習任務具有區分性,而對于source domain和target domain不加區分“。
針對source domain的大量數據進行訓練的過程中,網絡的前面幾層可以看作特征抽取器。該特征抽取器抽取兩個domain的特征,然后輸入對抗網絡;對抗網絡嘗試對特征進行區分。如果對抗網絡對特征較難區分,則意味著兩個domain的特征區分性較小、具有很好的遷移性,反之亦然。
最近幾年,由于其良好的性能和實用性,基于對抗學習的深度遷移學習方法被廣泛的研究。
-
Parameter-based Transfer Learning Approaches
target domain和source domian的任務之間共享相同的模型參數(model parameters)或者是服從相同的先驗分布(prior distribution)
旨在重用在source domain預訓練的部分模型,包括網絡結構和連接參數。通過遷移部分預訓練模型的結構和參數來進行target domain的訓練。該方法基于假設,”神經網絡與人腦處理機制相似,它是一個迭代和連續的抽象過程。神經網絡的前面幾層可以被看作特征抽取器,其抽取的特征是豐富多樣的“。
-
Relational Transfer Learning Approaches
通過將source domain和target domain映射到一個新的數據空間。在這個新的數據空間中,來自兩個domain的實例相似且適用于聯合深度神經網絡。該方法基于假設,“盡管source domain和target domain不相同,但是在精心設計的新數據空間中,它們可以更相似“。
- Hybrid-based (instance and parameter) transfer learning
Domain characteristics
- Homogeneous feature spaces and label spaces
特征空間和label空間相同,但是數據分布不同(過去1年的數據,最近三個月的數據)。- Labelled Target Dataset
- Labelled Plus Unlabelled Target Dataset
- Unlabelled Target Dataset
- Imbalanced Unlabelled Target Dataset
- Sequential Labelled Target Data
- Sequential Unlabelled Target Data
- Unavailable Target Data
- Heterogeneous label spaces
特征空間相同,label空間不同(不同的task,feature空間相同,label不同)。舉個例子:匹配任務中,包含query和answer,對query執行NLU意圖識別,可以得到意圖標簽,最終我們可以通過multi-task對模型進行訓練。- Labelled Target Dataset
- Unlabelled Target Dataset
- Sequential Labelled Target Data
- Unavailable Target Data
- Unlabelled Source Dataset
- Heterogeneous feature spaces
label空間相同,特征空間不同(服裝評論、美妝評論,domain不同,label相同)。舉個例子:不同行業的匹配任務,最終的目標都是判斷是否相似(0或者1),但是不同行業的特征空間是不同的。- Labelled Target Dataset
- Labelled Plus Unlabelled Target Dataset
- Unlabelled Target Dataset
- Heterogeneous feature spaces and label spaces
特征空間和label空間均不同(服裝行業、美妝行業)。舉個例子:不同行業的分類任務,特征空間不同,label空間同樣不同。- Labelled Target Dataset
- Sequential Labelled Target Data
By Scene and algorithm
- General Transfer Learning
- Domain Adaptation
- Domain Generalization
- Multi-source Transfer Learning
- Zero-shot / Few-shot Learning
- Deep Transfer Learning
- Multi-task Learning
- Transfer Reinforcement Learning
- Transfer Metric Learning
- Transitive Transfer Learning
- Lifelong Learning
- Negative Transfer
Conclusion
未來的研究中,有幾個問題需要被重點研究。
首先,如何避免負遷移是一個公開的問題。大部分遷移學習算法假設source domain和target domain在某些場景存在相關性;一旦該假設不成立,就有可能在實驗的過程中產生負遷移,結果就是遷移的效果比不遷移還要差。因此如果確保不會產生負遷移是遷移學習領域的一個非常重要的問題。為了避免負遷移的發生,在實驗初期我們應該研究source domain、source task、target domain和target task之間的可遷移性?;谶m當的遷移測試,選擇相關source domain和task來抽取知識進行target task學習。為了定義domain和task之間的可遷移性,我們也需要定義domain之間或者task之間相似性標準?;诰嚯x的度量,我們可以對domain或者task進行聚類,這可能會對遷移性測量帶來幫助。一個相關的問題是,如果整個domain不適合做遷移時,我們是否可以利用其中的部分知識進行遷移?
其次,大部分遷移學習算法都關注于當source domain和target domain具有不同分布時,如何提升模型的泛化性。為了實現該想法,我們假設source domain和target domain之間的特征空間是相同的;然而,在大量的實際應用中,我們可能希望對不同特征空間的domain進行遷移,我們常叫該類算法為異構遷移學習。
遷移學習被歸納為4類:基于實例的深度遷移學習、基于映射的遷移學習、基于網絡的遷移學習和基于對抗的遷移學習。在大部分實際應用中,上述方法被組合應用以獲得更好的模型性能。當前大量的遷移學習研究都關注于有監督學習領域,未來深度學習在無監督和半監督領域可能會受到越來越多的關注。在傳統遷移學習算法中,負遷移和遷移學習衡量方式是一個非常關鍵的問題,這也是在深度遷移學習中需要我們更加關注的研究。可以預見,隨著深度學習的快速發展,深度遷移學習將會被廣泛的應用在一些具有挑戰性的課題上。
參考文獻
- A Survey on Deep Transfer Learning
- Domain adversarial neural networks
- A Survey on Transfer Learning