綜述:遷移學習發展現狀及未來趨勢

the definition of transfer learning

Data
  • Feature space
    source domain和target domain特征空間的一致性
  • Data availabilit
    訓練階段,target domain數據集是否可用,是否充足
  • Balanced data
    每個類別之間數據量是否平衡
  • Sequential data
    數據是否為序列數據
Label
  • Label availability
    source domain和target domain的標簽是否可用
  • Label space
    兩個數據集之間類別是否一致

Taxonomy Different Views

By Data Distribution
  • Inductive TL
  • Transductive TL
  • Unsupervised TL
By Methodology
  • Instance-based transfer
    基于實例的遷移學習旨在通過特殊的加權方式,從source domain選擇部分實例作為target domain數據的補充。該方法基于假設,“盡管兩個domain是不同的領域,但是source domain中的部分實例仍然是可以被source domain以一定比例利用,用于提升模型效果”。



    圖中亮藍色的source domain實例與target domain實例不相似,則應該被排除,而暗藍色與target domain相似,則應該以一定比例加入target domain進行訓練。

  • Feature representation based transfer
    • Asymmetric feature-based transfer learning
    • Symmetric feature-based transfer learning
      source domain和target domain只有部分重疊的特征(大量的特征只出現在某一個domain中),通過學習一個好的特征表示來減少領域之間的偏差,最終減少學習誤差
      基于對抗學習的深度遷移學習方法,旨在通過引入對抗學習技術來找到同時適合source domain和target domain的特征表示。該方法基于假設,“對于有效的遷移,良好的特征表示是對主要的學習任務具有區分性,而對于source domain和target domain不加區分“。



      針對source domain的大量數據進行訓練的過程中,網絡的前面幾層可以看作特征抽取器。該特征抽取器抽取兩個domain的特征,然后輸入對抗網絡;對抗網絡嘗試對特征進行區分。如果對抗網絡對特征較難區分,則意味著兩個domain的特征區分性較小、具有很好的遷移性,反之亦然。
      最近幾年,由于其良好的性能和實用性,基于對抗學習的深度遷移學習方法被廣泛的研究。

  • Parameter-based Transfer Learning Approaches
    target domain和source domian的任務之間共享相同的模型參數(model parameters)或者是服從相同的先驗分布(prior distribution)
    旨在重用在source domain預訓練的部分模型,包括網絡結構和連接參數。通過遷移部分預訓練模型的結構和參數來進行target domain的訓練。該方法基于假設,”神經網絡與人腦處理機制相似,它是一個迭代和連續的抽象過程。神經網絡的前面幾層可以被看作特征抽取器,其抽取的特征是豐富多樣的“。


  • Relational Transfer Learning Approaches
    通過將source domain和target domain映射到一個新的數據空間。在這個新的數據空間中,來自兩個domain的實例相似且適用于聯合深度神經網絡。該方法基于假設,“盡管source domain和target domain不相同,但是在精心設計的新數據空間中,它們可以更相似“。


  • Hybrid-based (instance and parameter) transfer learning
Domain characteristics
  • Homogeneous feature spaces and label spaces
    特征空間和label空間相同,但是數據分布不同(過去1年的數據,最近三個月的數據)。
    • Labelled Target Dataset
    • Labelled Plus Unlabelled Target Dataset
    • Unlabelled Target Dataset
    • Imbalanced Unlabelled Target Dataset
    • Sequential Labelled Target Data
    • Sequential Unlabelled Target Data
    • Unavailable Target Data
  • Heterogeneous label spaces
    特征空間相同,label空間不同(不同的task,feature空間相同,label不同)。舉個例子:匹配任務中,包含query和answer,對query執行NLU意圖識別,可以得到意圖標簽,最終我們可以通過multi-task對模型進行訓練。
    • Labelled Target Dataset
    • Unlabelled Target Dataset
    • Sequential Labelled Target Data
    • Unavailable Target Data
    • Unlabelled Source Dataset
  • Heterogeneous feature spaces
    label空間相同,特征空間不同(服裝評論、美妝評論,domain不同,label相同)。舉個例子:不同行業的匹配任務,最終的目標都是判斷是否相似(0或者1),但是不同行業的特征空間是不同的。
    • Labelled Target Dataset
    • Labelled Plus Unlabelled Target Dataset
    • Unlabelled Target Dataset
  • Heterogeneous feature spaces and label spaces
    特征空間和label空間均不同(服裝行業、美妝行業)。舉個例子:不同行業的分類任務,特征空間不同,label空間同樣不同。
    • Labelled Target Dataset
    • Sequential Labelled Target Data
By Scene and algorithm
  • General Transfer Learning
  • Domain Adaptation
  • Domain Generalization
  • Multi-source Transfer Learning
  • Zero-shot / Few-shot Learning
  • Deep Transfer Learning
  • Multi-task Learning
  • Transfer Reinforcement Learning
  • Transfer Metric Learning
  • Transitive Transfer Learning
  • Lifelong Learning
  • Negative Transfer

Conclusion

未來的研究中,有幾個問題需要被重點研究。
首先,如何避免負遷移是一個公開的問題。大部分遷移學習算法假設source domain和target domain在某些場景存在相關性;一旦該假設不成立,就有可能在實驗的過程中產生負遷移,結果就是遷移的效果比不遷移還要差。因此如果確保不會產生負遷移是遷移學習領域的一個非常重要的問題。為了避免負遷移的發生,在實驗初期我們應該研究source domain、source task、target domain和target task之間的可遷移性?;谶m當的遷移測試,選擇相關source domain和task來抽取知識進行target task學習。為了定義domain和task之間的可遷移性,我們也需要定義domain之間或者task之間相似性標準?;诰嚯x的度量,我們可以對domain或者task進行聚類,這可能會對遷移性測量帶來幫助。一個相關的問題是,如果整個domain不適合做遷移時,我們是否可以利用其中的部分知識進行遷移?
其次,大部分遷移學習算法都關注于當source domain和target domain具有不同分布時,如何提升模型的泛化性。為了實現該想法,我們假設source domain和target domain之間的特征空間是相同的;然而,在大量的實際應用中,我們可能希望對不同特征空間的domain進行遷移,我們常叫該類算法為異構遷移學習。
遷移學習被歸納為4類:基于實例的深度遷移學習、基于映射的遷移學習、基于網絡的遷移學習和基于對抗的遷移學習。在大部分實際應用中,上述方法被組合應用以獲得更好的模型性能。當前大量的遷移學習研究都關注于有監督學習領域,未來深度學習在無監督和半監督領域可能會受到越來越多的關注。在傳統遷移學習算法中,負遷移和遷移學習衡量方式是一個非常關鍵的問題,這也是在深度遷移學習中需要我們更加關注的研究。可以預見,隨著深度學習的快速發展,深度遷移學習將會被廣泛的應用在一些具有挑戰性的課題上。

參考文獻

  • A Survey on Deep Transfer Learning
  • Domain adversarial neural networks
  • A Survey on Transfer Learning
最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 227,488評論 6 531
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 98,034評論 3 414
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 175,327評論 0 373
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 62,554評論 1 307
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 71,337評論 6 404
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 54,883評論 1 321
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 42,975評論 3 439
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,114評論 0 286
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 48,625評論 1 332
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 40,555評論 3 354
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 42,737評論 1 369
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,244評論 5 355
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 43,973評論 3 345
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,362評論 0 25
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 35,615評論 1 280
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,343評論 3 390
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 47,699評論 2 370