來自知乎的回答:
1. 分類問題中,輸出不僅僅只允許取兩個值,可以允許多個值,它是離散的;而在回歸問題中,輸出可取任意實數,是連續的。
2.
?分類和回歸的區別在于輸出變量的類型。
定量輸出稱為回歸,或者說是連續變量預測;
定性輸出稱為分類,或者說是離散變量預測。
舉個例子:
預測明天的氣溫是多少度,這是一個回歸任務;
預測明天是陰、晴還是雨,就是一個分類任務。
3:
分類基本上都是用“回歸模型”解決的,只是假設的模型不同(損失函數不一樣),因為不能把分類標簽當回歸問題的輸出來解決。比如,最小二乘擬合曲線與最小二乘二分類,單層logistc神經網擬合曲線與logistc回歸二分類,它們在設置上就是一些小trick。
來自 https://my.oschina.net/zzw922cn/blog/544221?p=1
本文主要介紹了回歸問題與分類問題的不同應用場景以及它們訓練算法的不同之處。
回歸與分類的不同
1.回歸問題的應用場景
回歸問題通常是用來預測一個值,如預測房價、未來的天氣情況等等,例如一個產品的實際價格為500元,通過回歸分析預測值為499元,我們認為這是一個比較好的回歸分析。一個比較常見的回歸算法是線性回歸算法(LR)。另外,回歸分析用在神經網絡上,其最上層是不需要加上softmax函數的,而是直接對前一層累加即可。回歸是對真實值的一種逼近預測。
2.分類問題的應用場景
分類問題是用于將事物打上一個標簽,通常結果為離散值。例如判斷一幅圖片上的動物是一只貓還是一只狗,分類通常是建立在回歸之上,分類的最后一層通常要使用softmax函數進行判斷其所屬類別。分類并沒有逼近的概念,最終正確結果只有一個,錯誤的就是錯誤的,不會有相近的概念。最常見的分類方法是邏輯回歸,或者叫邏輯分類。
(回歸的方法可以做分類,反之不行!)
邏輯回歸:y=sigmoid(w'x)
線性回歸:y=w'x
也就是邏輯回歸比線性回歸多了一個sigmoid函數,sigmoid(x)=1/(1+exp(-x)),其實就是對x進行歸一化操作,使得sigmoid(x)位于0~1
邏輯回歸通常用于二分類模型,目標函數是二類交叉熵,y的值表示屬于第1類的概率,用戶可以自己設置一個分類閾值。
線性回歸用來擬合數據,目標函數是平法和誤差
3.如何選擇模型
下面一幅圖可以告訴實際應用中我們如何選擇合適的模型。