重新考察曲線擬合問題

局限性

從概率的角度看多項(xiàng)式曲線擬合。

我們要假定:給定x的值,對(duì)應(yīng)的t值服從高斯分布,分布的均值為y(x,w)

我們現(xiàn)在使用訓(xùn)練數(shù)據(jù){x, t},通過最大似然方法,來決定參數(shù)w\beta的值,似然函數(shù)為:


對(duì)數(shù)似然函數(shù)為:

通過略去最后兩項(xiàng),因?yàn)樗鼈兒?img class="math-inline" src="https://math.jianshu.com/math?formula=w" alt="w" mathimg="1">無關(guān),以及便于數(shù)學(xué)計(jì)算進(jìn)行數(shù)字代換后:


為精度參數(shù)。

我們又一次:
首先確定控制均值的參數(shù)向量w_{ML},然后使用這個(gè)結(jié)果來尋找精度\beta_{ML}

已經(jīng)確定了w\beta,那么我們可以對(duì)新的x值進(jìn)行預(yù)測(cè)。
預(yù)測(cè)分布通過最大似然參數(shù)代入公式給出:

現(xiàn)在我們朝著貝葉斯的方向前進(jìn)一步,引入在多項(xiàng)式系數(shù)w上的先驗(yàn)分布:


其中是分布的精度,是對(duì)于階多項(xiàng)式的向量的元素的總數(shù)。使用貝葉斯定理,的后驗(yàn)概率正比于先驗(yàn)分布和似然函數(shù)的乘積:

因此,給定數(shù)據(jù)集,我們現(xiàn)在通過尋找最可能的值(即最大化后驗(yàn)概率)來確定,這種技術(shù)被稱為最大后驗(yàn),簡(jiǎn)稱MAP。

因此最大化后驗(yàn)概率就是最小化下式:


因此正則化參數(shù)就是:\lambda = \frac{\alpha}{\beta}

1.2.6貝葉斯曲線擬合

在曲線擬合中,我們知道訓(xùn)練數(shù)據(jù)xt,對(duì)于一個(gè)新的測(cè)試點(diǎn)x_1,我們想預(yù)測(cè)出t_1,因此我們想估計(jì)預(yù)測(cè)分布:p(t|x1, x, t),因此簡(jiǎn)單的說,貝葉斯分布就是使用概率的加和規(guī)則和乘積規(guī)則,將概率預(yù)測(cè)寫成以下形式:


其中:

通過解析求解,預(yù)測(cè)分布的高斯形式為:


其中,均值和方差分別為:

這里矩陣S由下式給出:

其中為單位矩陣。

1.3 模型選擇

在許多實(shí)際應(yīng)用中,訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)都是有限的,為了簡(jiǎn)歷更好地模型,我們想盡可能多的可得到的數(shù)據(jù)進(jìn)行訓(xùn)練。解決這種困境的方法就是使用交叉驗(yàn)證。

這種方法能夠讓可得到的數(shù)據(jù)的\frac{s-1}{s}用于訓(xùn)練,同時(shí)使用所有的數(shù)據(jù)來評(píng)估表現(xiàn),當(dāng)數(shù)據(jù)比較稀疏的時(shí)候,考慮S=N的情況很合適,其中N是數(shù)據(jù)點(diǎn)的總數(shù),這種方法叫作“留一法”。

交叉驗(yàn)證的一個(gè)缺點(diǎn)是:需要訓(xùn)練的次數(shù)隨著S的增加而增加,這對(duì)于訓(xùn)練本身很耗時(shí)的問題來說是個(gè)大問題。因此我們需要找到一種模型表現(xiàn)的度量,它只依賴于訓(xùn)練數(shù)據(jù),并且不會(huì)由于過擬合產(chǎn)生偏移的問題。

增加一個(gè)懲罰項(xiàng)來補(bǔ)償過于復(fù)雜的模型造成的過擬合。

例如:赤池信息準(zhǔn)則(AIC)


其中,p(D|w_{ML})是最合適的對(duì)數(shù)似然函數(shù),M是模型中可調(diào)節(jié)參數(shù)的數(shù)量。這個(gè)量是一個(gè)變體,被稱為貝葉斯信息準(zhǔn)則(BIC)。

1.4維度災(zāi)難



通過上升維度的方法進(jìn)行點(diǎn)標(biāo)簽的劃分存在很多問題:
如果我們把空間的區(qū)域劃分為一個(gè)個(gè)的單元格,那么這些單元格的數(shù)量會(huì)隨著空間的維數(shù)以指數(shù)的形式增大。

指數(shù)級(jí)遞增!

我們?cè)谌S空間中建立的幾何直覺會(huì)在考慮高維空間時(shí)不起作用。例如,考慮D維空間的一個(gè)半徑r = 1的球體,請(qǐng)問,位于半徑r = 1- ?和半徑r = 1之間的部分占球的總體積的百分比是多少?我們注意到,D維空間的半徑為r的球體的體積一定是r^D的倍數(shù),因此我們有:


其中常數(shù)值依賴于。因此我們要求解的體積比就是:


結(jié)合上圖發(fā)現(xiàn):

在高維空間中,一個(gè)球體的大部分體積都聚集在表面附近的薄球殼上。


image.png

高維空間產(chǎn)生的這種困難被稱為維度災(zāi)難。因此需要注意的是:不是所有在低維空間的直覺都可以推廣到高維空間。

雖然維度災(zāi)難在模式識(shí)別應(yīng)用中是一個(gè)重要的問題,但是它并不能阻止我們尋找高維空間的有效技術(shù)。原因有兩個(gè)方面:
1.真實(shí)的數(shù)據(jù)經(jīng)常被限制在有著較低的有效維度的空間內(nèi),特別地,在目標(biāo)值發(fā)生重要變化的方向上也會(huì)有這種限制。
2.真實(shí)數(shù)據(jù)往往比較光滑,因此在大多數(shù)情況下,對(duì)于輸入變量微小的變化,目標(biāo)值的改變也很小,因此對(duì)于新的輸入變量,我們可以通過局部的類似插值的技術(shù)來進(jìn)行預(yù)測(cè)。

1.5 決策論

我們已經(jīng)在1.2節(jié)中看到了概率論是如何提供給我們一個(gè)自始至終的數(shù)學(xué)框架來量化和計(jì)算不確定性。當(dāng)決策論與概率論結(jié)合起來的時(shí)候,我們能夠在不確定性的情況下做出最優(yōu)的決策。

假設(shè)我們有一個(gè)輸入向量x和對(duì)應(yīng)的目標(biāo)值向量t,我們的目標(biāo)就是對(duì)于一個(gè)新的x值,預(yù)測(cè)t

決策論的主題:在給定合適的概率的前提下,如何進(jìn)行最優(yōu)的決策。

利用貝葉斯定理:


注意:出現(xiàn)在貝葉斯定理中的任意一個(gè)量都可以從聯(lián)合分布中得到,要么通過積分的形式,要么通過關(guān)于某個(gè)合適的變量求條件概率。我們現(xiàn)在把稱為類的先驗(yàn)概率, 把稱為對(duì)應(yīng)的后驗(yàn)概率。

1.5.1 最小化錯(cuò)誤分類率

我們的目標(biāo)很簡(jiǎn)單:盡可能少地作出錯(cuò)誤的分類。我們需要一個(gè)規(guī)則將每個(gè)x的值劃分到一個(gè)合適的類別,這種規(guī)則將輸入空間切分成不同的區(qū)域R_k,這種區(qū)域被稱為決策區(qū)域。決策區(qū)域間的邊界被稱為決策邊界或者決策面。
我們把C_1錯(cuò)誤分為C_2的概率為:

很明顯,為了最小化p(mistake),我們對(duì)于x的分類結(jié)果應(yīng)該讓上式的被積函數(shù)盡量小,因此,對(duì)于給定的x值,如果p(x, C_1) > p(x, C_2),那么我們就把x分到類別C_1中。根據(jù)概率的乘積規(guī)則,我們有p(x, C_k) = p(C_k|x)p(x)

因此我們可以這樣表述:
如果我們把每個(gè)x分配到后驗(yàn)概率p(C_k|x)最大的類別中,那么我們分類錯(cuò)誤的概率就會(huì)最小。

對(duì)于更一般的K類的情形,最大化正確率會(huì)稍微簡(jiǎn)單一些,即最大化下式:


當(dāng)區(qū)域R_k的選擇使得每個(gè)x都被分到使p(x, C_k)最大的類別中,上式取得最大值。再一次使用乘積規(guī)則p(x, C_k) = p(C_k|x)p(x),并且注意到因子p(x)對(duì)于所有項(xiàng)都相同,我們可以看到每個(gè)x都應(yīng)該被分到有著最大后驗(yàn)概率p(C_k|x)的類別中。

1.5.2最小化期望損失

對(duì)于不同的實(shí)際問題,我們對(duì)于錯(cuò)誤的容忍度不同。我們可以通過損失函數(shù)來形式化的描述這些問題,損失函數(shù)也被稱為代價(jià)函數(shù),是對(duì)于所有可能的決策或者動(dòng)作可能產(chǎn)生的損失的一種整體的度量。


這個(gè)特別的損失矩陣表明,如果我們做出了正確的決策,那么不會(huì)造成損失。如果健康人被診斷為患有癌癥,那么損失為1。但是如果一個(gè)患有癌癥的病人被診斷為健康,那么損失為1000。

最優(yōu)解是使損失函數(shù)最小的解。但是損失函數(shù)依賴于真實(shí)的類別,這是未知的,對(duì)于一個(gè)給定的歌輸入向量x,我們對(duì)于真實(shí)類別的不確定性通過聯(lián)合概率分布p(x, C_k)表示。因此,我們轉(zhuǎn)而去最小化平均損失,平均損失根據(jù)這個(gè)聯(lián)合概率分布計(jì)算,定義為:

每一個(gè)x可以被獨(dú)立地分到?jīng)Q策區(qū)域R_j中,我們的目標(biāo)是選擇區(qū)域R_j,來最小化區(qū)域R_j。這表明,對(duì)于每個(gè)x,我們要最小化\sum_kL_{kj}p(x, C_k),和之前一樣我們可以使用乘積規(guī)則p(x,C_k) = p(C_k|x)p(x)來消除共同因子p(x)。因此,最小化期望損失的決策規(guī)則是對(duì)于每個(gè)新的x,把它分到能使下式取得最小值的第j類:

一旦我們知道了后驗(yàn)概率p(C_k|x)后,這件事就很容易了。

1.5.3 拒絕選項(xiàng)

例如:在醫(yī)療例子中,一種合適的做法是:使用自動(dòng)化系統(tǒng)來對(duì)那些毫無疑問的X光片進(jìn)行分類,然后把不容易分類的X光片留給人類的專家。我們可以使用以下方式實(shí)現(xiàn)這個(gè)目的:

引入一個(gè)閾值\theta,拒絕后驗(yàn)概率p(C_k|x)的最大值小于等于\theta的那些輸入x

注意:令\theta = 1會(huì)使所有樣本被拒絕,而如果有K個(gè)類別,那么令\theta < \frac{1}{K}將會(huì)確保沒有樣本被拒絕,因此被拒絕的樣本比例由\theta的值控制。

1.5.4 推斷和決策

我們已經(jīng)把分類問題劃分了兩個(gè)階段:
推斷階段和決策階段。

  • 推斷階段:使用訓(xùn)練數(shù)據(jù)學(xué)習(xí)p(C_k|x)
  • 決策階段:使用后驗(yàn)概率來進(jìn)行最優(yōu)的分類

另一種可能的方法是同時(shí)解決兩個(gè)問題,即簡(jiǎn)單地學(xué)習(xí)一個(gè)函數(shù),將輸入x直接映射為決策,這樣的函數(shù)被稱為判別函數(shù)。

事實(shí)上,我們可以區(qū)分出三種不同的方法來解決決策問題,這三種方法都已經(jīng)在實(shí)際問題中被采用,這三種方法按照復(fù)雜度降低的順序給出:
(a)首先對(duì)于每個(gè)類別C_k,獨(dú)立地確定類條件密度p(x|C_k)。這是一個(gè)推斷問題,然后,推斷先驗(yàn)類概率p(C_k),之后,使用貝葉斯定理:


求出后驗(yàn)概率,和往常一樣,貝葉斯定理的分母可以用分子中出現(xiàn)的項(xiàng)表示,因?yàn)椋?div id="y5aoc5w" class="image-package">

等價(jià)地,我們可以直接對(duì)聯(lián)合概率分布p(x,C_k)建模,然后歸一化,得到后驗(yàn)概率,得到后驗(yàn)概率后,我們可以使用決策論來確定每個(gè)新的輸入x的類別,顯式地或者隱式地對(duì)輸入以及輸出進(jìn)行建模的方法被稱為生成式模型。

(b)首先解決確定后驗(yàn)類密度p(C_k|x)這一推斷問題,接下來使用決策論來對(duì)新的輸入x進(jìn)行分類。這種直接對(duì)后驗(yàn)概率建模的方法被稱為判別式模型。

(c)找到一個(gè)函數(shù)f(x),被稱為判別函數(shù),這個(gè)函數(shù)把每個(gè)輸入x直接映射為類別標(biāo)簽,這種情況下,概率不起作用。

讓我們考慮一下這三種算法的相對(duì)優(yōu)勢(shì)。算法(a)需要求解的東西最多,因?yàn)樗婕暗綄ふ以?img class="math-inline" src="https://math.jianshu.com/math?formula=x" alt="x" mathimg="1">和C_k上的聯(lián)合概率分布。對(duì)于許多應(yīng)用,x的維度很高,這會(huì)導(dǎo)致我們需要達(dá)量的訓(xùn)練數(shù)據(jù)才能在合理的精度下確定類條件概率密度。注意,先驗(yàn)概率p(C_k)經(jīng)常能夠根據(jù)訓(xùn)練數(shù)據(jù)集里的每個(gè)類別的數(shù)據(jù)點(diǎn)所占的比例簡(jiǎn)單地估計(jì)出來。但是,方法(a)的一個(gè)優(yōu)點(diǎn)是,它能夠通過公式(1.83)求出數(shù)據(jù)的邊緣概率密度p(x)。這對(duì)于檢測(cè)模型中具有低概率的新數(shù)據(jù)點(diǎn)很有用,對(duì)于這些點(diǎn),模型的預(yù)測(cè)準(zhǔn)確率可能會(huì)很低。這種技術(shù)被稱為離群點(diǎn)檢測(cè)(outlier detection)或者異常檢測(cè)(novelty detection)(Bishop, 1994; Tarassenko, 1995)。
然而,如果我們只想進(jìn)行分類的決策,那么這種算法會(huì)浪費(fèi)計(jì)算資源。并且,實(shí)際上我們只是想求出后驗(yàn)概率p(C_k|x)(可以直接通過方法(b)求出),但是為了求出它,這種算法需要大量的數(shù)據(jù)來尋找聯(lián)合概率p(x,C_k)。事實(shí)上,類條件密度可能包含很多對(duì)于后驗(yàn)概率幾乎沒有影響的結(jié)構(gòu),如圖1.27所示。

關(guān)于機(jī)器學(xué)習(xí)中的生成式算法和判別式算法的相對(duì)優(yōu)勢(shì),以及如何將兩者結(jié)合,有很多研究成果(Jebara, 2004; Lasserre et al., 2006)。
對(duì)于方法(c),我們把推斷階段和決策階段結(jié)合到一個(gè)學(xué)習(xí)問題中了。在圖1.27給出的例子中,這對(duì)應(yīng)于綠色豎直線給出的x的值,因?yàn)檫@是給出最小錯(cuò)誤分類概率的決策邊界。
但是,使用方法(c),我們不在能夠接觸到后驗(yàn)概率p(C_k|x)

有很多強(qiáng)烈的理由需要計(jì)算后驗(yàn)概率,即使我們接下來要使用后驗(yàn)概率來進(jìn)行決策。這些理由包括:
1.最小化風(fēng)險(xiǎn):如果我們只有一個(gè)判別規(guī)則,那么損失矩陣的任何改變都需要我們返回訓(xùn)練數(shù)據(jù),重新分類解決問題。
2.拒絕選項(xiàng):后驗(yàn)概率讓我們能夠確定最小化誤分類的拒絕標(biāo)準(zhǔn),或者在更一般的情況下確定最小化期望損失的拒絕標(biāo)準(zhǔn)。
3.補(bǔ)償類先驗(yàn)概率
4.組合模型:對(duì)于更復(fù)雜的模型來說,我們可能希望把問題分解為若干個(gè)小的子問題,只要兩個(gè)模型都給出類別的后驗(yàn)概率,我們就能夠使用概率的規(guī)則系統(tǒng)化地輸出,完成這個(gè)步驟的前提是假設(shè)X光盤和血液類型的分布是獨(dú)立的,因此:



后驗(yàn)概率為:


因此我們需要先求出類先驗(yàn)概率p(C_k),這可以通過估計(jì)每個(gè)類別的數(shù)據(jù)點(diǎn)所占的比例很容易地得到,之后我們需要對(duì)后驗(yàn)概率歸一化,使得后驗(yàn)概率之和等于1,注意,聯(lián)合邊緣分布p(x_I, x_B)在這個(gè)模型下通常不會(huì)被分解

1.5.5 回歸問題的損失函數(shù)

決策階段包括對(duì)每個(gè)輸入x,選擇一個(gè)對(duì)于t值的具體的估計(jì)y(x),假設(shè)這樣做了以后,我們?cè)斐闪艘粋€(gè)損失L(t, y(x)),,平均損失就是:

回歸問題中,損失函數(shù)的一個(gè)通常的選擇是平方損失,定義為:L(t, y(x)) ={y(x) - t}^2,這種情況下,期望損失函數(shù)可以寫成:

我們的目標(biāo)是選擇y(x)來最小化E[L],如果我們假設(shè)一個(gè)完全任意的函數(shù)y(x),我們能夠形式化的使用變分法求解:

求解y(x),使用概率的加和規(guī)則和乘積規(guī)則,我們得到:

這是在x的條件下t的條件均值,被稱為回歸函數(shù)(regression function)。結(jié)果如圖1.28所示。這個(gè)結(jié)果可以擴(kuò)展到多個(gè)目標(biāo)變量(用向量t)的情形。這種情況下,最優(yōu)解是條件均值y(x) = E_t[t |x]

換一種方式推導(dǎo):


為了不讓符號(hào)過于復(fù)雜,使用來表示,從而得到損失函數(shù):

我們尋找的函數(shù)y(x)只出現(xiàn)在第一項(xiàng)中。當(dāng)y(x)等于E[t|x]時(shí)第一項(xiàng)取得最小值,這時(shí)第一項(xiàng)
會(huì)被消去。這正是我們之前推導(dǎo)的結(jié)果,表明最優(yōu)的最小平方預(yù)測(cè)由條件均值給出。第二項(xiàng)是t的分布的方差,在x上進(jìn)行了平均。它表示目標(biāo)數(shù)據(jù)內(nèi)在的變化性,可以被看成噪聲。由于
它與y(x)無關(guān),因此它表示損失函數(shù)的不可減小的最小值。

三種解決回歸問題的方法:
(a)首先解決確定聯(lián)合概率密度p(x, t)的推斷問題。之后,計(jì)算條件概率密度p(t|x)。最
后,使用公式(1.89)積分,求出條件均值。
(b) 首先解決確定條件概率密度p(t|x)的推斷問題。之后使用公式(1.89)計(jì)算條件均值。
(c) 直接從訓(xùn)練數(shù)據(jù)中尋找一個(gè)回歸函數(shù)y(x)

介紹一種平方損失函數(shù)的推廣叫作閔可夫斯基損失函數(shù)(Minkowski loss):



當(dāng)時(shí),這個(gè)函數(shù)就變成了平方損失函數(shù)的期望,的最小值是條件均值,當(dāng)時(shí),的最小值是條件中位數(shù),當(dāng)時(shí),的最小值是條件眾數(shù)。

1.6信息論

我們對(duì)于信息的度量依賴于概率分布p(x),因此我們想要尋找一個(gè)函數(shù)h(x),它是概率p(x)的單調(diào)遞增函數(shù),表達(dá)了信息的內(nèi)容。

如果我們有兩個(gè)不相關(guān)的事件xy,那么我們觀察到的兩個(gè)事件同時(shí)發(fā)生的時(shí)獲得的信息應(yīng)該等于觀察到事件各自發(fā)生所獲得的信息之和。因此:


依據(jù)這兩個(gè)關(guān)系:


其中負(fù)號(hào)是為了保證信息一定是正數(shù)或者0,注意:低概率事件x對(duì)應(yīng)于高的信息量,對(duì)數(shù)的選擇是任意的,h(x)的單位是比特。

現(xiàn)在假設(shè)一個(gè)發(fā)送者想傳輸?個(gè)隨機(jī)變量的值給接收者。這個(gè)過程中,他們傳輸?shù)钠骄畔⒘客梢酝ㄟ^求公式(1.92)關(guān)于概率分布p(x)的期望得到。這個(gè)期望值為:

這個(gè)重要的量被叫做隨機(jī)變量x的熵,注意:

我覺得這里對(duì)熵概念的推導(dǎo)真的很妙!總之:



如果分布p(x_i)在幾個(gè)值周圍有尖銳的峰值,熵就會(huì)相對(duì)較低,如果分布p(x_i)相對(duì)平衡地跨過許多值,那么熵就會(huì)相對(duì)較高。

由于0< p_i < 1,因此熵是非負(fù)的。當(dāng)p_i = 1且所有其他的p_{j != i} = 0時(shí),熵取得最小值0。在概率歸一化的限制下,使用拉格朗日乘數(shù)法可以找到熵的最小值。因此,我們要最大化


證明過程后面過一遍!

1.6.1 相對(duì)熵與互信息

把熵的思想應(yīng)用到模式識(shí)別的問題中去,考慮某個(gè)未知的分布p(x),假定我們已經(jīng)使用了一個(gè)近似的分布q(x)對(duì)它進(jìn)行了建模。如果我們使用q(x)來建立一個(gè)編碼體系,用來將x的值傳遞給接受者,那么由于我們使用了q(x)而不是真是分布p(x),因此在具體化x的值時(shí),我們需要一些附加的信息。

凸函數(shù)的性質(zhì)可以表示為:


凸函數(shù)滿足:


因此互信息表示一個(gè)新的觀測(cè)y造成的x的不確定性的減少。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 227,572評(píng)論 6 531
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 98,071評(píng)論 3 414
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 175,409評(píng)論 0 373
  • 文/不壞的土叔 我叫張陵,是天一觀的道長(zhǎng)。 經(jīng)常有香客問我,道長(zhǎng),這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 62,569評(píng)論 1 307
  • 正文 為了忘掉前任,我火速辦了婚禮,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 71,360評(píng)論 6 404
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 54,895評(píng)論 1 321
  • 那天,我揣著相機(jī)與錄音,去河邊找鬼。 笑死,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 42,979評(píng)論 3 440
  • 文/蒼蘭香墨 我猛地睜開眼,長(zhǎng)吁一口氣:“原來是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 42,123評(píng)論 0 286
  • 序言:老撾萬榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個(gè)月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 48,643評(píng)論 1 333
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 40,559評(píng)論 3 354
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 42,742評(píng)論 1 369
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,250評(píng)論 5 356
  • 正文 年R本政府宣布,位于F島的核電站,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 43,981評(píng)論 3 346
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,363評(píng)論 0 25
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)。三九已至,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 35,622評(píng)論 1 280
  • 我被黑心中介騙來泰國(guó)打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 51,354評(píng)論 3 390
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像,于是被迫代替她去往敵國(guó)和親。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 47,707評(píng)論 2 370

推薦閱讀更多精彩內(nèi)容