自然語言大模型介紹

1 簡介

最近一直被大語言模型刷屏。本文是周末技術分享會的提綱,總結了一些自然語言模型相關的重要技術,以及各個主流公司的研究方向和進展,和大家共同學習。

2 Transformer

目前的大模型基本都是Transformer及其變種。本部分將介紹Transformer基礎模型及其主要變種。

2.1 Transformer模型

Transformer是一種基于自注意力機制的模型,由Encoder和Decoder兩部分組成。
下圖是精典論文《Attention is all you need》中展示的模型結構圖,左邊是Encoder,右邊是Decoder,

在Transformer中,Encoder將輸入序列映射到一個高維空間中,Decoder則將這個高維空間中的向量映射回輸出序列。
在Encoder中,所有的詞一起輸入一起計算;在Decoder中像RNN一樣一個一個詞輸入,將已經出現的詞計算得到的Q與Encoder計算得到的K,V進行計算,經過了全部Decoder層再經過FC+Softmax得到結果之后再把結果當做Decoder的輸入再走一遍整個流程直到得到END標簽。
Transformer既有Encoder又有Decoder,主要因為一開始處理的是翻譯任務,需要先理解整句的意思,再逐字生成翻譯結果。

Encoder和Decoder的主要區別包括:

  • Decoder多包含了一個處理層(編碼器-解碼器注意力),其接入的是Encoder的輸出。
  • Decoder下面的是 Masked Attention,它屏蔽了下文,只考慮上文對下文的影響。
    簡單講:主要差別就是單向/雙向注意力的差別。
    論文地址:Attention is All you Need

2.2 自編碼

  • 常見模型:BERT類模型
  • 結構:只有Encoder
  • 方法:雙向上下文,Mask語言模型
  • 場景:編碼器產生適合自然語言理解任務的上下文表示,常用于解決閱讀理解,完型填空等問題。
  • 缺點:不能支持不確定長度文本的生成,而且依賴前后上下文,這樣就非常限制下游任務的類型;一般只能在fine-tune后才能在下游任務中使用,這也將涉及大量人工操作和模型調參,模型也不能做得太大。
  • 論文地址:BERT: Pre-training of Deep Bidirectional Transformers for
    Language Understanding

2.3 自回歸

  • 常見模型:GPT-3等模型
  • 結構:只有Decoder
  • 方法:單向上下文本:從左->右,“一個接一個”生成文本。將解碼器自己當前步的輸出加入下一步的輸入,因此可以生成后續不定長的序列。
  • 場景:適用于生成長數據,實現大模型,few-shot任務效果好
  • 缺點:單向注意力,使之無法完全捕獲 NLU 任務中上下文詞之間的依賴關系。可以將其它任務轉換成自回歸任務,比如:"XXXX電影很好看,這是對/錯的",完型填空題"xxx_yyy,橫線上應該填zzz"。這基本就是提示的原理,它讓Decoder類模型可以在不fine-tune的情況適應各種類型的下游任務,同時也擁有了BERT的一些優勢——雖然不是雙向的,但應學習的知識都在前文里。
  • 論文地址:Language Models are Few-Shot Learners

2.4 結合Encoder和Decoder

  • 常見模型:T5,GLM
  • 結構:結合Encoder和Decoder
  • 方法:在Encoder中使用雙向上下文,Docoder使用單向,在E和D間使用交叉注意力。
  • 場景:主要用于有條件的文本生成,比如生成摘要,回答問題
  • 缺點:需要更多參數。

2.4.1 T5

  • 第一種方式實現上面提到的翻譯功能,只使用其Encoder部分,如BERT。
  • 第二種方式是根據上文生成下文,如GPT
  • 第三種方式在序列的前綴部分使用完全可見的掩碼,如在上面提到的英語到德語的翻譯示例中,完全可見的掩碼將應用于前綴“translate English to German: That is good.target:”使用因果掩蔽來預測目標“Das ist gut”。(對條件使用雙向,對結果使用單向)。

2.4.2 GLM

  • 方法 自回歸的空白填充

3 模型變遷

  • BERT(Devlin et al.,2018)
  • GPT-2(Radford et al.,2019)
  • MegatronLM(Shoeybi et al.,2019)
  • T5(Raffel et al,2019)。
  • GPT-3(Brown et al.,2020 年)取得了重大突破

  • 開始大模型
  • Jurassic-1(Lieber et al.,2021)
  • Megatron-Turing NLG 2022)
  • Gopher (Rae et al., 2021)
  • Chinchilla (Hoffmann et al., 2022)
  • PaLM (Chowdhery et al., 2022)
  • OPT (Zhang et al., 2022)
  • GLM (Zeng et al., 2022)

4 主流大模型

  • 思想 & 結構 & 應用(道 術 技)
  • 一般稱參數大于100B的語言模型為大語言模型。
  • 大模型主要用于解決few shot, zero shot問題。

4.1 Google

Google 的幾篇文章從模型架構,算法優化,模型規模,應用場景,以及大語言模型指導機器人同步推理;對話場景中的其它應用(搜索、翻譯、計算器)結合等方面進行了廣泛探索,且基本都是開源的。

4.1.1 T5模型

  • 發布時間:2019-06-11
  • 解決問題:T5是Transfer Text-to-Text Transformer的簡寫,它是一種NLP Text-to-Text預訓練模型。它的輸入是文本,輸出也是文本,模型使用遷移學習的技術,使用Transformer架構。其目標是給整個 NLP 預訓練模型領域提供了一個通用框架,把所有任務都轉化成一種形式。
  • 方法:提出了Encoder加Decoder的新結構,結合了BERT和GPT結構的優勢。將任務轉換成合適的文本輸入輸出。
  • 模型結構:Encoder+Decoder
  • 模型和數據規模:包含 3B(Billion)和11B版本,處理后最終生成了750GB的數據集C4,并且在TensorFlow Datasets開放了數據。
  • 亮點:模型結構,整體框架
  • 論文地址:Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer

4.1.2 LaMDA

  • 發布時間:2022-02-10
  • 解決問題:調優對話機器人。提升模型的安全性和事實性,同時可利用外部知識來源,如:信息檢索系統、語言翻譯器和計算器——結合了自然語言模型與其它工具。
  • 方法:利用眾包方式,選擇人類偏好的回答,利用標注數據finetune模型。
  • 模型結構:Decoder結構。
  • 數據和模型規模:1.56T 詞進行預訓練,137B 參數。
  • 亮點:結合了自然語言模型和其它工具,功能有點像newbing
  • 論文地址:LaMDA: Language Models for Dialog Applications

4.1.3 引導調優

  • 發布時間:2022-02-08
  • 解決問題:在通過指令描述的一組數據集上微調語言模型,它顯著提高了未見任務的 zero-shot 性能。FLAN 的性能相對于LaMDA每個任務平均值提升了10左右。
  • 方法:將此類模型稱為FLAN(Finetuned Language Net),用 Tensorflow Datasets 上公開可用的 62 個文本數據集,劃分為十二種任務,針對每種任務編寫模板,用于調優模型。指令調優管道混合了所有數據集并從每個數據集中隨機抽樣。為了平衡不同大小的數據集,將每個數據集的訓練示例數量限制為 30k,并遵循示例比例混合方案。
  • 數據結構:同 LaMDA
  • 數據和模型規模:預訓練同LaMDA,精調使用62個數據集數據。
  • 亮點:指令調優,見原理圖
  • 論文地址:Finetuned Language Models Are Zero-Shot Learners

4.1.4 GLaM

  • 發布時間:2022-08-01
  • 解決問題:針對節約計算資源的研究,推進了針對細分專家領域的發展。
  • 方法:一種混合專家(MoE)模型,可以將其視為具有不同子模型(或專家)的模型,每個子模型都專門針對不同的輸入。每層中的專家由門控網絡控制,該網絡根據輸入數據激活專家。每次只激活8%的子網絡。
  • 模型結構:MoE,Decoder結構。
  • 數據和模型規模:最大的 GLaM 有 1200B 參數,大約是 GPT-3 的 7 倍,卻僅消耗用于訓練 GPT-3 的 1/3 的能量,并且需要一半的計算觸發器來進行推理;質量篩選數據對模型訓練的影響。過濾后的網頁包含 143B 個token,而未過濾的網頁包含大約 7T 個token,實驗說明有些任務需要高質量數據訓練。
  • 亮點:模型結構,見模型結構圖
  • 論文地址:GLaM:Efficient Scaling of Language Models with Mixture-of-Experts

4.1.5 PaLM

  • 發布時間:2022-10-05
  • 解決問題:作者認為當模型大到一定程度后,其性能也能飛躍,而PathWay技術是其大規模訓練的基礎。PaLM更關注邏輯推理相關的任務,這也為后面的PaLM-E機器人行為規劃奠定了基礎。
  • 方法:推理鏈提示和大模型都明顯提升了模型的推理能力。
  • 模型結構:Decoder結構。
  • 數據和模型規模:使用6144 個芯片訓練,模型8B/62B/540B參數,780 B高質量token,密集激活。數據基于訓練 LaMDA和GLaM的數據,除了自然語言,還包含多種編程語言的源代碼。根據文件之間的 Levenshtein 距離刪除重復項。
  • 亮點:大模型&推理部分&模型解釋(6.3 推理,9. 探索解釋)
  • 論文地址:PaLM: Scaling Language Modeling with Pathways

4.1.6 PaLM-E

  • 發布時間:2023-03-06
  • 解決問題:通過多模態接入了視頻,傳感器,將大模型學到的知識應用于機器人領域,進一步解決世界中的交互問題。PaLM-E直接產生動作的計劃,從而讓機器人自己規劃過程。
  • 方法:將圖像和狀態等輸入嵌入到與語言標記相同的隱空間中,并由基于Transformer的LLM的自注意力層以與文本相同的方式進行處理,輸出可以是問題的答案,或者文本形式生成的、由機器人執行的決策序列。
  • 模型結構:Decoder解碼器;提出神經網絡結構,支持多模態token。模型包含三部分:觀測數據編碼器,映射器和自然語言模型。
  • 數據和模型規模:訓練的最大模型有 562B 參數,包含540B語言參數和22B視覺參數。
  • 亮點:論文實驗部分
  • 論文地址:PaLM-E: An Embodied Multimodal Language Model

4.2 Meta(Facebook)

Meta 更偏重于模型的應用場景,在模型規模,減少標注開銷,提升質量等方面進行了研究,尤其是其發布的 LLaMA 目前已經成為各個經濟適用模型的基礎模型,可能很快成為DIY的主流框架。本部分除了 Meta公司的研究,還介紹了兩個 LLaMA 的衍生產品。

4.2.1 OPT-175B

  • 發布時間:2022-05-03
  • 解決問題:超大規模語言模型,該模型是當時第一個模型參數超過千億級別的開放模型,該模型與GPT-3相比,更加開放及便于訪問。
  • 方法:訓練 125M - 175B 各種大小的模型,經過一系列優化,只使用了GPT-3的1/7的訓練資源。這是通過結合Meta的開源完全分片數據并行(FSDP) API和NVIDIA的張量并行抽象在Megetron-LM中實現的。
  • 模型結構:Decoder結構。
  • 數據和模型規模:175B參數
  • 論文地址:OPT: Open Pre-trained Transformer Language Models

4.2.2 Self instruct

  • 發布時間:2022-12-20
  • 解決問題:對引導精調的優化,之前引導精調主要使用人工處理的數據,數據量和范圍都有限,本文通過示范少量引導示例,讓模型自己生成引導數據對模型進行優化。經過自引導可使基礎模型的GPT-3提升33%,與InstructGPT001差不多的效果。
  • 方法:自引導過程是一個迭代自舉算法。在第一階段,模型被提示為新任務生成指令。此步驟利用現有的指令集合來創建更廣泛的指令定義任務;然后,在將低質量和重復的指令添加到任務池之前,使用各種措施對其進行修剪;針對許多交互重復此過程,直到生成大量任務。
  • 模型結構:Decoder結構。
  • 數據和模型規模:以GPT-3作為基礎,產生大約 52k 條指令,與大約 82k 實例輸入和目標輸出配對。
  • 亮點:需要更少的人工標注數據
  • 論文地址:Self-Instruct: Aligning Language Model with Self Generated Instructions

4.2.3 LLaMA

  • 發布時間:2023-02-27(論文發布時間)
  • 解決問題:開源項目,以小取勝。使用更多token訓練,更少的模型參數。其小模型可以運行在單GPU環境下,65B大模型可與PaLM模型效果競爭。
  • 方法:大模型在Few Shot上表現好,主要歸功于大模型的參數量。本文至力于找到合適的數據量和參數量,以實現快速推理。調整模型結構,提升訓練和預測速度。
  • 模型結構:Decoder結構。
  • 數據和模型規模:模型從7B-65B參數,使用T級別token訓練。在訓練 65B 參數模型時,代碼在具有 80GB RAM 的 2048 A100 GPU。對包含 1.4T 令牌的數據集進行訓練大約需要 21 天。
  • 論文地址:LLaMA: Open and Efficient Foundation Language Models

4.2.4 ColossalChat

  • 發布時間:2023-02-15
  • 解決問題:開源完整 RLHF 訓練代碼,已開源含7B、13B兩種模型。體驗最小 demo 訓練流程最低僅需 1.62GB 顯存,任意單張消費級 GPU 即可滿足。
  • 方法:以Meta最新開源的LLaMA為基礎預訓練模型。用于通過完整的RLHF管道克隆ChatGPT。該管道包括監督數據收集、監督微調、獎勵模型訓練和強化學習微調,基于LLaMA預訓練模型。它只需要不到10B個參數,就可以通過RLHF微調在中英文雙語能力方面達到與ChatGPT和GPT-3.5相似的效果。
  • 模型結構:同 LLaMA
  • 數據和模型規模:英雙語數據集,訓練的英文一共 24M tokens,中文大約 30M tokens,總共約 54M tokens。4bit量化推理70億參數模型僅需4GB顯存。
  • 詳見:源碼地址 24.3K star

4.2.5 Dolly

  • 發布時間:2023-03-24(韓國公司)
  • 解決問題:Dolly是一個低成本的LLM,它采用LLaMA為基礎,是具有60億參數的開源模型。通過指令精調,使其具有了類似于ChatGPT的交互性??梢宰约合螺d訓練,開發成本僅需30美元,且開源。
  • 方法:對模型進行細微的修改,以激發服從指令的能力。斯坦福大學基于LLaMA構建了Alpaca,但不同之處在于,它利用一個包含50,000個問題和答案的小數據集進行了微調。即便對一個開源大型語言模型 GPT-J,也能通過30分鐘的訓練,賦予它神奇的類似ChatGPT的指令跟隨能力。
  • 模型結構:同 LLaMA
  • 數據和模型規模:使用包含50,000個問題和答案的小數據集進行了微調。
  • 詳見:Dolly 低成本生成式 AI

4.3 OpenAI

OpenAI 的 GPT-4 無疑是目前最好的大語言模型,從GPT到GPT-4一路走來,ChatGPT爆發,可能是我們這個時代最重要的事件之一。可能是為了保持領先,OpenAI 逐漸轉換策略,不再公開具體技術,常被諷 CloseAI。
最初堅持使用單向Transformer構造大模型,現在看的確很有眼光,ChatGPT比GPT-3便宜10倍的價值,搶先占領市場,這個策略可能也是合理的。
而AI、語言模型發展到今天,也是互聯網數據,軟硬件,深度學習,強化學習各個領域近年高速發展和開源的結果。個人認為:無論誰都不太可能一家獨大。

4.3.1 GPT-GPT3.5

4.3.2 GPT-4

  • 發布時間:2023-03-14
  • 解決問題:評測了GPT-4:一個大規模的多模態模型,可以接受圖像和文本輸入并產生文本輸出。提升了利用知識去解決具體問題的能力。對于非常復雜的指令,GPT-4的理解能力和創造力遠超3.5。
  • 方法:模型訓練具體使用了互聯網數據和一些三方版權數據。然后使用人類反饋強化學習 (RLHF) 對模型進行微調。
  • 模型結構:延續了GPT-3的結構
  • 數據和模型規模:報告不包含關于架構(包括模型尺寸)、硬件、訓練計算、數據集構建、訓練方法或類似的更多細節。
  • 亮點:實驗結果
  • 論文地址:GPT-4 Technical Report

4.4 清華

2022年11月,斯坦福大學大模型中心對全球30個主流大模型進行了全方位的評測,GLM-130B 是亞洲唯一入選的大模型。 它準確性和惡意性指標上與 GPT-3 175B (davinci) 接近或持平。
ChatGLM是GLM公開的單機版本,基本是開包即用,又是中英文雙語訓練的模型,對中文用戶比較友好。

4.4.1 GLM

  • 發布時間:2022-01-01
  • 解決問題:通過在結構上的調整,結合了GPT和BERT類模型的優點,且模型規模和復雜度沒有提升。將NLU任務轉換成生成任務訓練模型,使上下游任務訓練方式保持一致。
  • 方法:沒有一個預訓練框架對自然語言理解 (NLU)、無條件生成和條件生成這三個主要類別的所有任務表現都好。GLM 基于自回歸空白填充來解決這一挑戰。使用了二維的位置編碼,相對于T5模型有更少的參數,差不多的效果。一個模型同時支持NLU和文本生成,所以是多任務的訓練。
  • 模型結構:GLM基于自回歸的空白填充。從輸入文本中隨機刪除連續的token(自編碼),并訓練模型以順序重建刪除的token(自回歸)。
  • 數據和模型規模:使用BERT/RoBERT 幾種模型大小相同的數據訓練模型,以保證對比的公平性。
  • 論文地址:GLM: General Language Model Pretraining with Autoregressive Blank Infilling

4.4.2 ChatGLM

  • 發布時間:2023-01-01
  • 解決問題:開源,并針對中文進行了優化,尤其是可以在自己的機器上搭建其簡版的int4服務,實測回答一般性問題效果還不錯。
  • 方法:ChatGLM是使用中英雙語預訓練的大語言模型,在穩定性和性能方面進行了調優。在模型結構上結合了GPT和BERT。在英文方面,效果優于GPT-3;在中文方面,優于260B參數的ERNIE TITAN 3.0??稍?×RTX 3090 (24G) 或 8×RTX 2080 Ti (11G) GPUs 環境下運行。
    不僅包括自監督的GLM自回歸空白填充,還包括對小部分token的多任務學習,以提升其下游zero-shot任務的性能。
  • 模型結構:同GLM。
  • 數據和模型規模:具有130B參數(1300億),包括1.2 T英語、1.0 T的中文悟道語料庫,以及從網絡爬取的250G中文語料庫(包括在線論壇、百科全書和QA),形成了平衡的英漢內容構成。
  • 亮點:搭建方法
  • 論文地址:GLM-130B: AN OPEN BILINGUAL PRE-TRAINED

4.5 DeepMind

DeepMind 圍繞提升模型性能展開研究,其研究為后繼的模型精減和優化,和更廣闊的使用場景奠定了基礎。

4.5.1 Gopher

  • 發布時間:2021-12-08
  • 解決問題:經過實驗得出結論:任何學術科目,連同一般知識,通過模型改進模型規模都能提升其效果,但規模對邏輯推理、常識和數學任務的好處較少。
  • 方法:DeepMind 訓練了 6 個不同大小的模型,從 44M 參數到 280B 參數的 Gopher 模型,進行比較,他們在一組 152 個任務上評估了模型,Gopher 打破了 100 項記錄。
  • 模型結構:Decoder結構。
  • 數據和模型規模:10.5TB語料庫上進行訓練,280 B參數。
  • 論文地址:Scaling Language Models: Methods, Analysis & Insights from Training Gopher

4.5.2 Chinchillla

  • 發布時間:2022-03-29
  • 解決問題:針對訓練數據量,模型參數量,以及數據訓練量,得出結論:更長的訓練時間,更多token,能提升模型效果;大模型的參數量和性能之間存在冪律分布。
  • 方法:在 5 到 5000 億個標記上訓練 400 多個語言模型,范圍從 7000 萬到超過 160 億個參數,把參數量和數據規模加入Loss的懲罰。在運算量固定的情況下,如何選擇參數和token量的配比,使損失函數最小;它對Gopher的進行調整,將模型大小變為其1/4,token變為其4倍,與Gopher計算量基本一致。
  • 模型結構:同Gopher
  • 數據和模型規模:10.5TB語料庫上進行訓練,70B模型參數。
  • 論文地址:Training Compute-Optimal Large Language Models

4.6 MicroSoft

本月微軟發布的兩篇文章(2023年03月),相對偏具體的應用場景,以及語言模型和其它(如圖片)數據相結合實現的應用效果,盡管把文本和圖本映射到同一嵌入空間;通過調整提示調用ChatGPT和圖像修改工具,并不是首次提出,但是實現的效果還是很炫酷有趣的。

4.6.1 Visual ChatGPT

  • 發布時間:2023-03-08
  • 解決問題:在ChatGPT和圖像構建方法間做了橋接,和其它模型相比,除了利用大語言模型中的知識,還利用了ChatGPT強化學習帶來的能力,
  • 方法:主要對聊天的場景進行優化,在提示上作文章。即:在ChatGPT外邊包了一層,這也是當前最常見的用法,文章偏工程化的具體實現。將CoT的潛力擴展到大規模任務,包括但不限于文本生成高清圖像、圖像到圖像的翻譯、圖像到文本的生成等。
  • 模型結構:主要組合調用現有模型,設計了一個Prompt Manager,其中涉及22個不同的虛擬功能矩陣,并定義了它們之間的內部關聯,以便更好地交互和組合。
  • 數據和模型規模:(OpenAI “text-davinci-003” version)
  • 論文地址:Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Models

4.6.2 Kosmos-1

  • 發布時間:2023-03-01
  • 解決問題:主要研究視覺和文本領域的對齊,具體應用是看圖回答問題。KOSMOS - 1是一種多模態語言模型,能夠感知通用模態、遵循指令、在語境中學習并產生輸出。
  • 方法:也沒太說具體是怎么做的,主要是提出概念,展示能力。
  • 模型結構:包含單模態數據和多模態數據。使用單模態數據進行表示學習。例如,利用文本數據進行語言建模預訓練指令跟隨、語境學習、各種語言任務等。此外,用跨模態對和交錯數據學習將一般模態的感知與語言模型對齊。
  • 數據和模型規模:1.3 B的參數。
  • 亮點:應用場景:回答圖片智力題,直接OCR 備2_論文閱讀_Kosmos-1
  • 論文地址:Language Is Not All You Need: Aligning Perception with Language Models

4.7 其它大模型

還有一些大語言模型也有著里程碑的意義,比如:MT-NLG 530B,當時首次把模型擴展到 500+B的量級,示范了訓練單體超大模型的方法;又如 BLOOM 是一個開放的模型,任何人都可以從Hugging Face網站免費下載它進行研究。它們也常常在其它文章中用作模型對比的基線。

4.7.1 Megatron–Turing NLG(威震天-圖靈,MT-NLG 530B)

  • 發布時間:2021年10月
  • 解決問題:英偉達和微軟合作訓練模型,示范了訓練單體超大模型的方法,
  • 方法:4480塊A100訓練,DeepSpeed & Megatron 三維并行訓練技術。DeepSpeed 是一個深度學習優化庫,讓分布式訓練變得簡單、高效且有效,Megatron-LM 是由 NVIDIA 的應用深度學習研究團隊開發的大型、強大的 transformer 模型框架。
  • 模型結構:Decoder結構。
  • 數據和模型規模:530 B 參數
  • 論文地址:Using DeepSpeed and Megatron to Train Megatron-Turing NLG
    530B, A Large-Scale Generative Language Model

4.7.2 BLOOM

  • 發布時間:模型的訓練于 2022 年 3 月至 7 月期間,耗時約 3.5 個月完成,在2022年11月上傳arxiv。
  • 解決問題:Hugging Face 聯合創始人發起,多方聯合,BigScience 的研究人員發布的開源模型。BLOOM最大的特點在于可訪問性,任何人都可以從Hugging Face網站免費下載它進行研究。
  • 方法:Megatron & DeepSpeed 訓練。
  • 模型結構:Decoder結構。
  • 數據和模型規模: 176 B參數,1.5TB 經過大量去重和清洗的文本,包含 46 種語言,最終轉換為 350B token。
  • 論文地址:BLOOM: A 176B-Parameter Open-Access Multilingual
    Language Model
?著作權歸作者所有,轉載或內容合作請聯系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 227,702評論 6 531
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 98,143評論 3 415
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事?!?“怎么了?”我有些...
    開封第一講書人閱讀 175,553評論 0 373
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 62,620評論 1 307
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 71,416評論 6 405
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 54,940評論 1 321
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,024評論 3 440
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,170評論 0 287
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 48,709評論 1 333
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 40,597評論 3 354
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 42,784評論 1 369
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,291評論 5 357
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,029評論 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,407評論 0 25
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 35,663評論 1 280
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,403評論 3 390
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 47,746評論 2 370

推薦閱讀更多精彩內容