18道MySQL經典面試題(含簡單答案解析)

一、MySQL的復制原理以及流程

(1)復制基本原理流程

  1. 主:binlog線程——記錄下所有改變了數據庫數據的語句,放進master上的binlog中;
  2. 從:io線程——在使用start slave 之后,負責從master上拉取 binlog 內容,放進 自己的relay log中;
  3. 從:sql執行線程——執行relay log中的語句;

(2)MySQL復制的線程有幾個及之間的關聯
MySQL 的復制是基于如下 3 個線程的交互( 多線程復制里面應該是 4 類線程):

  1. Master 上面的 binlog dump 線程,該線程負責將 master 的 binlog event 傳到slave;
  2. Slave 上面的 IO 線程,該線程負責接收 Master 傳過來的 binlog,并寫入 relay log;
  3. Slave 上面的 SQL 線程,該線程負責讀取 relay log 并執行;
  4. 如果是多線程復制,無論是 5.6 庫級別的假多線程還是 MariaDB 或者 5.7 的真正的多線程復制, SQL 線程只做 coordinator,只負責把 relay log 中的 binlog讀出來然后交給 worker 線程, woker 線程負責具體 binlog event 的執行;

(3)MySQL如何保證復制過程中數據一致性及減少數據同步延時
一致性主要有以下幾個方面:
1.在 MySQL5.5 以及之前, slave 的 SQL 線程執行的 relay log 的位置只能保存在文件( relay-log.info)里面,并且該文件默認每執行 10000 次事務做一次同步到磁盤, 這意味著 slave 意外 crash 重啟時, SQL 線程執行到的位置和數據庫的數據是不一致的,將導致復制報錯,如果不重搭復制,則有可能會導致數據不一致。MySQL 5.6 引入參數 relay_log_info_repository,將該參數設置為 TABLE 時, MySQL 將 SQL 線程執行到的位置存到mysql.slave_relay_log_info 表,這樣更新該表的位置和 SQL 線程執行的用戶事務綁定成一個事務,這樣 slave 意外宕機后, slave 通過 innodb 的崩潰恢復可以把 SQL 線程執行到的位置和用戶事務恢復到一致性的狀態。

  1. MySQL 5.6 引入 GTID 復制,每個 GTID 對應的事務在每個實例上面最多執行一次, 這極大地提高了復制的數據一致性;
  2. MySQL 5.5 引入半同步復制, 用戶安裝半同步復制插件并且開啟參數后,設置超時時間,可保證在超時時間內如果 binlog 不傳到 slave 上面,那么用戶提交事務時不會返回,直到超時后切成異步復制,但是如果切成異步之前用戶線程提交時在 master 上面等待的時候,事務已經提交,該事務對 master上面的其他 session 是可見的,如果這時 master 宕機,那么到 slave 上面該事務又不可見了,該問題直到 5.7 才解決;
  3. MySQL 5.7 引入無損半同步復制,引入參 rpl_semi_sync_master_wait_point,該參數默認為 after_sync,指的是在切成半同步之前,事務不提交,而是接收到 slave 的 ACK 確認之后才提交該事務,從此,復制真正可以做到無損的了。
    5.可以再說一下 5.7 的無損復制情況下, master 意外宕機,重啟后發現有 binlog沒傳到 slave 上面,這部分 binlog 怎么辦???分 2 種情況討論, 1 宕機時已經切成異步了, 2 是宕機時還沒切成異步???這個怎么判斷宕機時有沒有切成異步呢???分別怎么處理???

延時性:
5.5 是單線程復制, 5.6 是多庫復制(對于單庫或者單表的并發操作是沒用的), 5.7 是真正意義的多線程復制,它的原理是基于 group commit, 只要master 上面的事務是 group commit 的,那 slave 上面也可以通過多個 worker線程去并發執行。和 MairaDB10.0.0.5 引入多線程復制的原理基本一樣。
(4)工作遇到的復制 bug 的解決方法
5.6 的多庫復制有時候自己會停止,我們寫了一個腳本重新 start slave;待補充…

二、MySQL中myisam與innodb的區別,至少5點

(1)問5點不同
1.InnoDB支持事物,而MyISAM不支持事物
2.InnoDB支持行級鎖,而MyISAM支持表級鎖
3.InnoDB支持MVCC, 而MyISAM不支持
4.InnoDB支持外鍵,而MyISAM不支持
5.InnoDB不支持全文索引,而MyISAM支持。
6.InnoDB不能通過直接拷貝表文件的方法拷貝表到另外一臺機器, myisam 支持
7.InnoDB表支持多種行格式, myisam 不支持
8.InnoDB是索引組織表, myisam 是堆表
(2)innodb引擎的4大特性
1.插入緩沖(insert buffer)
2.二次寫(double write)
3.自適應哈希索引(ahi)
4.預讀(read ahead)
(3)各種不同 mysql 版本的Innodb的改進
MySQL5.6 下 Innodb 引擎的主要改進:
1.online DDL

  1. memcached NoSQL 接口
    3.transportable tablespace( alter table discard/import tablespace)

4.MySQL 正常關閉時,可以 dump 出 buffer pool 的( space, page_no),重啟時 reload,加快預熱速度
5.索引和表的統計信息持久化到 mysql.innodb_table_stats 和mysql.innodb_index_stats,可提供穩定的執行計劃
6.Compressed row format 支持壓縮表

MySQL 5.7 innodb 引擎主要改進
1.修改 varchar 字段長度有時可以使用 online DDL

  1. Buffer pool 支持在線改變大小
    3.Buffer pool 支持導出部分比例

4.支持新建 innodb tablespace,并可以在其中創建多張表
5.磁盤臨時表采用 innodb 存儲,并且存儲在 innodb temp tablespace 里面,以前是 myisam 存儲
6.透明表空間壓縮功能
(4)2者select count()哪個更快,為什么*
myisam更快,因為myisam內部維護了一個計數器,可以直接調取。

(5)2 者的索引的實現方式
都是 B+樹索引, Innodb 是索引組織表, myisam 是堆表, 索引組織表和堆表的區別要熟悉

三、MySQL中varchar與char的區別以及varchar(50)中的50代表的涵義

(1)varchar與char的區別
在單字節字符集下, char(N) 在內部存儲的時候總是定長, 而且沒有變長字段長度列表中。在多字節字符集下面, char(N)如果存儲的字節數超過 N,那么 char(N)將和 varchar(N)沒有區別。在多字節字符集下面,如果存儲的字節數少于 N,那么存儲 N 個字節,后面補空格,補到 N 字節長度。都存儲變長的數據和變長字段長度列表。varchar(N)無論是什么字節字符集,都是變長的,即都存儲變長數據和變長字段長度列表

(2)varchar(50)中50的涵義
最多存放50個字符,varchar(50)和(200)存儲hello所占空間一樣,但后者在排序時會消耗更多內存,因為order by col采用fixed_length計算col長度(memory引擎也一樣)。在早期 MySQL 版本中, 50 代表字節數,現在代表字符數。
(3)int(20)中20的涵義
是指顯示字符的長度
不影響內部存儲,只是影響帶 zerofill 定義的 int 時,前面補多少個 0,易于報表展示
(4)mysql為什么這么設計
對大多數應用沒有意義,只是規定一些工具用來顯示字符的個數;int(1)和int(20)存儲和計算均一樣;

四、innodb的事務與日志的實現方式

(1)有多少種日志
redo和undo
(2)日志的存放形式
redo:在頁修改的時候,先寫到 redo log buffer 里面, 然后寫到 redo log 的文件系統緩存里面(fwrite),然后再同步到磁盤文件( fsync)。
Undo:在 MySQL5.5 之前, undo 只能存放在 ibdata文件里面, 5.6 之后,可以通過設置 innodb_undo_tablespaces 參數把 undo log 存放在 ibdata之外。
(3)事務是如何通過日志來實現的,說得越深入越好
基本流程如下:
因為事務在修改頁時,要先記 undo,在記 undo 之前要記 undo 的 redo, 然后修改數據頁,再記數據頁修改的 redo。Redo(里面包括 undo 的修改) 一定要比數據頁先持久化到磁盤。當事務需要回滾時,因為有 undo,可以把數據頁回滾到前鏡像的
狀態,崩潰恢復時,如果 redo log 中事務沒有對應的 commit 記錄,那么需要用 undo把該事務的修改回滾到事務開始之前。如果有 commit 記錄,就用 redo 前滾到該事務完成時并提交掉。
歡迎大家關注我的公種浩【程序員追風】,文章都會在里面更新,整理的資料也會放在里面。

五、MySQL binlog的幾種日志錄入格式以及區別

(1) 各種日志格式的涵義
1.Statement:每一條會修改數據的sql都會記錄在binlog中。
優點:不需要記錄每一行的變化,減少了binlog日志量,節約了IO,提高性能。(相比row能節約多少性能 與日志量,這個取決于應用的SQL情況,正常同一條記錄修改或者插入row格式所產生的日志量還小于Statement產生的日志量,
但是考慮到如果帶條 件的update操作,以及整表刪除,alter表等操作,ROW格式會產生大量日志,因此在考慮是否使用ROW格式日志時應該跟據應用的實際情況,其所 產生的日志量會增加多少,以及帶來的IO性能問題。)
缺點:由于記錄的只是執行語句,為了這些語句能在slave上正確運行,因此還必須記錄每條語句在執行的時候的 一些相關信息,以保證所有語句能在slave得到和在master端執行時候相同 的結果。另外mysql 的復制,
像一些特定函數功能,slave可與master上要保持一致會有很多相關問題(如sleep()函數, last_insert_id(),以及user-defined functions(udf)會出現問題).
使用以下函數的語句也無法被復制:

  • LOAD_FILE()
  • UUID()
  • USER()
  • FOUND_ROWS()
  • SYSDATE() (除非啟動時啟用了 --sysdate-is-now 選項)
    同時在INSERT ...SELECT 會產生比 RBR 更多的行級鎖

2.Row:不記錄sql語句上下文相關信息,僅保存哪條記錄被修改。
優點:binlog中可以不記錄執行的sql語句的上下文相關的信息,僅需要記錄那一條記錄被修改成什么了。所以rowlevel的日志內容會非常清楚的記錄下 每一行數據修改的細節。而且不會出現某些特定情況下的存儲過程,或function,以及trigger的調用和觸發無法被正確復制的問題
缺點:所有的執行的語句當記錄到日志中的時候,都將以每行記錄的修改來記錄,這樣可能會產生大量的日志內容,比 如一條update語句,修改多條記錄,則binlog中每一條修改都會有記錄,這樣造成binlog日志量會很大,特別是當執行alter table之類的語句的時候,由于表結構修改,每條記錄都發生改變,那么該表每一條記錄都會記錄到日志中。

3.Mixedlevel: 是以上兩種level的混合使用,一般的語句修改使用statment格式保存binlog,如一些函數,statement無法完成主從復制的操作,則 采用row格式保存binlog,MySQL會根據執行的每一條具體的sql語句來區分對待記錄的日志形式,
也就是在Statement和Row之間選擇 一種.新版本的MySQL中隊row level模式也被做了優化,并不是所有的修改都會以row level來記錄,像遇到表結構變更的時候就會以statement模式來記錄。至于update或者delete等修改數據的語句,還是會記錄所有行的變更。

(2)適用場景
在一條 SQL 操作了多行數據時, statement 更節省空間, row 更占用空間。但是 row模式更可靠。
(3)結合第一個問題,每一種日志格式在復制中的優劣
Statement 可能占用空間會相對小一些,傳送到 slave 的時間可能也短,但是沒有 row模式的可靠。Row 模式在操作多行數據時更占用空間, 但是可靠。

六、下MySQL數據庫cpu飆升到500%的話他怎么處理?

當 cpu 飆升到 500%時,先用操作系統命令 top 命令觀察是不是 mysqld 占用導致的,如果不是,找出占用高的進程,并進行相關處理。如果是 mysqld 造成的, show processlist,看看里面跑的 session 情況,是不是有消耗資源的 sql 在運行。找出消耗高的 sql,看看執行計劃是否準確, index 是否缺失,或者實在是數據量太大造成。一般來說,肯定要 kill 掉這些線程(同時觀察 cpu 使用率是否下降),等進行相應的調整(比如說加索引、改 sql、改內存參數)之后,再重新跑這些 SQL。也有可能是每個 sql 消耗資源并不多,但是突然之間,有大量的 session 連進來導致 cpu 飆升,這種情況就需要跟應用一起來分析為何連接數會激增,再做出相應的調整,比如說限制連接數等

七、sql優化

(1)、explain出來的各種item的意義
id:每個被獨立執行的操作的標志,表示對象被操作的順序。一般來說, id 值大,先被執行;如果 id 值相同,則順序從上到下。
select_type:查詢中每個 select 子句的類型。
table:名字,被操作的對象名稱,通常的表名(或者別名),但是也有其他格式。
partitions:匹配的分區信息。
type:join 類型。
possible_keys:列出可能會用到的索引。
key:實際用到的索引。
key_len:用到的索引鍵的平均長度,單位為字節。
ref:表示本行被操作的對象的參照對象,可能是一個常量用 const 表示,也可能是其他表的
key 指向的對象,比如說驅動表的連接列。
rows:估計每次需要掃描的行數。
filtered:rows*filtered/100 表示該步驟最后得到的行數(估計值)。
extra:重要的補充信息。

(2)、profile的意義以及使用場景
Profile 用來分析 sql 性能的消耗分布情況。當用 explain 無法解決慢 SQL 的時候,需要用profile 來對 sql 進行更細致的分析,找出 sql 所花的時間大部分消耗在哪個部分,確認 sql的性能瓶頸。

(3)、explain 中的索引問題
Explain 結果中,一般來說,要看到盡量用 index(type 為 const、 ref 等, key 列有值),避免使用全表掃描(type 顯式為 ALL)。比如說有 where 條件且選擇性不錯的列,需要建立索引。
被驅動表的連接列,也需要建立索引。被驅動表的連接列也可能會跟 where 條件列一起建立聯合索引。當有排序或者 group by 的需求時,也可以考慮建立索引來達到直接排序和匯總的需求。

八、備份計劃,mysqldump以及xtranbackup的實現原理

(1)備份計劃
視庫的大小來定,一般來說 100G 內的庫,可以考慮使用 mysqldump 來做,因為 mysqldump更加輕巧靈活,備份時間選在業務低峰期,可以每天進行都進行全量備份(mysqldump 備份
出來的文件比較小,壓縮之后更小)。100G 以上的庫,可以考慮用 xtranbackup 來做,備份速度明顯要比 mysqldump 要快。一般是選擇一周一個全備,其余每天進行增量備份,備份時間為業務低峰期。
(2)備份恢復時間
物理備份恢復快,邏輯備份恢復慢
這里跟機器,尤其是硬盤的速率有關系,以下列舉幾個僅供參考
20G的2分鐘(mysqldump)
80G的30分鐘(mysqldump)
111G的30分鐘(mysqldump)
288G的3小時(xtra)
3T的4小時(xtra)
邏輯導入時間一般是備份時間的5倍以上

(3)備份恢復失敗如何處理
首先在恢復之前就應該做足準備工作,避免恢復的時候出錯。比如說備份之后的有效性檢查、權限檢查、空間檢查等。如果萬一報錯,再根據報錯的提示來進行相應的調整。
(4)mysqldump和xtrabackup實現原理
mysqldump
mysqldump 屬于邏輯備份。加入--single-transaction 選項可以進行一致性備份。后臺進程會先設置 session 的事務隔離級別為 RR(SET SESSION TRANSACTION ISOLATION LEVELREPEATABLE READ),之后顯式開啟一個事務(START TRANSACTION /!40100 WITH CONSISTENTSNAPSHOT /),這樣就保證了該事務里讀到的數據都是事務事務時候的快照。之后再把表的數據讀取出來。如果加上--master-data=1 的話,在剛開始的時候還會加一個數據庫的讀鎖(FLUSH TABLES WITH READ LOCK),等開啟事務后,再記錄下數據庫此時 binlog 的位置(showmaster status),馬上解鎖,再讀取表的數據。等所有的數據都已經導完,就可以結束事務
Xtrabackup:
xtrabackup 屬于物理備份,直接拷貝表空間文件,同時不斷掃描產生的 redo 日志并保存下來。最后完成 innodb 的備份后,會做一個 flush engine logs 的操作(老版本在有 bug,在5.6 上不做此操作會丟數據),確保所有的 redo log 都已經落盤(涉及到事務的兩階段提交
概念,因為 xtrabackup 并不拷貝 binlog,所以必須保證所有的 redo log 都落盤,否則可能會丟最后一組提交事務的數據)。這個時間點就是 innodb 完成備份的時間點,數據文件雖然不是一致性的,但是有這段時間的 redo 就可以讓數據文件達到一致性(恢復的時候做的事
情)。然后還需要 flush tables with read lock,把 myisam 等其他引擎的表給備份出來,備份完后解鎖。這樣就做到了完美的熱備。

九、mysqldump中備份出來的sql,如果我想sql文件中,一行只有一個insert....value()的話,怎么辦?如果備份需要帶上master的復制點信息怎么辦?

--skip-extended-insert
[root@helei-zhuanshu ~]# mysqldump -uroot -p helei --skip-extended-insert
Enter password:
  KEY `idx_c1` (`c1`),
  KEY `idx_c2` (`c2`)
) ENGINE=InnoDB AUTO_INCREMENT=51 DEFAULT CHARSET=latin1;
/*!40101 SET character_set_client = @saved_cs_client */;
--
-- Dumping data for table `helei`
--
LOCK TABLES `helei` WRITE;
/*!40000 ALTER TABLE `helei` DISABLE KEYS */;
INSERT INTO `helei` VALUES (1,32,37,38,'2016-10-18 06:19:24','susususususususususususu');
INSERT INTO `helei` VALUES (2,37,46,21,'2016-10-18 06:19:24','susususususu');
INSERT INTO `helei` VALUES (3,21,5,14,'2016-10-18 06:19:24','susu');

十、500臺db,在最快時間之內重啟

可以使用批量 ssh 工具 pssh 來對需要重啟的機器執行重啟命令。也可以使用 salt(前提是客戶端有安裝 salt)或者 ansible( ansible 只需要 ssh 免登通了就行)等多線程工具同時操作多臺服務器

十一、innodb的讀寫參數優化

(1)讀取參數

global buffer 以及 local buffer;
Global buffer:
Innodb_buffer_pool_size
innodb_log_buffer_size
innodb_additional_mem_pool_size
local buffer(下面的都是 server 層的 session 變量,不是 innodb 的):
Read_buffer_size
Join_buffer_size
Sort_buffer_size
Key_buffer_size
Binlog_cache_size

(2)寫入參數

innodb_flush_log_at_trx_commit
innodb_buffer_pool_size
insert_buffer_size
innodb_double_write
innodb_write_io_thread
innodb_flush_method

(3)與IO相關的參數

innodb_write_io_threads = 8
innodb_read_io_threads = 8
innodb_thread_concurrency = 0
Sync_binlog
Innodb_flush_log_at_trx_commit
Innodb_lru_scan_depth
Innodb_io_capacity
Innodb_io_capacity_max
innodb_log_buffer_size
innodb_max_dirty_pages_pct

(4)緩存參數以及緩存的適用場景
query cache/query_cache_type
并不是所有表都適合使用query cache。造成query cache失效的原因主要是相應的table發生了變更
第一個:讀操作多的話看看比例,簡單來說,如果是用戶清單表,或者說是數據比例比較固定,比如說商品列表,是可以打開的,前提是這些庫比較集中,數據庫中的實務比較小。
第二個:我們“行騙”的時候,比如說我們競標的時候壓測,把query cache打開,還是能收到qps激增的效果,當然前提示前端的連接池什么的都配置一樣。大部分情況下如果寫入的居多,訪問量并不多,那么就不要打開,例如社交網站的,10%的人產生內容,其余的90%都在消費,打開還是效果很好的,但是你如果是qq消息,或者聊天,那就很要命。
第三個:小網站或者沒有高并發的無所謂,高并發下,會看到 很多 qcache 鎖 等待,所以一般高并發下,不建議打開query cache

十二、你是如何監控你們的數據庫的?你們的慢日志都是怎么查詢的?

監控的工具有很多,例如zabbix,lepus,我這里用的是lepus

十三、你是否做過主從一致性校驗,如果有,怎么做的,如果沒有,你打算怎么做?

主從一致性校驗有多種工具 例如checksum、mysqldiff、pt-table-checksum等

十四、表中有大字段X(例如:text類型),且字段X不會經常更新,以讀為為主,請問您是選擇拆成子表,還是繼續放一起?寫出您這樣選擇的理由

答:拆帶來的問題:連接消耗 + 存儲拆分空間;不拆可能帶來的問題:查詢性能;
如果能容忍拆分帶來的空間問題,拆的話最好和經常要查詢的表的主鍵在物理結構上放置在一起(分區) 順序IO,減少連接消耗,最后這是一個文本列再加上一個全文索引來盡量抵消連接消耗
如果能容忍不拆分帶來的查詢性能損失的話:上面的方案在某個極致條件下肯定會出現問題,那么不拆就是最好的選擇

十五、MySQL中InnoDB引擎的行鎖是通過加在什么上完成(或稱實現)的?為什么是這樣子的?

答:InnoDB是基于索引來完成行鎖
例: select * from tab_with_index where id = 1 for update;
for update 可以根據條件來完成行鎖鎖定,并且 id 是有索引鍵的列,
如果 id 不是索引鍵那么InnoDB將完成表鎖,,并發將無從談起

十六、如何從mysqldump產生的全庫備份中只恢復某一個庫、某一張表?

全庫備份
[root@HE1 ~]# mysqldump -uroot -p --single-transaction -A --master-data=2 >dump.sql
只還原erp庫的內容
[root@HE1 ~]# mysql -uroot -pMANAGER erp --one-database <dump.sql

可以看出這里主要用到的參數是--one-database簡寫-o的參數,極大方便了我們的恢復靈活性
那么如何從全庫備份中抽取某張表呢,全庫恢復,再恢復某張表小庫還可以,大庫就很麻煩了,那我們可以利用正則表達式來進行快速抽取,具體實現方法如下:

從全庫備份中抽取出t表的表結構
[root@HE1 ~]# sed -e'/./{H;$!d;}' -e 'x;/CREATE TABLE `t`/!d;q' dump.sql

DROP TABLE IF EXISTS`t`;
/*!40101 SET@saved_cs_client     =@@character_set_client */;
/*!40101 SETcharacter_set_client = utf8 */;
CREATE TABLE `t` (
  `id` int(10) NOT NULL AUTO_INCREMENT,
  `age` tinyint(4) NOT NULL DEFAULT '0',
  `name` varchar(30) NOT NULL DEFAULT '',
  PRIMARY KEY (`id`)
) ENGINE=InnoDBAUTO_INCREMENT=4 DEFAULT CHARSET=utf8;
/*!40101 SETcharacter_set_client = @saved_cs_client */;

從全庫備份中抽取出t表的內容
[root@HE1 ~]# grep'INSERT INTO `t`' dump.sql
INSERT INTO `t`VALUES (0,0,''),(1,0,'aa'),(2,0,'bbb'),(3,25,'helei');

十七、在當前的工作中,你碰到到的最大的 mysql db 問題以及如何解決的?

可以選擇一個處理過的比較棘手的案例,或者選擇一個老師在課程上講過的死鎖的案例;沒有及時 Purge + insert 唯一索引造成的死鎖:具體案例可以參考學委筆記。

十八、請簡潔地描述下 MySQL 中 InnoDB 支持的四種事務隔離級別名稱,以及逐級之間的區別?

(1)事物的4種隔離級別
讀未提交(read uncommitted)
讀已提交(read committed)
可重復讀(repeatable read)
串行(serializable)
(2)不同級別的現象
Read Uncommitted:可以讀取其他 session 未提交的臟數據。
Read Committed:允許不可重復讀取,但不允許臟讀取。提交后,其他會話可以看到提交的數據。
Repeatable Read: 禁止不可重復讀取和臟讀取、以及幻讀(innodb 獨有)。
Serializable: 事務只能一個接著一個地執行,但不能并發執行。事務隔離級別最高。
不同的隔離級別有不同的現象,并有不同的鎖定/并發機制,隔離級別越高,數據庫的并發性就越差。

image

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 227,818評論 6 531
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 98,185評論 3 414
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 175,656評論 0 373
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 62,647評論 1 309
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 71,446評論 6 405
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 54,951評論 1 321
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,041評論 3 440
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,189評論 0 287
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 48,718評論 1 333
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 40,602評論 3 354
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 42,800評論 1 369
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,316評論 5 358
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,045評論 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,419評論 0 26
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 35,671評論 1 281
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,420評論 3 390
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 47,755評論 2 371

推薦閱讀更多精彩內容