開啟我的簡書之旅!2018-10-02
MySQL經(jīng)典面試題目
1、MySQL的復(fù)制原理以及流程基本原理流程,3個線程以及之間的關(guān)聯(lián);
2、MySQL中myisam與innodb的區(qū)別,至少5點(1)、問5點不同;(2)、innodb引擎的4大特性(3)、2者selectcount(*)哪個更快,為什么
3、MySQL中varchar與char的區(qū)別以及varchar(50)中的50代表的涵義(1)、varchar與char的區(qū)別(2)、varchar(50)中50的涵義(3)、int(20)中20的涵義(4)、mysql為什么這么設(shè)計
4、問了innodb的事務(wù)與日志的實現(xiàn)方式(1)、有多少種日志;(2)、事物的4種隔離級別(3)、事務(wù)是如何通過日志來實現(xiàn)的,說得越深入越好。
5、問了MySQL binlog的幾種日志錄入格式以及區(qū)別(1)、binlog的日志格式的種類和分別(2)、適用場景;(3)、結(jié)合第一個問題,每一種日志格式在復(fù)制中的優(yōu)劣。
6、問了下MySQL數(shù)據(jù)庫cpu飆升到500%的話他怎么處理?(1)、沒有經(jīng)驗的,可以不問;(2)、有經(jīng)驗的,問他們的處理思路。
7、sql優(yōu)化(1)、explain出來的各種item的意義;(2)、profile的意義以及使用場景;
8、備份計劃,mysqldump以及xtranbackup的實現(xiàn)原理(1)、備份計劃;(2)、備份恢復(fù)時間;(3)、xtrabackup實現(xiàn)原理
9、mysqldump中備份出來的sql,如果我想sql文件中,一行只有一個insert....value()的話,怎么辦?如果備份需要帶上master的復(fù)制點信息怎么辦?
10、500臺db,在最快時間之內(nèi)重啟
11、innodb的讀寫參數(shù)優(yōu)化(1)、讀取參數(shù)(2)、寫入?yún)?shù);(3)、與IO相關(guān)的參數(shù);(4)、緩存參數(shù)以及緩存的適用場景。
12、你是如何監(jiān)控你們的數(shù)據(jù)庫的?你們的慢日志都是怎么查詢的?
13、你是否做過主從一致性校驗,如果有,怎么做的,如果沒有,你打算怎么做?
14、你們數(shù)據(jù)庫是否支持emoji表情,如果不支持,如何操作?
15、你是如何維護數(shù)據(jù)庫的數(shù)據(jù)字典的?
16、你們是否有開發(fā)規(guī)范,如果有,如何執(zhí)行的
17、表中有大字段X(例如:text類型),且字段X不會經(jīng)常更新,以讀為為主,請問(1)、您是選擇拆成子表,還是繼續(xù)放一起;(2)、寫出您這樣選擇的理由。
18、MySQL中InnoDB引擎的行鎖是通過加在什么上完成(或稱實現(xiàn))的?為什么是這樣子的?.
19、如何從mysqldump產(chǎn)生的全庫備份中只恢復(fù)某一個庫、某一張表?
開放性問題:據(jù)說是騰訊的一個6億的表a,一個3億的表b,通過外間tid關(guān)聯(lián),你如何最快的查詢出滿足條件的第50000到第50200中的這200條數(shù)據(jù)記錄。
答案:
?1、MySQL的復(fù)制原理以及流程基本原理流程,3個線程以及之間的關(guān)聯(lián);
(1) 主:binlog線程——記錄下所有改變了數(shù)據(jù)庫數(shù)據(jù)的語句,放進master上的binlog中;
(2) 從:io線程——在使用start slave 之后,負責(zé)從master上拉取 binlog 內(nèi)容,放進 自己的relay log中;
(3). 從:sql執(zhí)行線程——執(zhí)行relay log中的語句;
2、MySQL中myisam與innodb的區(qū)別,至少5點
(1)、問5點不同;1>.InnoDB支持事物,而MyISAM不支持事物2>.InnoDB支持行級鎖,而MyISAM支持表級鎖3>.InnoDB支持MVCC, 而MyISAM不支持4>.InnoDB支持外鍵,而MyISAM不支持5>.InnoDB不支持全文索引,而MyISAM支持。(2)、innodb引擎的4大特性插入緩沖(insert buffer),二次寫(double write),自適應(yīng)哈希索引(ahi),預(yù)讀(read ahead)
(3)、2者selectcount(*)哪個更快,為什么myisam更快,因為myisam內(nèi)部維護了一個計數(shù)器,可以直接調(diào)取。
3、MySQL中varchar與char的區(qū)別以及varchar(50)中的50代表的涵義
(1)、varchar與char的區(qū)別char是一種固定長度的類型,varchar則是一種可變長度的類型
(2)、varchar(50)中50的涵義最多存放50個字符,varchar(50)和(200)存儲hello所占空間一樣,但后者在排序時會消耗更多內(nèi)存,因為order by col采用fixed_length計算col長度(memory引擎也一樣)
(3)、int(20)中20的涵義是指顯示字符的長度但要加參數(shù)的,最大為255,比如它是記錄行數(shù)的id,插入10筆資料,它就顯示00000000001 ~~~00000000010,當(dāng)字符的位數(shù)超過11,它也只顯示11位,如果你沒有加那個讓它未滿11位就前面加0的參數(shù),它不會在前面加020表示最大顯示寬度為20,但仍占4字節(jié)存儲,存儲范圍不變;
(4)、mysql為什么這么設(shè)計對大多數(shù)應(yīng)用沒有意義,只是規(guī)定一些工具用來顯示字符的個數(shù);int(1)和int(20)存儲和計算均一樣;
4、問了innodb的事務(wù)與日志的實現(xiàn)方式
(1)、有多少種日志;錯誤日志:記錄出錯信息,也記錄一些警告信息或者正確的信息。查詢?nèi)罩荆河涗浰袑?shù)據(jù)庫請求的信息,不論這些請求是否得到了正確的執(zhí)行。慢查詢?nèi)罩荆涸O(shè)置一個閾值,將運行時間超過該值的所有SQL語句都記錄到慢查詢的日志文件中。二進制日志:記錄對數(shù)據(jù)庫執(zhí)行更改的所有操作。中繼日志:事務(wù)日志:
(2)、事物的4種隔離級別隔離級別讀未提交(RU)讀已提交(RC)可重復(fù)讀(RR)串行
(3)、事務(wù)是如何通過日志來實現(xiàn)的,說得越深入越好。事務(wù)日志是通過redo和innodb的存儲引擎日志緩沖(Innodb log buffer)來實現(xiàn)的,當(dāng)開始一個事務(wù)的時候,會記錄該事務(wù)的lsn(log sequence number)號; 當(dāng)事務(wù)執(zhí)行時,會往InnoDB存儲引擎的日志的日志緩存里面插入事務(wù)日志;當(dāng)事務(wù)提交時,必須將存儲引擎的日志緩沖寫入磁盤(通過innodb_flush_log_at_trx_commit來控制),也就是寫數(shù)據(jù)前,需要先寫日志。這種方式稱為“預(yù)寫日志方式”
5、問了MySQL binlog的幾種日志錄入格式以及區(qū)別
(1)、binlog的日志格式的種類和分別(2)、適用場景;(3)、結(jié)合第一個問題,每一種日志格式在復(fù)制中的優(yōu)劣。Statement:每一條會修改數(shù)據(jù)的sql都會記錄在binlog中。優(yōu)點:不需要記錄每一行的變化,減少了binlog日志量,節(jié)約了IO,提高性能。(相比row能節(jié)約多少性能 與日志量,這個取決于應(yīng)用的SQL情況,正常同一條記錄修改或者插入row格式所產(chǎn)生的日志量還小于Statement產(chǎn)生的日志量,但是考慮到如果帶條 件的update操作,以及整表刪除,alter表等操作,ROW格式會產(chǎn)生大量日志,因此在考慮是否使用ROW格式日志時應(yīng)該跟據(jù)應(yīng)用的實際情況,其所 產(chǎn)生的日志量會增加多少,以及帶來的IO性能問題。)缺點:由于記錄的只是執(zhí)行語句,為了這些語句能在slave上正確運行,因此還必須記錄每條語句在執(zhí)行的時候的 一些相關(guān)信息,以保證所有語句能在slave得到和在master端執(zhí)行時候相同 的結(jié)果。另外mysql 的復(fù)制,像一些特定函數(shù)功能,slave可與master上要保持一致會有很多相關(guān)問題(如sleep()函數(shù), last_insert_id(),以及user-defined functions(udf)會出現(xiàn)問題).使用以下函數(shù)的語句也無法被復(fù)制:* LOAD_FILE()* UUID()* USER()* FOUND_ROWS()* SYSDATE() (除非啟動時啟用了 --sysdate-is-now 選項)同時在INSERT ...SELECT 會產(chǎn)生比 RBR 更多的行級鎖
2.Row:不記錄sql語句上下文相關(guān)信息,僅保存哪條記錄被修改。優(yōu)點: binlog中可以不記錄執(zhí)行的sql語句的上下文相關(guān)的信息,僅需要記錄那一條記錄被修改成什么了。所以rowlevel的日志內(nèi)容會非常清楚的記錄下 每一行數(shù)據(jù)修改的細節(jié)。而且不會出現(xiàn)某些特定情況下的存儲過程,或function,以及trigger的調(diào)用和觸發(fā)無法被正確復(fù)制的問題缺點:所有的執(zhí)行的語句當(dāng)記錄到日志中的時候,都將以每行記錄的修改來記錄,這樣可能會產(chǎn)生大量的日志內(nèi)容,比 如一條update語句,修改多條記錄,則binlog中每一條修改都會有記錄,這樣造成binlog日志量會很大,特別是當(dāng)執(zhí)行alter table之類的語句的時候,由于表結(jié)構(gòu)修改,每條記錄都發(fā)生改變,那么該表每一條記錄都會記錄到日志中。
3.Mixedlevel: 是以上兩種level的混合使用,一般的語句修改使用statment格式保存binlog,如一些函數(shù),statement無法完成主從復(fù)制的操作,則 采用row格式保存binlog,MySQL會根據(jù)執(zhí)行的每一條具體的sql語句來區(qū)分對待記錄的日志形式,也就是在Statement和Row之間選擇 一種.新版本的MySQL中隊row level模式也被做了優(yōu)化,并不是所有的修改都會以row level來記錄,像遇到表結(jié)構(gòu)變更的時候就會以statement模式來記錄。至于update或者delete等修改數(shù)據(jù)的語句,還是會記錄所有行的 變更。
6、問了下MySQL數(shù)據(jù)庫cpu飆升到500%的話他怎么處理?(1)、沒有經(jīng)驗的,可以不問;(2)、有經(jīng)驗的,問他們的處理思路。
列出所有進程??show processlist??觀察所有進程??多秒沒有狀態(tài)變化的(干掉)查看超時日志或者錯誤日志 (做了幾年開發(fā),一般會是查詢以及大批量的插入會導(dǎo)致cpu與i/o上漲,,,,當(dāng)然不排除網(wǎng)絡(luò)狀態(tài)突然斷了,,導(dǎo)致一個請求服務(wù)器只接受到一半,比如where子句或分頁子句沒有發(fā)送,,當(dāng)然的一次被坑經(jīng)歷)
7、sql優(yōu)化
(1)、explain出來的各種item的意義;select_type?表示查詢中每個select子句的類型type表示MySQL在表中找到所需行的方式,又稱“訪問類型”possible_keys?指出MySQL能使用哪個索引在表中找到行,查詢涉及到的字段上若存在索引,則該索引將被列出,但不一定被查詢使用key顯示MySQL在查詢中實際使用的索引,若沒有使用索引,顯示為NULLkey_len表示索引中使用的字節(jié)數(shù),可通過該列計算查詢中使用的索引的長度ref表示上述表的連接匹配條件,即哪些列或常量被用于查找索引列上的值?Extra包含不適合在其他列中顯示但十分重要的額外信息
(2)、profile的意義以及使用場景;查詢到 SQL 會執(zhí)行多少時間, 并看出 CPU/Memory 使用量, 執(zhí)行過程中 Systemlock, Table lock 花多少時間等等8、備份計劃,mysqldump以及xtranbackup的實現(xiàn)原理(1)、備份計劃;這里每個公司都不一樣,您別說那種1小時1全備什么的就行(2)、備份恢復(fù)時間;這里跟機器,尤其是硬盤的速率有關(guān)系,以下列舉幾個僅供參考20G的2分鐘(mysqldump)80G的30分鐘(mysqldump)111G的30分鐘(mysqldump)288G的3小時(xtra)3T的4小時(xtra)邏輯導(dǎo)入時間一般是備份時間的5倍以上
(3)、xtrabackup實現(xiàn)原理在InnoDB內(nèi)部會維護一個redo日志文件,我們也可以叫做事務(wù)日志文件。事務(wù)日志會存儲每一個InnoDB表數(shù)據(jù)的記錄修改。當(dāng)InnoDB啟動時,InnoDB會檢查數(shù)據(jù)文件和事務(wù)日志,并執(zhí)行兩個步驟:它應(yīng)用(前滾)已經(jīng)提交的事務(wù)日志到數(shù)據(jù)文件,并將修改過但沒有提交的數(shù)據(jù)進行回滾操作。
9、mysqldump中備份出來的sql,如果我想sql文件中,一行只有一個insert....value()的話,怎么辦?如果備份需要帶上master的復(fù)制點信息怎么辦?
--skip-extended-insert[root@helei-zhuanshu ~]# mysqldump -uroot -p helei --skip-extended-insertEnter password:??KEY `idx_c1` (`c1`),??KEY `idx_c2` (`c2`)) ENGINE=InnoDB AUTO_INCREMENT=51 DEFAULT CHARSET=latin1;/*!40101 SET character_set_client = @saved_cs_client */;---- Dumping data for table `helei`--LOCK TABLES `helei` WRITE;/*!40000 ALTER TABLE `helei` DISABLE KEYS */;INSERT INTO `helei` VALUES (1,32,37,38,'2016-10-18 06:19:24','susususususususususususu');INSERT INTO `helei` VALUES (2,37,46,21,'2016-10-18 06:19:24','susususususu');INSERT INTO `helei` VALUES (3,21,5,14,'2016-10-18 06:19:24','susu');
10、500臺db,在最快時間之內(nèi)重啟puppet,dsh
11、innodb的讀寫參數(shù)優(yōu)化
(1)、讀取參數(shù)global buffer pool以及 local buffer;
(2)、寫入?yún)?shù);innodb_flush_log_at_trx_commitinnodb_buffer_pool_size
(3)、與IO相關(guān)的參數(shù);innodb_write_io_threads = 8innodb_read_io_threads = 8innodb_thread_concurrency = 0
(4)、緩存參數(shù)以及緩存的適用場景。query cache/query_cache_type并不是所有表都適合使用query cache。造成query cache失效的原因主要是相應(yīng)的table發(fā)生了變更第一個:讀操作多的話看看比例,簡單來說,如果是用戶清單表,或者說是數(shù)據(jù)比例比較固定,比如說商品列表,是可以打開的,前提是這些庫比較集中,數(shù)據(jù)庫中的實務(wù)比較小。第二個:我們“行騙”的時候,比如說我們競標(biāo)的時候壓測,把query cache打開,還是能收到qps激增的效果,當(dāng)然前提示前端的連接池什么的都配置一樣。大部分情況下如果寫入的居多,訪問量并不多,那么就不要打開,例如社交網(wǎng)站的,10%的人產(chǎn)生內(nèi)容,其余的90%都在消費,打開還是效果很好的,但是你如果是qq消息,或者聊天,那就很要命。第三個:小網(wǎng)站或者沒有高并發(fā)的無所謂,高并發(fā)下,會看到 很多 qcache 鎖 等待,所以一般高并發(fā)下,不建議打開query cache
12、你是如何監(jiān)控你們的數(shù)據(jù)庫的?你們的慢日志都是怎么查詢的?監(jiān)控的工具有很多,例如zabbix,lepus,我這里用的是lepus
13、你是否做過主從一致性校驗,如果有,怎么做的,如果沒有,你打算怎么做?主從一致性校驗有多種工具 例如checksum、mysqldiff、pt-table-checksum等
14、你們數(shù)據(jù)庫是否支持emoji表情,如果不支持,如何操作?如果是utf8字符集的話,需要升級至utf8_mb4方可支持15、你是如何維護數(shù)據(jù)庫的數(shù)據(jù)字典的?這個大家維護的方法都不同,我一般是直接在生產(chǎn)庫進行注釋,利用工具導(dǎo)出成excel方便流通。
16、你們是否有開發(fā)規(guī)范,如果有,如何執(zhí)行的有,開發(fā)規(guī)范網(wǎng)上有很多了,可以自己看看總結(jié)下
17、表中有大字段X(例如:text類型),且字段X不會經(jīng)常更新,以讀為為主,請問(1)、您是選擇拆成子表,還是繼續(xù)放一起;(2)、寫出您這樣選擇的理由。答:拆帶來的問題:連接消耗 + 存儲拆分空間;不拆可能帶來的問題:查詢性能;如果能容忍拆分帶來的空間問題,拆的話最好和經(jīng)常要查詢的表的主鍵在物理結(jié)構(gòu)上放置在一起(分區(qū)) 順序IO,減少連接消耗,最后這是一個文本列再加上一個全文索引來盡量抵消連接消耗如果能容忍不拆分帶來的查詢性能損失的話:上面的方案在某個極致條件下肯定會出現(xiàn)問題,那么不拆就是最好的選擇
18、MySQL中InnoDB引擎的行鎖是通過加在什么上完成(或稱實現(xiàn))的?為什么是這樣子的?答:InnoDB是基于索引來完成行鎖例: select * from tab_with_index where id = 1 for update;for update 可以根據(jù)條件來完成行鎖鎖定,并且 id 是有索引鍵的列,如果 id 不是索引鍵那么InnoDB將完成表鎖,,并發(fā)將無從談起.
19、如何從mysqldump產(chǎn)生的全庫備份中只恢復(fù)某一個庫、某一張表?答案見:分庫分表
開放性問題:據(jù)說是騰訊的一個6億的表a,一個3億的表b,通過外間tid關(guān)聯(lián),你如何最快的查詢出滿足條件的第50000到第50200中的這200條數(shù)據(jù)記錄。1、如果A表TID是自增長,并且是連續(xù)的,B表的ID為索引select * from a,b where a.tid = b.id and a.tid>500000 limit 200;2、如果A表的TID不是連續(xù)的,那么就需要使用覆蓋索引.TID要么是主鍵,要么是輔助索引,B表ID也需要有索引。select * from b , (select tid from a limit 50000,200) a where b.id = a .tid;