很多人面試的時候被問到一個讓人特別手足無措的問題:你的系統如何支撐高并發?
大多數同學被問到這個問題壓根兒沒什么思路去回答,不知道從什么地方說起,其實本質就是沒經歷過一些真正有高并發系統的錘煉罷了。
因為沒有過相關的項目經歷,所以就沒法從真實的自身體會和經驗中提煉出一套回答,然后系統地闡述出來自己復雜過的系統如何支撐高并發的。
所以,這篇文章就從這個角度切入來簡單說說這個問題,教你用一個最簡單的思路來如何應對的。
當然這里首先說清楚一個前提:高并發系統各不相同。比如每秒百萬并發的中間件系統、每日百億請求的網關系統、瞬時每秒幾十萬請求的秒殺大促系統。
他們在應對高并發的時候,因為系統各自特點的不同,所以應對架構都是不一樣的。
另外,比如電商平臺中的訂單系統、商品系統、庫存系統,在高并發場景下的架構設計也是不同的,因為背后的業務場景都不一樣。
所以,這篇文章主要是給大家提供一個回答這類問題的思路,不涉及任何復雜架構設計,讓你不至于在面試中被問到這個問題時,跟面試官大眼瞪小眼。
具體要真能在面試的時候回答好這個問題,建議各位參考一下本文思路,然后對你自己手頭負責的系統多去思考一下,最好做一些相關的架構實踐。
先考慮一個最簡單的系統架構
假設剛剛開始你的系統就部署在一臺機器上,背后就連接了一臺數據庫,數據庫部署在一臺服務器上。
我們甚至可以再現實點,例如你的系統部署的機器是4核8G,數據庫服務器是16核32G。
此時假設系統用戶量總共就10萬,用戶量很少,日活用戶按照不同系統的場景有區別,我們取一個較為客觀的比例,10%吧,每天活躍的用戶就1萬。
按照二八法則,每天高峰期算4個小時,高峰期活躍的用戶占比達到80%,就是8000人活躍在4小時內。
然后每個人對系統發起請求,我們按照每天20次算吧。那么高峰期8000人發起的請求也才16萬次,平均到4小時內的每秒(14400秒),每秒也就10次請求。
好吧!完全跟高并發搭不上邊,對不對?
然后系統層面每秒是10次請求,對數據庫的調用每次請求都會好幾次數據庫操作的,比如做CRUD之類的。
那么我們取一個一次請求對應3次數據庫請求吧,那這樣的話,數據庫層每秒也就30次請求,對不對?
按照這臺數據庫服務器的配置,支撐是絕對沒問題的。
上述描述的系統,用一張圖表示,就是下面這樣:
系統集群化部署
假設此時用戶數開始快速增長,比如注冊用戶量增長了50倍,上升到了500萬。
此時日活用戶是50萬,高峰期對系統每秒請求是500/s。然后對數據庫的每秒請求數量是1500/s,這個時候會怎么樣呢?
按照上述的機器配置來說,如果系統內處理的是較為復雜的一些業務邏輯,是那種重業務邏輯的系統的話,是比較耗費CPU的。
此時,4核8G的機器每秒請求達到500/s的時候,很可能你的機器CPU負載較高了。
然后數據庫層面,以上述的配置而言,其實基本上1500/s的高峰請求壓力的話,還算可以接受。
這個主要是要觀察數據庫所在機器的磁盤負載、網絡負載、CPU負載、內存負載,按照我們的線上經驗而言,那個配置的數據庫在1500/s請求壓力下是沒問題的。
所以此時需要做的一個事情,首先就是要支持你的系統集群化部署。
可以在前面掛一個負載均衡層,把請求均勻打到系統層面,讓系統可以用多臺機器集群化支撐更高的并發壓力。
比如說這里假設給系統增加部署一臺機器,那么每臺機器就只有250/s的請求了。
這樣一來,兩臺機器的CPU負載都會明顯降低,這個初步的“高并發”不就先cover住了嗎?
要是連這個都不做,那單臺機器負載越來越高的時候,極端情況下是可能出現機器上部署的系統無法有足夠的資源響應請求了,然后出現請求卡死,甚至系統宕機之類的問題。
所以,簡單小結,第一步要做的:
添加負載均衡層,將請求均勻打到系統層。
系統層采用集群化部署多臺機器,扛住初步的并發壓力。
此時的架構圖變成下面的樣子:
數據庫分庫分表 + 讀寫分離
假設此時用戶量繼續增長,達到了1000萬注冊用戶,然后每天日活用戶是100萬。
那么此時對系統層面的請求量會達到每秒1000/s,系統層面,你可以繼續通過集群化的方式來擴容,反正前面的負載均衡層會均勻分散流量過去的。
但是,這時數據庫層面接受的請求量會達到3000/s,這個就有點問題了。
此時數據庫層面的并發請求翻了一倍,你一定會發現線上的數據庫負載越來越高。
每次到了高峰期,磁盤IO、網絡IO、內存消耗、CPU負載的壓力都會很高,大家很擔心數據庫服務器能否抗住。
沒錯,一般來說,對那種普通配置的線上數據庫,建議就是讀寫并發加起來,按照上述我們舉例的那個配置,不要超過3000/s。
因為數據庫壓力過大,首先一個問題就是高峰期系統性能可能會降低,因為數據庫負載過高對性能會有影響。
另外一個,壓力過大把你的數據庫給搞掛了怎么辦?
所以此時你必須得對系統做分庫分表 + 讀寫分離,也就是把一個庫拆分為多個庫,部署在多個數據庫服務上,這是作為主庫承載寫入請求的。
然后每個主庫都掛載至少一個從庫,由從庫來承載讀請求。
此時假設對數據庫層面的讀寫并發是3000/s,其中寫并發占到了1000/s,讀并發占到了2000/s。
那么一旦分庫分表之后,采用兩臺數據庫服務器上部署主庫來支撐寫請求,每臺服務器承載的寫并發就是500/s。每臺主庫掛載一個服務器部署從庫,那么2個從庫每個從庫支撐的讀并發就是1000/s。
簡單總結,并發量繼續增長時,我們就需要focus在數據庫層面:分庫分表、讀寫分離。
此時的架構圖如下所示:
緩存集群引入
接著就好辦了,如果注冊用戶量越來越大,此時你可以不停地加機器,比如說系統層面不停加機器,就可以承載更高的并發請求。
然后數據庫層面如果寫入并發越來越高,就擴容加數據庫服務器,通過分庫分表是可以支持擴容機器的,如果數據庫層面的讀并發越來越高,就擴容加更多的從庫。
但是這里有一個很大的問題:數據庫其實本身不是用來承載高并發請求的。所以通常來說,數據庫單機每秒承載的并發就在幾千的數量級,而且數據庫使用的機器都是比較高配置,比較昂貴的機器,成本很高。
如果不停地加機器,這是不對的。
在高并發架構里通常都有緩存這個環節,緩存系統的設計就是為了承載高并發而生。
單機承載的并發量都在每秒幾萬,甚至每秒數十萬,對高并發的承載能力比數據庫系統要高出一到兩個數量級。
可以根據系統的業務特性,對那種寫少讀多的請求,引入緩存集群。
具體來說,就是在寫數據庫的時候同時寫一份數據到緩存集群里,然后用緩存集群來承載大部分的讀請求。
這樣的話,通過緩存集群,就可以用更少的機器資源承載更高的并發。
比如說上面那個圖里,讀請求目前是每秒2000/s,兩個從庫各自抗了1000/s讀請求,但是其中可能每秒1800次的讀請求都是可以直接讀緩存里的不怎么變化的數據的。
那么此時你一旦引入緩存集群,就可以抗下來這1800/s讀請求,落到數據庫層面的讀請求就200/s。
同樣,給大家來一張架構圖,一起來感受一下:
按照上述架構,好處是什么呢?
可能未來你的系統讀請求每秒都幾萬次了,但是可能80%~90%都是通過緩存集群來讀的,而緩存集群里的機器可能單機每秒都可以支撐幾萬讀請求,所以耗費機器資源很少,可能就兩三臺機器就夠了。
要是換成數據庫來試一下,可能就要不停地加從庫到10臺、20臺機器才能抗住每秒幾萬的讀并發,那個成本是極高的。
好了,我們再來簡單小結,承載高并發需要考慮的第三個點:
不要盲目進行數據庫擴容,數據庫服務器成本昂貴,且本身就不是用來承載高并發的
針對寫少讀多的請求,引入緩存集群,用緩存集群抗住大量的讀請求
引入消息中間件集群
接著再來看看數據庫寫這塊的壓力,其實是跟讀類似的。
假如說所有寫請求全部都落地數據庫的主庫層,當然是沒問題的,但是寫壓力要是越來越大了呢?
比如每秒要寫幾萬條數據,此時難道也是不停的給主庫加機器嗎?
可以當然也可以,但是同理,耗費的機器資源是很大的,這個就是數據庫系統的特點所決定的。
相同的資源下,數據庫系統太重太復雜,所以并發承載能力就在幾千/s的量級,所以此時你需要引入別的一些技術。
比如說消息中間件技術,也就是MQ集群,是非常好的做寫請求異步化處理,實現削峰填谷的效果。
假如說,現在每秒是1000/s次寫請求,其中比如500次請求是必須請求過來立馬寫入數據庫中的,但是另外500次寫請求是可以允許異步化等待個幾十秒,甚至幾分鐘后才落入數據庫內的。
那么此時完全可以引入消息中間件集群,把允許異步化的每秒500次請求寫入MQ,然后基于MQ做一個削峰填谷。比如就以平穩的100/s的速度消費出來然后落入數據庫中即可,此時就會大幅度降低數據庫的寫入壓力。
此時,架構圖變成了下面這樣:
大家看上面的架構圖,首先消息中間件系統本身也是為高并發而生,所以通常單機都是支撐幾萬甚至十萬級的并發請求的。
所以,這本身也跟緩存系統一樣,可以用很少的資源支撐很高的并發請求,用來支撐部分允許異步化的高并發寫入是沒問題的,比使用數據庫直接支撐那部分高并發請求要減少很多的機器使用量。
而且經過消息中間件的削峰填谷之后,比如就用穩定的100/s的速度寫數據庫,那么數據庫層面接收的寫請求壓力,不就成了500/s + 100/s = 600/s了么?
大家看看,是不是發現減輕了數據庫的壓力?
到目前為止,通過下面的手段,我們已經可以讓系統架構盡可能用最小的機器資源抗住了最大的請求壓力,減輕了數據庫的負擔。
系統集群化
數據庫層面的分庫分表+讀寫分離
針對讀多寫少的請求,引入緩存集群
針對高寫入的壓力,引入消息中間件集群
初步來說,簡單的一個高并發系統的闡述是說完了。
但是,其實故事到這里還遠遠沒有結束。
現在能Hold住高并發面試題了嗎?
看完了這篇文章,你覺得自己能回答好面試里的高并發問題了嗎?
很遺憾,答案是不能。而且我覺得單單憑借幾篇文章是絕對不可能真的讓你完全回答好這個問題的,這里有很多原因在里面。
首先,高并發這個話題本身是非常復雜的,遠遠不是一些文章可以說的清楚的,本質就在于,真實的支撐復雜業務場景的高并發系統架構其實是非常復雜的。
比如說每秒百萬并發的中間件系統、每日百億請求的網關系統、瞬時每秒幾十萬請求的秒殺大促系統、支撐幾億用戶的大規模高并發電商平臺架構,等等。
為了支撐高并發請求,在系統架構的設計時,會結合具體的業務場景和特點,設計出各種復雜的架構,這需要大量底層技術支撐,需要精妙的架構和機制設計的能力。
最終,各種復雜系統呈現出來的架構復雜度會遠遠超出大部分沒接觸過的同學的想象。
但是那么復雜的系統架構,通過一些文章是很難說的清楚里面的各種細節以及落地生產的過程的。
其次,高并發這話題本身包含的內容也遠遠不止本文說的這么幾個topic:分庫分表、緩存、消息。
一個完整而復雜的高并發系統架構中,一定會包含各種復雜的自研基礎架構系統、各種精妙的架構設計(比如熱點緩存架構設計、多優先級高吞吐MQ架構設計、系統全鏈路并發性能優化設計,等等)、還有各種復雜系統組合而成的高并發架構整體技術方案、還有NoSQL(Elasticsearch等)/負載均衡/Web服務器等相關技術。
所以大家切記要對技術保持敬畏之心,這些東西都很難通過一些文章來表述清楚。
最后,真正在生產落地的時候,高并發場景下系統會出現大量的技術問題。
比如說消息中間件吞吐量上不去需要優化、磁盤寫壓力過大性能太差、內存消耗過大容易撐爆、分庫分表中間件不知道為什么丟了數據等等吧。
諸如此類的問題非常多,這些也不可能通過文章給全部說清楚。
本文能帶給你什么啟發?
其實本文的定位,就是對高并發這個面試題做一個掃盲,因為我發現大部分來問我這個問題的同學,連本文闡述的最基本的高并發架構演進思路可能都沒理解。
當然,也是因為畢竟沒真的做過高并發系統,沒相關經驗,確實很難理解好這個問題。
所以本文就是讓很多沒接觸過的同學有一個初步的感知,這個高并發到底是怎么回事兒,到底對系統哪里有壓力,要在系統架構里引入什么東西,才可以比較好的支撐住較高的并發壓力。
而且你可以順著本文的思路繼續思考下去,結合你自己熟悉和知道的一些技術繼續思考。
比如說,你熟悉ElasticSearch技術,那么你就可以思考:在高并發的架構之下,是不是可以通過分布式架構的ES技術支撐高并發的搜索?
上面所說,權當拋磚引玉。大家自己平時一定要多思考,自己多畫圖,盤點盤點自己手頭系統的請求壓力。計算一下分散到各個中間件層面的請求壓力,到底應該如何利用最少的機器資源最好的支撐更高的并發請求。
這才是一個好的高并發架構設計思路。
如果起到這個效果,本文就成功了。剩下的還是建議各位同學,對高并發這個話題,結合自己手頭負責的系統多做思考。
比如當前業務場景下,你的系統有多大的請求壓力?如果請求壓力增長10倍你的架構如何支撐?如果請求壓力增長100倍,你的架構如何支撐?如果請求壓力增長1000倍,你的架構如何支撐?
平時一定多給自己設置一些技術挑戰,敦促自己去思考自己的系統,最好多做寫架構上的演練、落地和實踐,自己實際操作一下,才有更好的感知。
然后在面試的時候,起碼自己做過一定深度的思考,結合自己負責的系統做過一些實踐,可以跟面試官有一個較為清晰和系統的闡述。
雖然大部分同學可能沒機會經歷那種真正大規模超高并發的系統架構的設計,但是本文如果能讓大家平時對自己的項目多一些思考。在面試的時候,有一些系統性的思路和闡述,那么也就達到本文的目的了
歡迎工作一到五年的Java工程師朋友們加入Java高并發QQ群:219571750,群內提供免費的Java架構學習資料(里面有高可用、高并發、高性能及分布式、Jvm性能調優、Spring源碼,MyBatis,Netty,Redis,Kafka,Mysql,Zookeeper,Tomcat,Docker,Dubbo,Nginx等多個知識點的架構資料)合理利用自己每一分每一秒的時間來學習提升自己,不要再用"沒有時間“來掩飾自己思想上的懶惰!趁年輕,使勁拼,給未來的自己一個交代!