pprof是google出品的,可用于對golang程序性能調優的一個工具。通過這個工具,可以精準的定位到內存、cpu等問題
pprof是go語言內置就有的,無須我們再額外安裝包
1、環境準備
我這邊是用的mac電腦對gin框架做的測試,配置如下,當然,也可以用其他的配置跑如下的用例
1、16G mac電腦
2、M1芯片
3、gin框架工程目錄
2、用例準備
我這邊的主代碼邏輯如下,這個GetNum方法中,進行無限循環計算,然后把自增的i,追加到sum切片中,這種會導致sum切片的內存,無限擴大
Math.go
package service
import (
"fmt"
)
var Heap = new(heap)
var sum = []int{}
type heap struct {
}
func (h *heap) GetNum() {
i := h.sum()
for {
i++
sum = append(sum, i)
if i%1000000 == 0 {
//time.Sleep(time.Second * 1)
fmt.Println(i)
}
}
}
func (h *heap) sum() int {
num := 0
for i := 0; i < 100000; i++ {
num += i
}
return num
}
route.go以下是對應的路由配置,這邊主要是對pprof路由進行了配置
package app
import (
"github.com/gin-gonic/gin"
"net/http/pprof"
"pay/app/controller"
)
func RegistRoute(engine *gin.Engine) {
Heap := engine.Group("/heap")
{
Heap.GET("/log", controller.Heap.Log)
}
systemPprof(engine)
}
// pprof系統性能分析
func systemPprof(engine *gin.Engine) {
pprofAPI := engine.Group("/pprof")
{
pprofAPI.GET("/", gin.WrapF(pprof.Index))
pprofAPI.GET("/cmdline", gin.WrapF(pprof.Cmdline))
pprofAPI.GET("/profile", gin.WrapF(pprof.Profile))
pprofAPI.Any("/symbol", gin.WrapF(pprof.Symbol))
pprofAPI.GET("/trace", gin.WrapF(pprof.Trace))
pprofAPI.GET("/allocs", gin.WrapH(pprof.Handler("allocs")))
pprofAPI.GET("/block", gin.WrapH(pprof.Handler("block")))
pprofAPI.GET("/goroutine", gin.WrapH(pprof.Handler("goroutine")))
pprofAPI.GET("/heap", gin.WrapH(pprof.Handler("heap")))
pprofAPI.GET("/mutex", gin.WrapH(pprof.Handler("mutex")))
pprofAPI.GET("/threadcreate", gin.WrapH(pprof.Handler("threadcreate")))
}
}
這邊是heap控制器,是對Math.go的代碼邏輯進行執行調用
package controller
import (
"github.com/gin-gonic/gin"
"pay/service"
)
var Heap = new(heap)
type heap struct {
}
func (h *heap) Log(ctx *gin.Context) {
service.Heap.GetNum()
}
3、使用pprof進行排查
對用例進行內存排查和定位,可以用如下的命令
go tool pprof http://localhost:8001/pprof/heap
如下代表是連接成功
注意到這上圖的紅色提示了嗎?
Saved profile in /Users/yilian/pprof/pprof.___go_build_pay.alloc_objects.alloc_space.inuse_objects.inuse_space.002.pb.gz
這個實際是讀取的pprof服務提供的一個.pb.gz文件,它是一個通過 gzip 壓縮的 protocol buffer 數據
回到上面的命令執行,輸入top可以列出當前占用內存較高的幾條數據,top后面可以跟上數字,代表要列出幾條
4、web可視化分析
在實際生產環境中,面對復雜業務邏輯的話,內存的分析往往需要結合可視化進行分析,單從上方的命令行數據來看的話,往往無法精準定位到問題所在
a、安裝graphviz
可以使用如下命令進行安裝
brew install graphviz
也可以去graphviz官網去找到對應的平臺的安裝方式
https://graphviz.gitlab.io/download/
b、使用graphviz
繼續回到剛剛的命令行中執行web命令,如下
這時候這個行為會產生一個svg文件,并且調用我們系統設置的默認瀏覽器并且打開它,如下
c、分析
紅色的區域是需要警惕和關注的數據,從上圖中,可以看到GetNum是我們寫的業務代碼,這里已經幫我們定位到是這個方法導致的內存泄露
從電腦的監控來看,確實這個__go_build_pay進程占用了大量的內存,總共占用了9.68G
d、實際生產環境如何使用
考慮到很多分布式系統中,可能一個應用服務器有多臺,需要定位某一臺服務器的內存泄露問題,我們可以先把這個服務器的內存heap文件下載到本地,再通過本地執行pprof加載heap文件來進行分析
為啥不通過域名來訪問呢?比如 go tool pprof http://www.xxx.com/pprof/heap
因為實際線上環境,www.xxx.com只是域名解析,但是后面的應用服務器具有多臺,可能請求會被調度到a服務器,也可能被調度到b服務器、c服務器等等,這樣就容易影響我們分析的結果??梢圆捎脙染Wip的訪問,把heap文件下載到本地,再進行分析,如下
curl -o local_heap http://10.112.60.195/pprof/heap //把內存數據保存到local_heap 文件中
go tool pprof local_heap //使用pprof加載這個內存文件數據
5、其他使用
上面是對內存泄露進行的定位測試,當然也可以針對cpu、gc等定位和排查,數據內容如下
allocs 內存分配情況的采樣信息
blocks 阻塞操作情況的采樣信息
cmdline 顯示程序啟動命令及參數
goroutine 當前所有協程的堆棧信息
heap 堆上內存使用情況的采樣信息
mutex 鎖爭用情況的采樣信息
profile CPU 占用情況的采樣信息
threadcreate 系統線程創建情況的采樣信息