Go 百度貼吧、捧腹段子并發爬蟲

爬蟲設計

爬蟲設計步驟:

  • 明確目標:要知道在哪個范圍或者網站去搜索
  • 爬:將所有的網站的內容全部爬下來
  • 取:去掉對我們沒用處的數據
  • 處理數據:按照我們想要的方式存儲和使用

百度貼吧爬蟲

1、規律分析:

  • 網頁規律
https://tieba.baidu.com/f?kw=絕地求生&ie=utf-8&pn=0
https://tieba.baidu.com/f?kw=絕地求生&ie=utf-8&pn=50
https://tieba.baidu.com/f?kw=絕地求生&ie=utf-8&pn=100

2、爬蟲 Demo

package main

import (
    "fmt"
    "net/http"
    "strconv"
    "os"
)

// 爬取網頁內容
func HttpGet(url string)(result string, err error) {
    resp, err1 := http.Get(url)
    if err1 != nil {
        // print err
        err = err1
        return
    }
    
    defer resp.Body.Close()
    
    // 讀取網頁 Body 內容
    buf := make([]byte, 1024 * 4)
    for {
        n, err := resp.Body.Read(buf)
        if n == 0 { // 讀取結束,或者出問題
            // print err
            break
        }
        
        result += string(buf[:n])
    }
    
    return
}

// 爬取一個網頁
func SpidePage(i int, page chan<- int) {
    url = "http://tieba.baidu.com/f?kw=ios&ie=utf-8&pn=0&red_tag=y1558891520&pn=" + strconv.Itoa((i - 1) * 50)
    // print url
    
    // 2) 爬,將所有的網站的內容全部爬下來
    result, err := HttpGet(url) 
    if err != nil {
        // print err
        continue
    }
    
    // 把內容寫入到文件
    fileName := strconv.Itoa((i - 1) * 50) + ".html"
    f, err1 := os.Create(fileName)
    if err1 != nil {
        // print err1
        continue
    }
    
    f.WriteString(result) // 寫內容
    f.Close() // 關閉文件
    
    page <- i // 寫內容
}


func DoWork(start, end int) {
    fmt.Printf("正在爬取 %d 到 %d 的頁面\b", start, end)
    
    page := make(chan int)
    
    // 1) 明確目標(要知道你準備在哪個范圍或者網站去搜索)
    // https://tieba.baidu.com/f?kw=絕地求生&ie=utf-8&pn=0 // 下一頁加 50
    for i := start; i < end; i++ {
        go SpidePage(i, page)
    }
    
    for i := start; i < end; i++ {
        // 沒爬完之前是阻塞的
        fmt.Printf("第%d個頁面爬取完成\n", <-page)
    }
}

func main() {
    var start, end int
    fmt.Printf("請輸入起始頁(>= 1): ")
    fmt.Scan(&start)
    fmt.Printf("請輸入終止頁(>= 起始頁): ")
    fmt.Scan(&end)
    
    DoWork(start, end)
}

段子爬蟲

1、規律分析

  • 網頁規律
https://www.pengfu.com/index_1.html
https://www.pengfu.com/index_2.html
https://www.pengfu.com/index_3.html
  • 主頁面規律
<h1 class="dp-b"><a href=" 一個段子 URL 連接 "
  • 段子 URL
<h1> 標題 </h1> 只取1個
<div class="content-txt pt10"> 段子內容 <a id="prev" href="

2、爬蟲 Demo

package main

import (
    "fmt"
    "net/http"
    "strconv"
    "regexp"
    "strings"
    //"os"
)

func HttpGet(url string)(result string, err error) {
    resp, err1 := http.Get(url)
    if err1 != nil {
        // print err
        err = err1
        return
    }
    
    defer reso.Body.Close()
    
    // 讀取網頁內容
    buf := make([]byte, 4 * 1024)
    for {
        n, _ := resp.Body.Read(buf)
        if n == 0 {
            break
        }
        
        result += string(buf{:n})
    }
    return
}

func SpiderOneJoy(url string)(title, content string, err error) {
    // 開始爬取網頁內容
    result, err1 := HttpGet(url)
    if err1 != nil {
        err = err1
        return
    }
    
    2) 開始爬取頁面內容
    result, err := HttpGet(url)
    if err != nil {
        // print err
        return
    }
    fmt.Printf("r = ", result)
    
    // 3)獲取關鍵信息:標題
    // <h1> 段子標題 </h1> 只取1個
    re1 := regexp.MustCompile(`<h1>(?s:(.*?))</h1>`) // 正則表達式以組為單位,?s 表示遇到 \n 的也匹配
    if re1 == nil {
        err = fmt.Errorf("%s", "regex.MustCompile err")
        return
    }
    
    // 取段子標題
    tmpTitle := re.FindAllStringSubmatch(result, 1) // 最后一個參數為 1, 表示只過濾第 1 個
    for _, data := range tmpTitle {
        title = data[1]
        
        // 對tab、制表符、換行、空格特殊處理
        title = strings.Replace(title, "\r", "",-1)
        title = strings.Replace(title, "\n", "",-1)
        title = strings.Replace(title, " ", "",-1)
        title = strings.Replace(title, "\t", "",-1)
        break
    }
    
    // 3)獲取關鍵信息:內容
    // <div class="content-txt pt10"> 段子內容 <a id="prev" href="
    re2 := regexp.MustCompile(`<div class="content-txt pt10">(?s:(.*?))<a id="prev" href=`) // 正則表達式以組為單位,?s 表示遇到 \n 的也匹配
    if re2 == nil {
        err = fmt.Errorf("%s", "regex.MustCompile err")
        return
    }
    
    // 取段子內容
    tmpContent := re.FindAllStringSubmatch(result, -1) // -1 表示過濾全部
    for _, data := range tmpContent {
        content = data[1]
        
        // 對tab、制表符、換行、空格特殊處理
        content = strings.Replace(content, "\r", "",-1)
        content = strings.Replace(content, "\n", "",-1)
        content = strings.Replace(content, " ", "",-1)
        content = strings.Replace(content, "\t", "",-1)
        content = strings.Replace(content, "<br />", "",-1)
        break
    }
    
    return
}

// 把內容寫入到文件
func StoreJoyToFile(i int, fileTitle, fileContent []string) {
    // 新建文件
    f, err := os.Create(strconv.IToa(i) + ".txt")
    if err != nil {
        // print err
        return
    }
    
    defer f.Close()
    
    // 寫內容
    n := len(fileTitle)
    for i := 0; i < n; i++ {
        // 寫標題
        f.WriteString(fileTitle[i] + "\n")
        // 寫內容
        f.WriteString(fileContent[i] + "\n")
        
        f.WriteString("\n==============\n")
    }
}

// 爬取主頁面
func SpidePage(i int) {
    // 1) 明確爬取的 url
    // url: https://www.pengfu.com/index_1.html
    url := "https://www.pengfu.com/index_" + strconv.IToa(i) + ".html"
    fmt.Printf("正在爬取滴%d個網頁:%s", i, url)
    
    // 2) 開始爬取頁面內容
    result, err := HttpGet(url)
    if err != nil {
        // print err
        return
    }
    fmt.Printf("r = ", result)
    
    // 3) 取內容,正則匹配
    // <h1 class="dp-b"><a href=" 一個段子 URL 連接 " 
    // 解析表達式,取關鍵信息
    re := regexp.MustCompile(`<h1 class="dp-b"><a href="(?s:(.*?))"`) // 正則表達式以組為單位,?s 表示遇到 \n 的也匹配
    if re == nil {
        // print err
        return
    }
    
    // 去關鍵信息: 段子詳情頁的 URL
    joyUrls := re.FindAllStringSubmatch(result, -1)
    fmt.Println("joyUrl = %s", joyUrls)
    
    fileTitle := make([]string, 0)
    fileContent := make([]string, 0)
    
    // joyUrls:[[<h1 class="dp-b"><a https://www.pengfu.com/content_1788974_1.html]
    
    // 獲取 joyUrl
    // 切片迭代,第一個返回下標,第二個返回內容
    for _, data := range joyUrls {
        // print url
        // fmt.Println("url = ", data[1])
        // 爬取每一個段子
        title, content, err :=  SpiderOneJoy(data[1])
        if err != nil {
            // print err
            continue
        }
        
        // print title、content
        fileTitle = append(fileTitle, title) // 追加內容
        fileContent = append(fileContent, content) // 追加內容
    }
    
    // print fileTitle、fileContent
    
    // 把內容寫入到文件
    StoreJoyToFile(i, fileTitle, fileContent)
}

func DoWork(start, end int) {
    fmt.Printf("正在爬取 %d 到 %d 的頁面\b", start, end)
    
    page := make(chan int)
    
    // 1) 明確目標(要知道你準備在哪個范圍或者網站去搜索)
    // 
    for i := start; i < end; i++ {
        go SpidePage(i, page)
    }
    
    for i := start; i < end; i++ {
        // 沒爬完之前是阻塞的
        fmt.Printf("第%d個頁面爬取完成\n", <-page)
    }  
}

func main() {
    var start, end int
    fmt.Printf("請輸入起始頁(>= 1): ")
    fmt.Scan(&start)
    fmt.Printf("請輸入終止頁(>= 起始頁): ")
    fmt.Scan(&end)
    
    DoWork(start, end)
}
最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 227,797評論 6 531
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 98,179評論 3 414
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 175,628評論 0 373
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 62,642評論 1 309
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 71,444評論 6 405
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 54,948評論 1 321
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,040評論 3 440
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,185評論 0 287
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 48,717評論 1 333
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 40,602評論 3 354
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 42,794評論 1 369
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,316評論 5 358
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,045評論 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,418評論 0 26
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 35,671評論 1 281
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,414評論 3 390
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 47,750評論 2 370

推薦閱讀更多精彩內容