scrapy抓取成都房價信息

最近在學習scrapy爬蟲,正好最近成都房價漲的厲害,于是想著去網上抓抓成都最近的房價情況,順便了解一下,畢竟咱是成都人,得看看這成都的房子我以后買的起不~


話不多說,進入正題:

任務

抓取鏈家網(成都)的所有新房以及二手房價格、位置相關信息。

實驗流程

1.確定抓取目標.
2.制定抓取規則.
3.'編寫/調試'抓取規則.
4.獲得抓取數據

1.確定抓取目標

1.1新房抓取目標

Paste_Image.png

我們看到在成都樓盤列表頁面,有樓盤名字、均價(每平方)和所屬行政區,非常好,這正是我們想要抓取的內容!
于是確定目標:
抓取成都新房的所有樓盤名稱、均價信息、所屬行政區和URL信息。

1.2二手房抓取規則

我們來到二手房的列表頁面,并且點擊進入二手房詳情頁面,發現網站所展示的內容就比新房的內容的多得多了,這樣我們也能抓取更多的數據了!在這里,我決定在二手房頁面抓取二手房地址、總價、每平米價、面積、所屬行政區域和URL信息。

2.制定抓取規則

2.1新房抓取規則

由于新房的信息直接在新房列表網頁上就能直接抓取,所以只需要在新房列表網頁分析html結構找到我們想要的數據即可。

Paste_Image.png

對于均價來說,我們所需要的信息在 **//div[@class='average']/span/text() **

Paste_Image.png

對于樓盤名稱來說,我們所需要的信息在 //div[@class='col-1']/h2/a/text()
當然了,我們所需要的URL也在 //div[@class='col-1']/h2/a/@href

Paste_Image.png

對于行政區來說,所需要的信息在 //div[@class='where']/span/text(),當然了,我們還得使用正則將所屬行政區匹配出來

如何抓取所有的新房信息呢?我們利用下一頁來循環

Paste_Image.png

2.2二手房抓取規則

抓取規則和新房抓取規則大同小異,不過這里有一點小小的區別是我們需要利用二手房列表頁面抓取到的URL,進入二手房詳情頁抓取信息,不過這一點我們將在代碼實現中講到,在這兒先按住不表,還是繼續分析html結構。


小區名稱在 div[@class='communityName']/a[@class='info']/text()

房總價在 div[@class='price ']/span[@class='total']/text()
每平方價在 div[@class='price ']/div[@class='text']/div/span/text() ,當然這里我們還是得用正則把兩個引號給弄掉~


所屬行政區在 div[@class='areaName']/span[@class='info']/a/text()的第一個text


面積在 div[@class='houseInfo']/div[@class='area']/div[@class='mainInfo']/text()

當然了,對于循環獲得所有信息來說,我們還是用網站的“下一頁”來做。

3.'編寫/調試'抓取規則

為了讓調試爬蟲的粒度盡量的小,我將編寫和調試模塊糅合在一起進行.


3.1'編寫/調試'新房抓取規則

首先我們得定義一個item:

class NewHoseItem(scrapy.Item):
    name = scrapy.Field()
    average = scrapy.Field()
    district = scrapy.Field()
    URL = scrapy.Field()

然后我們嘗試抓取一個新房列表頁面下的所需數據吧~

import scrapy
from fangjia.items import NewHouseItem

class NewsHouseSpider(scrapy.Spider):
    name = "new"
    start_urls = [
        "http://cd.fang.lianjia.com/loupan/pg1/",
    ]

    def parse(self, response):
        for href in response.xpath("http://div[@class='info-panel']"):
            item = NewHouseItem()
            item['name'] = href.xpath("div[@class='col-1']/h2/a/text()").extract_first()
            item['average'] = href.xpath("div[@class='col-2']/div[@class='price']/div[@class='average']/span/text()").extract_first()
            item['district'] = href.xpath("div[@class='col-1']/div[@class='where']/span/text()").extract_first().split('-')[0]
            item['URL'] = response.urljoin(href.xpath("div[@class='col-1']/h2/a/@href").extract_first())
            yield item

測試通過!
現在我們再編寫一下循環的規則就ok了!

由于我們需要獲取到totalpage的值和curpage的值,所以我們得對獲取到的字符串稍微的處理一下,這里我們用到的是split()

    next_page = response.xpath("http://div[@class='page-box house-lst-page-box']/@page-data").extract_first().split(',')[1].split(':')[1]
    next_page = int(next_page[0])+1
    total_page = int(response.xpath("http://div[@class='page-box house-lst-page-box']/@page-data").extract_first().split(',')[0].split(':')[1])
    if next_page <= total_page:
        next_urls = 'pg%s/' % next_page
        next_urls = response.urljoin(next_urls)
        yield scrapy.Request(next_urls,callback = self.parse)

組裝到我們的原函數里面

    import scrapy
    from fangjia.items import NewHouseItem

    class NewsHouseSpider(scrapy.Spider):
        name = "new"
        start_urls = [
            "http://cd.fang.lianjia.com/loupan/",
        ]

        def parse(self, response):
            for href in response.xpath("http://div[@class='info-panel']"):
                item = NewHouseItem()
                item['name'] = href.xpath("div[@class='col-1']/h2/a/text()").extract_first()
                item['average'] = href.xpath("div[@class='col-2']/div[@class='price']/div[@class='average']/span/text()").extract_first()
                item['district'] = href.xpath("div[@class='col-1']/div[@class='where']/span/text()").extract_first().split('-')[0]
                item['URL'] = href.xpath("div[@class='col-1']/h2/a/@href").extract_first()
                yield item

            next_page = response.xpath("http://div[@class='page-box house-lst-page-box']/@page-data").extract_first().split(',')[1].split(':')[1]
            next_page = int(next_page[0])+1
            total_page = int(response.xpath("http://div[@class='page-box house-lst-page-box']/@page-data").extract_first().split(',')[0].split(':')[1])
            if next_page <= total_page:
                next_urls = 'pg%s/' % next_page
                next_urls = response.urljoin(next_urls)
                yield scrapy.Request(next_urls,callback = self.parse)

測試,成功!

3.2'編寫/調試'二手房抓取規則

二手房抓取規則和新房差不多,所以寫簡單一點,其中主要說明一點是利用二手房列表頁面抓取到的URL,進入二手房詳情頁抓取信息。
先定義item:

class OldHouseItem(scrapy.Item):
    name = scrapy.Field()
    total = scrapy.Field()
    average = scrapy.Field()
    size = scrapy.Field()
    district = scrapy.Field()
    URL = scrapy.Field()

當然了,我們還是先寫出一個二手房列表頁面的抓取規則,其中,得利用抓取到的URL再進入二手房詳情頁進行抓取。

編寫爬蟲:

import scrapy
from fangjia.items import OldHouseItem

class OldsHouseSpider(scrapy.Spider):
    name = "old"
    start_urls = [
        "http://cd.lianjia.com/ershoufang/",
    ]

    def parse(self, response):
        for href in response.xpath("http://ul[@class='sellListContent']/li"):
        URL = href.xpath("div[@class='info clear']/div[@class='title']/a/@href").extract()
        yield scrapy.Request(URL, callback=self.parse_dir_contents)

    def parse_dir_contents(self, response):
        item = OldHouseItem() 
        item['name'] = response.xpath("div[@class='communityName']/a[@class='info']/text()").extract_first()
        item['total'] = response.xpath("div[@class='price ']/span[@class='total']/text()").extract_first()
        item['average'] = response.xpath("div[@class='price ']/div[@class='text']/div/span/text()").extract_first()
        item['size'] = response.xpath("div[@class='houseInfo']/div[@class='area']/div[@class='mainInfo']/text()").extract_first()
        item['district'] = response.xpath("div[@class='areaName']/span[@class='info']/a/text()").extract_first()
        item['URL'] = response
        yield item

發現有重定向:


一看,是robot的原因,于是我們進入 http://cd.lianjia.com/robots.txt 一探究竟
在robots.txt最下面看到

User-agent:*
Disallow:/

原來我們的scrapy被屏蔽了!
當然,我們還有辦法,不過筆者得去吃午飯了!晚上再回來研究研究~


相關推薦
scrapy通過scrapyinghub實現24小時爬蟲托管爬取
scrapy抓取學院新聞報告

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 227,702評論 6 531
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 98,143評論 3 415
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 175,553評論 0 373
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 62,620評論 1 307
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 71,416評論 6 405
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 54,940評論 1 321
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,024評論 3 440
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,170評論 0 287
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 48,709評論 1 333
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 40,597評論 3 354
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 42,784評論 1 369
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,291評論 5 357
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,029評論 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,407評論 0 25
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 35,663評論 1 280
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,403評論 3 390
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 47,746評論 2 370

推薦閱讀更多精彩內容

  • Spring Cloud為開發人員提供了快速構建分布式系統中一些常見模式的工具(例如配置管理,服務發現,斷路器,智...
    卡卡羅2017閱讀 134,776評論 18 139
  • 1.協議是不允許定義屬性和實例變量的. 2.分類在技術上可以定義屬性的,通過associatedObjects來實...
    iOSDevVicky閱讀 432評論 0 2
  • 全部代碼如下:image.png
    CoderZb閱讀 1,202評論 0 0
  • 7月的天津是個多雨的季節,每隔幾天都要下上一場說大不大,說小不小的雨。喜歡下雨天,可能是因為童年的記憶里,下午天可...
    雨夜星空閱讀 490評論 3 10
  • 我原本以為我永遠都習慣不了福州的生活,但等我回到深圳的那一刻,我才發現,福州的生活,或者說是在大學的生活,已經成為...
    MacarenaM閱讀 313評論 0 0