Scrapy

1.Scrapy的命令行命令
  • 創建一個Scrapy工程
    終端輸入:
scrapy startproject <project_name> [project_dir]
//在project_dir下創建一個Scrapy項目,如果project_dir省略的話,
//會創建一個和<project_name>同名的文件夾內,項目放在當前的文件路徑下
  • PyCharm 下直接運行 Scrapy
    Scrapy提供了一個cmdline模塊,使Python的模塊直接可以運行命令行
    方法如下:
    在目錄的頂層(非必須,主要是為了和業務代碼分開),單獨創建main.py文件.直接運行該文件, exampleName替換為你的Spider的名字 ,即 你的spider的 name屬性的內容

main.py文件內容如下

 # -*- coding=utf8 -*-from scrapy import 
from scrapy import cmdline
cmdline.execute("scrapy crawl exampleName".split())
2.目錄分類:
* 模擬登陸
* XPath和CSS的選擇器的使用
* Scrapy整體運行流程
* Python的setter和getter方法的創建
* Scrapy如何管理Request隊列
* item pipeline的使用
* Request
* 驗證碼識別
2.1 模擬登陸
1.如何快速定位POST的數據格式
    ```
    1.使用抓包工具進行解析
   ```
2.表單數據的Scrapy的數據提交和回調
def start_requests(self):   
    """    登陸頁面 獲取xrsf    """   
   return [Request(    "https://www.zhihu.com/#signin",  \
         meta={'cookiejar': 1},\
         callback=self.post_login\
       )]
//Scrapy 通過start_requests方法返回Request的請求list來進行請求,
//通過callback參數來確定回調方法,默認的回調方法是 parser.
//如果不重寫start_requests方法,那就必須要提供start_urls 類的變量,
//官方說法是start_urls如果為空才調用start_requests方法生成請Request
//但是我測試的時候是start_requests會覆蓋掉start_urls的請求列表

不同回調方法官方示例:

import scrapy
class AuthorSpider(scrapy.Spider):
          name = 'author'
          start_urls = ['http://quotes.toscrape.com/']
def parse(self, response):
        # follow links to author pages
        for href in response.css('.author+a::attr(href)').extract():
               yield scrapy.Request(response.urljoin(href),
                                     callback=self.parse_author)
         # follow pagination links
         next_page = response.css('li.next a::attr(href)').extract_first()
          if next_page is not None:
               next_page = response.urljoin(next_page)
                yield scrapy.Request(next_page, callback=self.parse)
def parse_author(self, response):
       def extract_with_css(query):
              return response.css(query).extract_first().strip()
        yield {
          'name': extract_with_css('h3.author-title::text'),
          'birthdate': extract_with_css('.author-born-date::text'),
          'bio': extract_with_css('.author-description::text'),
                }
2.2XPath和CSS的選擇器的使用
1.XPath和CSS的語法
  詳情看專門章節
2.XPath和CSS選擇器

scrapy官方建議采用XPath選擇器,因為CSS選擇器的底層也是采用的XPath實現的.

 response.css("xxx") 
// 該方法返回一個類似list的SelectorList對象.
 response.css('title::text').extract()
//直接獲取text便簽下的內容
 response.css('title::text').extract_first()
和response.css('title::text')[0].extract() 是相同功能.但extract_first(),在訪問的對象不存在是返回None,但后者卻是直接拋出異常.
  response.css('title::text').re(r'Quotes.*') 
  response.css('title::text').re(r'(\w+) to (\w+)')
 // re( )方法可以通過正則表達式,獲取需要的對象.

CSS和XPath可以相互轉換

from scrapy import Selector
sel = Selector(text='<div class="hero shout"><div class="mmm">dffdf</div><time datetime="2014-07-23 19:00">Special date</time></div>')
print(sel.css('.shout').xpath('./time/@datetime').extract())
print(sel.xpath('.//div')[1].css('.mmm').extract())

輸出:

['2014-07-23 19:00']
['<div class="mmm">dffdf</div>']
2.3item pipeline的使用

1 . item
item 類提供了一個類似dict的API ,用來提取/存儲數據.也就是說你可以把它當做dict來用.
聲明方法:

import scrapy
class Product(scrapy.Item):
            name = scrapy.Field()
            price = scrapy.Field()
            stock = scrapy.Field()
            last_updated = scrapy.Field(serializer=str)
//Field()簡單理解為初始化方法

創建方法:

product = Product(name='Desktop PC', price=1000)
print product
#Product(name='Desktop PC', price=1000)

值獲取:

>>> product['name']
Desktop PC
>>> product.get('name')
Desktop PC
>>> product['price']
1000
>>> product['last_updated']Traceback (most recent call last):
...
KeyError: 'last_updated'>>> product.get('last_updated', 'not set')
not set
>>> product['lala'] # getting unknown fieldTraceback (most recent call last):
...
KeyError: 'lala'
>>> product.get('lala', 'unknown field')
'unknown field'
>>> 'name' in product # is name field populated?
True
>>> 'last_updated' in product # is last_updated populated?
False
>>> 'last_updated' in product.fields # is last_updated a declared field?
True

快速賦值:

>>> product2 = Product
(product)
>>> print product2Product
(name='Desktop PC', price=1000)
>>> product3 = product2.copy()
>>> print product3Product
(name='Desktop PC', price=1000)

ItemLoaders 提供解析是快速賦值,有時間再看

2 . Item Pipeline

Pipeline類默認方法

 def process_item(self, item, spider)
#這個方法是每一個parse函數(callback)都會調用(必須實現方法)
返回值是后面之中之一:包含數據的字典,Item的類,raise DropItem exception
 def open_spider(self, spider)
#爬蟲開始執行時調用
def close_spider(self, spider)
#爬蟲結束時調用
def from_crawler(cls, crawler)
#生成這個單例類用的配置方法,必須返回一個 Crawler 實例

激活 Item Pipeline 模塊
在設置模塊中添加如下代碼:

ITEM_PIPELINES = { 'myproject.pipelines.PricePipeline': 300, 
'myproject.pipelines.JsonWriterPipeline': 800,
}
#后面的 300, 800 是調用的優先級,范圍: 0 ~ 1000
* Scrapy如何管理Request隊列

這有一點未弄清楚,就是分析出的URLs再次加入爬取隊列的邏輯.

engine會判斷返回的數據類型(item或者是Requst)分別交給item pipline或者是Scheduler將要請求的列表 詳細看 4.Scrapy整體運行流程

3 . Request

只寫提交表單的FormRequest

import scrapy
class LoginSpider(scrapy.Spider):
          name = 'example.com'
          start_urls = ['http://www.example.com/users/login.php']
          def parse(self, response):
              return scrapy.FormRequest.from_response(response, formdata={'username': 'john', 'password': 'secret'}, callback=self.after_login)
          def after_login(self, response):
            if "authentication failed" in response.body:
                self.logger.error("Login failed")
                return
         # continue scraping with authenticated session...
4. Scrapy整體運行流程

數據流向圖:

Data_flow.png

在Scrapy中,數據流被執行Engine控制著,運行方式如下:

  1. Engine 從Spider獲取初始化的Requests.
  2. Engine 把Requests傳遞給Scheduler ,并詢問下一個需要爬取得請求 Requests.
  3. Scheduler 返回下一個Requests 給 Engine
  4. Engine 把3中獲得的Requests通過中間件 (Downloader Middlewares先調用process_request()函數)發送給Downloader.
  5. 當頁面下載完成,Dowenloader會生成一個Response,并把這個Response通過中間件(Downloader Middlewares先調用process_response()函數)發送給 Engine.
  6. Engine 獲得Dowenloader 生成的Response,然后通過中間件(Spider Middleware先調用process_spider_input()函數)發送給Spider
  7. Spider 處理這個Response,然后通過中間件(Spider Middleware先調用process_spider_output()函數)返回抽取生成的items和Reqeusts(網頁中需要爬取得連接生成的請求)
  8. Engine 發送處理過的items給Item Piplines,然后發送 7中生成的請求到Scheduler并詢問下一個需要爬取的請求.
  9. 重復步驟1 , 直到Scheduler中沒有請求
4.1 中間件

Downloader Middlewares 和Spider Middleware
中間件其實就是個Python的class文件,實現對應的方法并在配置文件中聲明注冊即可

 Downloader Middlewares 中間件 : 
process_request() :如果要在爬取請求沒有開始前對請求進行處理.可選這個函數
process_response():頁面返回的數據統需要處理,可以選著個函數.

下載中間件使用場景:

  • 需要在請求發送到Downloader之前需要處理請求
  • 需要在相應被發送給spider之前改變的響應的內容
  • 靜默的丟棄一些請求
Spider Middleware 中間件:
process_spider_input() :如果需要在Spider沒有處理Response強處理響應的話,可以調用這個函數
process_spider_output():如果需要在Spider的parse的函數解析后處理數據,可以調用這個函數

Spider Middleware 中間件使用場景:

  • 處理spider的callback的返回內容 -改變/添加/移除items或Requests
  • 處理開始請求
  • 處理spider的異常
  • call errback instead of callback for some of the requests based on response content.
激活下載中間件

在配置文件中注冊:

DOWNLOADER_MIDDLEWARES = { 'myproject.middlewares.CustomDownloaderMiddleware': 543,
}

Scrapy 中有內建的中間件如下

{
 'scrapy.downloadermiddlewares.robotstxt.RobotsTxtMiddleware': 100,
 'scrapy.downloadermiddlewares.httpauth.HttpAuthMiddlewar': 300,
 'scrapy.downloadermiddlewares.downloadtimeout.DownloadTimeoutMiddleware': 350,
 'scrapy.downloadermiddlewares.defaultheaders.DefaultHeadersMiddleware': 400,
 'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware': 500,
 'scrapy.downloadermiddlewares.retry.RetryMiddleware': 550,
 'scrapy.downloadermiddlewares.ajaxcrawl.AjaxCrawlMiddleware': 560, 
 'scrapy.downloadermiddlewares.redirect.MetaRefreshMiddleware': 580,
 'scrapy.downloadermiddlewares.httpcompression.HttpCompressionMiddleware': 590,
 'scrapy.downloadermiddlewares.redirect.RedirectMiddleware': 600,
 'scrapy.downloadermiddlewares.cookies.CookiesMiddleware': 700,
 'scrapy.downloadermiddlewares.httpproxy.HttpProxyMiddleware': 750,
 'scrapy.downloadermiddlewares.chunked.ChunkedTransferMiddleware': 830,
 'scrapy.downloadermiddlewares.stats.DownloaderStats': 850,
 'scrapy.downloadermiddlewares.httpcache.HttpCacheMiddleware': 900,
}
后面的數字是調用順序.你注冊的中間件會按照數值合并到系統默認的表中(也就是上邊的表).

自定義下載中間件需要實現下面的一個或多個方法:

process_request(request, spider)
每一個經過下載中心的請求都會調用這個函數:返回值 可能是None, Response, Request, 或者IgnoreRequest.

* 返回 None: Scrapy會繼續處理這個請求,知道請求結束
* 返回 Response ,Scrapy 不會調用 其他的process_request() or process_exception() 以及下載方法.直接返回 這個Response. 但是  process_response() 什么時候都會被調用
* 返回 Request ,Scrapy 將會停止調用 process_request 方法 并重新安排這個返回的請求.(這個方法未知)
* 返回 IgnoreRequest,  process_exception() 方法會被調用.如果沒有被調用,err back方法被調用. 仍然沒有,就會被忽略
process_response(request, response, spider)
 返回一個Response 對象,或一個Request 對象,或者拋出一個IgnoreRequest 異常.
返回 Response: 將會被下一個中間件鏈中的 process_response() 處理.
返回 Request : 中間件鏈將會終止,這個請求會被重新安排到下載中心.這個行為類似process_request()的返回Request.
返回 IgnoreRequest: Request.errback 函數會被調用,如果沒有處理這個異常,這個異常將會被忽略并且不會有log輸出(不同于其他的異常).
激活請求中間件

方法和下載中間件類似,在配置文件中注冊

SPIDER_MIDDLEWARES = { 'myproject.middlewares.CustomSpiderMiddleware': 543,
}
process_spider_input(response, spider)
每一個請求響應在返回Spider被處理之前調用這個方法. 方法返回 None 或拋出一個異常.
返回 None : Scrapy 繼續執行余下流程
拋出一個異常: Scrapy 將終止調用其他的 spider 中間件的 process_spider_input
方法,并調用 request errback函數. 這個err back 函數返回的結果會被
process_spider_output() 函數處理,如果err back也拋出一個異常.
,則process_spider_exception()函數會被調用.

process_spider_output(response, result, spider)
這個方法會在response被spider處理后調用.
process_spider_output() 必須返回一個Request, dict or Item objects

process_spider_exception(response, exception, spider)
當 一個spider 或者process_spider_input()(來自其他spider的中間件)  方法拋出一個異常
process_spider_exception() 應該返回一個 None 或一個可迭代的 Response, dict 或Item objects.

返回 None :Scrapy 繼續處理這個異常.執行余下流程中的其他的中間件process_spider_exception() 函數,直到沒有中間件.最終這個異常會到達engine(將會有log)
返回一個可迭代的對象:  異常鏈終止

Spider Middleware 內建中間件

{ 
'scrapy.spidermiddlewares.httperror.HttpErrorMiddleware': 50,
'scrapy.spidermiddlewares.offsite.OffsiteMiddleware': 500,
'scrapy.spidermiddlewares.referer.RefererMiddleware': 700,
'scrapy.spidermiddlewares.urllength.UrlLengthMiddleware': 800,
'scrapy.spidermiddlewares.depth.DepthMiddleware': 900,
}
最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 227,837評論 6 531
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 98,196評論 3 414
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 175,688評論 0 373
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 62,654評論 1 309
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 71,456評論 6 406
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 54,955評論 1 321
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,044評論 3 440
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,195評論 0 287
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 48,725評論 1 333
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 40,608評論 3 354
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 42,802評論 1 369
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,318評論 5 358
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,048評論 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,422評論 0 26
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 35,673評論 1 281
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,424評論 3 390
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 47,762評論 2 372

推薦閱讀更多精彩內容