Python爬取某網站數據分析報告,不滿十八歲禁止觀看

聲明:此文并不是標題黨,如果你不滿18歲,請馬上關閉,在父母陪同下觀看也不行。

數據來源

本文的數據抓取自國內最大的亞文化視頻社區網站(不,不是 B 站),其中用戶出于各種目的會在發帖的標題中加入城市名稱,于是本文抓取了前10000個帖子的標題和發帖用戶 ID,由于按照最近發帖的順序排列,所以抓取數據基本上涵蓋了2016年期間的發帖內容。然后通過匹配提取標題中所包含的城市信息,對16年活躍用戶的歸屬地進行分析統計,另根據最近發布的《2016年中國主要城市 GDP 排名》:

想要學習Python。關注小編簡書,私信【學習資料】,即可免費領取一整套系統的板Python學習教程!

檢驗兩者之間是否存在某種程度的相關。

爬蟲

當然本文的目的主要還是出于純粹的技術討論與實踐,數據抓取和分析處理均使用 Python 完成,其中主要用到的數據處理和可視化工具包分別是Pandas和Plot.ly+Pandas。

由于網站使用較傳統的論壇框架,經測試也沒有防爬蟲的措施,因此可以大膽地使用多線程,對于網頁內容分析也可以直接用正則匹配完成:

import requests as req

import re

from threading import Thread

def parser(url):

res = req.get(url)

html = res.text.encode(res.encoding).decode()

titles = re.findall(RE_TITLE, html)

v = []

if titles is not None:

for title in titles:

if len(title) == 2 and title[-1] != 'admin':

if title[0][-1] != '>':

v.append(title)

return v

def worker(rag):

"""

將每個線程的數據臨時存儲到一個新的文本文件中即可。

"""

with open('{}+{}.txt'.format(rag), 'w+') as result:

for p in range(

rag):

url = ENT_PAT.format(p)

for title in parser(url):

result.write("{}|{}

".format(*title))

def main():

threads = []

for i in range(len(SECTIONS)-1):

threads.append(Thread(target=worker, args=(SECTIONS[i:i+2],)))

for thr in threads:

thr.start()

ifname== 'main':

main()

以上就是爬蟲部分的代碼(當然隱去了最關鍵的網址信息,當然這對老司機們來說并不是問題)。

Pandas

Pandas 可以看做是在 Python 中用于存儲、處理數據的 Excel,與 R 語言中的 data.frame 的概念相似。首先將所有單獨存儲的文件中的數據導入到 Pandas:

import os

import pandas as pd

title, user = [], []

for root, _, filenames in os.walk('raws'):

for f in filenames:

with open(os.path.join(root, f), 'r') as txt:

for line in txt.readlines():

if line and len(line.split("|")) == 2:

t, u = line.split("|")

title.append(t)

user.append(u.strip())

data = pd.DataFrame({"title": title, "user": user})

保存到 csv 文件備用

data.to_csv("91.csv", index=False)

接下來以同樣的方式將國內主要城市數據、2016主要城市 GDP 排行數據加載到 Pandas 中備用。

數據分析

首先需要明確以目前的數據可以探討哪些有趣的問題:

各個城市的發帖總數;

各個城市的活躍用戶數量;

以上兩個數據結果與 GDP 之間的關系;

發帖形式分類(雖然這個問題的答案可能更有趣,以目前的數據量很難回答這問題,而且需要涉及到較復雜的 NLP,先寫在這里);

最活躍的用戶來自哪里。

首先加載備用的數據:

import pandas as pd

TABLE_POSTS = pd.read_csv("91.csv")

TABLE_CITY = pd.read_csv("TABLE_CITY.csv")

TABLE_GDP = pd.read_csv("TABLE_GDP.csv")

匹配標題中是否存在城市的名稱:

# 先替換可能出現的“昵稱”

TABLE_POSTS.title = TABLE_POSTS.title.str.replace("帝都", "北京")

TABLE_POSTS.title = TABLE_POSTS.title.str.replace("魔都", "上海")

def query_city(title):

for city in TABLE_CITY.city:

if city in title:

return city

return 'No_CITY'

TABLE_POSTS['city'] = TABLE_POSTS.apply(

lambda row: query_city(row.title),

axis=1)

過濾掉沒有出現城市名的數據:

posts_with_city = TABLE_POSTS.loc[TABLE_POSTS.city != 'No_CITY']

以城市名進行 groupby,并按發帖數之和倒序排列:

posts_with_city_by_posts = posts_with_city.groupby(by="city").count().sort_values("title", ascending=False)[['title']].head(20)

現在已經可以直接回答第一個問題了,用 Plot.ly 將 Pandas 中的數據可視化出來,有兩種方式,我們選擇較簡單的 cufflinks 庫,直接在 DataFrame 中繪制:

import cufflinks as cf

cf.set_config_file(world_readable=False,offline=True)

posts_with_city_by_posts.head(10).iplot(kind='pie',

labels='city',

values='title',

textinfo='label+percent',

colorscale='Spectral',

layout=dict(

title="City / Posts",

width="500",

xaxis1=None,

yaxis1=None))

Python爬取某網站數據分析報告,不滿十八歲禁止觀看

前6名基本上不出什么意外,但是大山東排在第7名,這就有點意思了。為了排除某些“特別活躍”用戶的干擾,將用戶重復發帖的情況去除,只看發帖用戶數量:

# 去除 user 欄中的重復數據

uniq_user = posts_with_city.drop_duplicates('user')

同樣按照城市 groupby,然后倒序排列

posts_with_city_by_user = uniq_user.groupby(by="city").count().sort_values("title", ascending=False)[['title']].head(15)

posts_with_city_by_user.head(10).iplot(kind='pie',

values='title',

labels='city',

textinfo='percent+label',

colorscale='Spectral',

layout=dict(title="City / Users",

width="500",

xaxis1=None,

yaxis1=None))

Impressive,山東。至少說明還是比較含蓄,不太愿意寫明具體的城市?是這樣嗎,這個問題可以在最后一個問題的答案中找到一些端倪。

接下來要和 GDP 數據整合到一起,相當于將兩個 DataFrame 以城市名為鍵 join 起來:

posts_with_city_by_user_and_gdp = posts_with_city_by_user.merge(TABLE_GDP, left_on='city', right_on='city', how='inner')

由于有些漏掉的排行數據,同時由于人口數據較大,需要進行一定的預處理和標準化處理:

posts_with_city_by_user_and_gdp['norm_title'] =

posts_with_city_by_user_and_gdp.title/posts_with_city_by_user_and_gdp['pop']

posts_with_city_by_user_and_gdp['norm_rank'] =

posts_with_city_by_user_and_gdp['rank'].rank()

posts_with_city_by_user_and_gdp['x'] =

posts_with_city_by_user_and_gdp.index.max() - posts_with_city_by_user_and_gdp.index + 1

posts_with_city_by_user_and_gdp['y'] =

posts_with_city_by_user_and_gdp['norm_rank'].max() - posts_with_city_by_user_and_gdp['norm_rank'] + 1

繪制氣泡圖,氣泡大小為用戶數量與人口數的比,坐標值越大排行越高:

可以看到基本上存在一定程度的相關,但是到這里我們發現更有趣的數據應該是那些出現在 GDP 排行榜上卻沒有出現在網站排行上的城市,是不是說明這些城市更加勤勞質樸,心無旁騖地擼起袖子干呢?

good_cities = posts_with_city_by_user.merge(TABLE_GDP, left_o

="city", right_on="city", how="right")

good_cities[list(good_cities.title.isnull())][['city', 'rank', 'pop', 'title']]

注:由于 posts_with_city_by_user 只截取了前15,實際上青島是排在前20的,從下一個結果中就能看出來…

最后一個問題,最活躍的老司機們都來自哪個城市?

user_rank = pd.DataFrame(TABLE_POSTS.user.value_counts().head(20))

user_rank.reset_index(level=0, inplace=True)

user_rank.columns = ['user', 'count']

user_rank.merge(posts_with_city[['user', 'city']], left_on='user', right_on='user', how='inner').drop_duplicates(['user','city'])

總結

以上就是全部數據與分析的結果。其實大部分只是一個直觀的結果展示,既沒有嚴謹的統計分析,也沒有過度引申的解讀。只有經過統計檢驗才能得出擁有可信度的結論,在一開始已經說明了本文只是純粹的技術討論與實踐,所抓取的10000多條數據也只是網站中某個板塊,因此對于以上結果不必太過認真。

想要學習Python。關注小編小編,私信【學習資料】,即可免費領取一整套系統的板Python學習教程!

?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 228,030評論 6 531
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 98,310評論 3 415
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 175,951評論 0 373
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 62,796評論 1 309
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 71,566評論 6 407
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,055評論 1 322
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,142評論 3 440
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,303評論 0 288
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 48,799評論 1 333
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 40,683評論 3 354
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 42,899評論 1 369
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,409評論 5 358
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,135評論 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,520評論 0 26
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 35,757評論 1 282
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,528評論 3 390
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 47,844評論 2 372

推薦閱讀更多精彩內容

  • pyspark.sql模塊 模塊上下文 Spark SQL和DataFrames的重要類: pyspark.sql...
    mpro閱讀 9,479評論 0 13
  • 瑜姐一字眉上的額頭上,有著很明顯的抬頭紋,我很好奇,他是為多少事而愁呢?她整天都穿著一身黑,戴著黑色帽子,低著頭,...
    仙baby閱讀 396評論 0 3
  • 《了凡四訓》我看了不下五遍,越看越覺得其中有許多值得研究之地方。目前我黨也在積極推進大家學習,如果想覺得更加有效,...
    承謙閱讀 412評論 0 0
  • 試想一下: 夏夜炎炎,你正和朋友吹著瓶、擼著串。 突然隔壁兩桌不知為什么起了沖突,雙方對峙,形勢緊張。 你眼看著其...
    別樣beyond閱讀 1,134評論 0 0