巧用抓包 ― 爬遍SCU玻璃杯事件所有神回復
最近我川又搞事情了
然後info又炸了,,,
據說最開始是這樣的:
然後是這樣的:
(三張圖截圖於:四川大學官方微信公眾號)然後一發不可收拾了,校園各處不約而同響起了摔杯的聲音,微信微博朋友圈qq空間,特么也全是玻璃碎片啊!!!
(具體就不放圖了,想直接看帖的點擊這裡:info神回復前100條)
摔碎一個玻璃杯炸出我川多少優秀段子手!據說後面還引來了武大、浙大等校觀光團。
如此空前盛況怎能錯過,寶寶決定搞點事情。
怎麼可能又摔杯!!
(話說我的杯子是塑料的好吧,還PET呢)
不胡扯了,上Info爬取玻璃杯事件100條熱門神評論,嗯先立個flag。
一、過程
搜了一下網頁版的scuinfo
首先初步觀察分析
點擊一看也是瀑布流,需要下拉刷新。
再看一下源碼,一下就懵了,什麼關鍵數據也沒有呀,用pycharm獲取一樣。可以看出採用的javascript和jquery,有點難辦了。
最先想到是用selenium定位然後截屏什麼的,結果連續報錯:無法定位到元素。
(現在該專欄已更名為 爬蟲從入門到精通系統教程)
這裡是我們要到包
點開看到每個評論真實URL地址,估計每一個評論皆有個特殊的id
將URL粘貼至瀏覽器
原來所有信息都在這個包裡面了!!!
找到所有id構造URL,requests獲取即可。下拉找到原帖id=131599接著就是獲取最新帖子id。
特么我在這又兜圈了!因為帖子是隨時更新的,想著可以一試selenium模擬瀏覽器。結果又定位失敗,搞了好久決定先擱置。
先去獲取和處理數據
仔細觀察數據,發現string格式的,裡面是一個dict,dict裡面data又是一個dict。
「如何將string格式轉變為dict」百度搜到一靠譜答案。測試可用。後面才發現這一堆原來是json格式的(回去翻基礎,難怪如此熟悉),又將eval()換成json.loads()。基礎不牢地動山搖啊。。。
提取重要信息,再從comment中提取「玻璃杯事件」評論,決定匹配正則最快。
可「如何在中文中匹配中文關鍵詞」?之前都是在標籤中提取數據,情況少見真的把我難住了,編碼問題讓人頭痛。
滾去睡覺,第二天查資料,統統的不行啊。靜下心想了想,pycharm獲取的數據本來就是Unicode格式的,只要源碼先不encode為utf-8,將中文關鍵詞在IDE中轉為Unicode格式,不就可以匹配的上了么?
事實如此!
四個關鍵詞:「玻璃」、「杯」、「摔」、「觀光」pattern=re.compile(u玻璃|杯|摔|觀光,re.S)nitems=re.search(pattern,body)n
我以為接下來就是美滋滋地等待一堆數據,結果又報錯:
這個list什麼鬼?於是回去查看。原來data是空的list,估計是已經刪除的評論,所以為None。再試了下不存在的id,比如id=137945,同樣如此。
改了下代碼,可以運行。if not isinstance(data, list):n xxx(內容)nelse:n print Nonen
返回獲取最新帖子id
曾經想過最後打出10個或以上的None然後break結束,但發現代碼無法實現,只能手動結束,心想這算什麼程序,不行。很無聊又到info上看帖去了(MDZZ。。。)
後來再打開network發獃了下,想到了。
既然打開一頁可以抓包,那麼刷新看新評論肯定也可以呀。每次刷新頁面便會請求
URL=「http://www.scuinfo.com/api/posts?pageSize=15」,驗證了下15就是一頁總評論數,這麼簡單,為什麼之前沒想到啊啊!(簡直想表演胸口碎大石)篩選熱門100條神回復
先把每一項的發言、點贊、評論保存入一個list中,然後多個list放到一個大的list中(暫且叫container)。可提取的時候麻煩了,我想按照點贊數排列container中所有的list,怎麼辦呀。
試了許久,百度搜索「list集合中如何按照某一個屬性排序」,無果。
def getSort(self):n container=self.getDetail()n print un,u將所有評論按照點贊數大小排序:n container.sort(key=lambda k:k.get(comment,0))n container.sort(key=lambda k:k.get(like,0),reverse=True)n for index,r in enumerate(container):n print unn序號:,index+1, un發言:,r[body],un點贊: ,r[like],u評論,r[comment]n
原本以為到這裡就結束了,結果運行過程中又出新bug了
(真懷疑自己是否是招bug體質哎。。。):沒見過於是查資料,原來如此,get !二、結果
數據是昨天的。今天又運行了程序,發現已不止1200下面就是熱門評論了爬取的數據實在是多,象徵性放前20條
想看完整版100條的可以點這裡:info神回復前100條
三、代碼
源碼我放在Github上了:
https://github.com/LUCY78765580/Python-web-scraping/blob/master/BoLiBei.py
(如果您覺得不錯,star我也可以的喲~^_^)
終於搞定一切,接下來干點什麼好?
四、總結
這一次寫爬蟲,遇到不少問題,總結如下:
1、破解javascript動態網頁(抓包)2、json格式數據解析(json.loads())3、在中文中匹配特定中文的正則表達式(先將關鍵詞轉換)4、多個dict按照某一屬性排序問題(lambda函數和enumerate迭代器)5、http連接太多沒有關閉報錯的問題回去補補基礎。
不過算是學會了抓包,這種東西簡直有如神器呀。嘿嘿,本篇就是這樣啦~
推薦閱讀:
※黑客你好,請使用Python編寫一個滲透測試探測器
※再也不用擔心網頁編碼的坑了!
※即將發布的 tornado 2.0 將會帶來哪些特性?
※第一天——畫一個圓