用python寫爬蟲時用自帶的urllib好還是用request庫好,還是兩個都要學?

感覺urllib比request繁瑣,但是很多技術貼上都是用urllib,是不是urllib包含的內容更豐富?


1、先學標準庫,搞懂原理

2、以後用的時候,盡量用requests


出於學習目的,那麼都是要學的。要是為了做項目,肯定用 requests,能省很多事!


自己曾經測了下運行時間,在解析大一點的json上,requests比url好像要快很多,建議兩個都接觸,具體用哪個,分別相應情境下的時間


看個人吧 我偏向於requests


推薦閱讀:

C#多線程發送http請求效率是否比python慢?
一個爬蟲框架需要具備哪些功能?
爬蟲數據礦工的命運?
標準化的互聯網採集工具的前景在哪裡?
pyspider 和 scrapy 比較起來有什麼優缺點嗎?

TAG:Python | 爬蟲計算機網路 |