用python寫爬蟲時用自帶的urllib好還是用request庫好,還是兩個都要學?
12-28
感覺urllib比request繁瑣,但是很多技術貼上都是用urllib,是不是urllib包含的內容更豐富?
1、先學標準庫,搞懂原理
2、以後用的時候,盡量用requests
出於學習目的,那麼都是要學的。要是為了做項目,肯定用 requests,能省很多事!
自己曾經測了下運行時間,在解析大一點的json上,requests比url好像要快很多,建議兩個都接觸,具體用哪個,分別相應情境下的時間
看個人吧 我偏向於requests
推薦閱讀:
※C#多線程發送http請求效率是否比python慢?
※一個爬蟲框架需要具備哪些功能?
※爬蟲數據礦工的命運?
※標準化的互聯網採集工具的前景在哪裡?
※pyspider 和 scrapy 比較起來有什麼優缺點嗎?