Python使用Requests抓取包圖網小視頻

抓取包圖網視頻

目標抓取全站視頻數據保存在本地,並以網站視頻名命名視頻文件。

  1. 分析網頁數據結構

經分析我們可以發現總站數據我們可以從這四這選項下手

  1. 分析網頁數據格式

image.png

網頁數據為靜態

  1. 抓取下一頁鏈接

抓取下一頁鏈接

  1. OK, 上代碼!

import requests
from lxml import etree
import threading

class Spider(object):
def __init__(self):
self.headers = {"User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36"}
self.offset = 1

def start_work(self, url):
print("正在爬取第 %d 頁......" % self.offset)
self.offset += 1
response = requests.get(url=url,headers=self.headers)
html = response.content.decode()
html = etree.HTML(html)

video_src = html.xpath(//div[@class="video-play"]/video/@src)
video_title = html.xpath(//span[@class="video-title"]/text())
next_page = "http:" + html.xpath(//a[@class="next"]/@href)[0]
# 爬取完畢...
if next_page == "http:":
return

self.write_file(video_src, video_title)
self.start_work(next_page)

def write_file(self, video_src, video_title):
for src, title in zip(video_src, video_title):
response = requests.get("http:"+ src, headers=self.headers)
file_name = title + ".mp4"
file_name = "".join(file_name.split("/"))
print("正在抓取%s" % file_name)
with open(file_name, "wb") as f:
f.write(response.content)

if __name__ == "__main__":
spider = Spider()
for i in range(0,3):
# spider.start_work(url="https://ibaotu.com/shipin/7-0-0-0-"+ str(i) +"-1.html")
t = threading.Thread(target=spider.start_work, args=("https://ibaotu.com/shipin/7-0-0-0-"+ str(i) +"-1.html",))
t.start()

  1. 運行結果

是不是很簡單呢?!

若想獲取更多學習資源請關注微信公眾號「自學的仙叔」。


推薦閱讀:

Python大牛寫的爬蟲學習路線,分享給大家!
[轉]Python 爬蟲的工具列表 附Github代碼下載鏈接
爬蟲入門4爬取信息之後存儲方法
scrapy爬取妹子圖
數據分析之《我不是葯神》

TAG:Python | python爬蟲 | Python開發 |