我們在使用Python爬蟲爬取一個網(wǎng)站的時候,通常會頻繁訪問該網(wǎng)站。 假設一個網(wǎng)站可以檢測到某個IP地址在一定時間內的訪問次數(shù),如果該IP地址在一定時間內持續(xù)被訪問并且訪問次數(shù)遠遠超過正常用戶的訪問次數(shù) ,則該網(wǎng)站將禁止該IP地址繼續(xù)訪問。 因此,這時候可以設置一些代理服務器來幫助您完成工作。 每次訪問時間過長或者訪問頻率特別高的時候,可以換一個IP代理,這樣就不會因為訪問頻繁而被禁止了,訪問現(xiàn)象。
我們在學習Python爬蟲的時候,經常會遇到想要爬取的網(wǎng)站采用了反爬取技術,導致爬取失敗。 網(wǎng)頁信息的高強度、高效率爬取,往往給網(wǎng)絡服務器帶來巨大壓力。 因此,如果同一個IP重復爬取同一個網(wǎng)頁,極有可能被攔截。 所以下面這篇文章介紹了一個爬蟲技巧,設置代理IP
這里我們介紹一個代理IP,Rhino代理,只需要使用
配置環(huán)境
來安裝requests library
安裝bs4庫
安裝lxml庫
具體代碼
不多說,直接上傳代碼
function get_ip_list(url, headers) 傳入url和headers,最后返回一個IP列表。 列表的元素類似于 122.114.31.177:808 的格式。 這個列表包括國內隱藏代理IP網(wǎng)站首頁的所有IP地址和端口
函數(shù) get_random_ip(ip_list) 傳入第一個函數(shù)得到的列表,并返回一個隨機代理。 這個代理可以傳遞給請求的get方法,這樣每次運行都可以使用不同的IP訪問被爬取的網(wǎng)站,有效避免真實IP被屏蔽的風險
代理格式是 一本字典:{'http':'http://122.114.31.177:808'},可以改下面的執(zhí)行也封裝了一個方法
為了抓取IP,Xspur代理的服務器做了反爬蟲處理。 如果頻繁抓取,服務器會主動返回503錯誤提示block,所以在請求的時候可以先一次保存一個文件讀取這個文件,或者抓取一個ip使用幾分鐘,然后 再爬一次,相當于加了一個計時函數(shù)
使用代理IP
運行上面的代碼會得到一個隨機的代理,可以直接傳入request的get方法
動態(tài)IP模擬器