在做爬蟲的時候,我們往往可能這些情況:
- 網站比較複雜,會碰到很多重複請求。
- 有時候爬蟲意外中斷了,但我們沒有保存爬取狀態,再次運行就需要重新爬取。
還有諸如此類的問題。
那怎麼解決這些重複爬取的問題呢?大家很可能都想到了“緩存”,也就是説,爬取過一遍就直接跳過爬取。
那一般怎麼做呢?
比如我寫一個邏輯,把已經爬取過的 URL 保存到文件或者數據庫裏面,每次爬取之前檢查一下是不是在列表或數據庫裏面就好了。
是的,這個思路沒問題,但有沒有想過這些問題:
- 寫入到文件或者數據庫可能是永久性的,如果我想控制緩存的有效時間,那就還得有個過期時間控制。
- 這個緩存根據什麼來判斷?如果僅僅是 URL 本身夠嗎?還有 Request Method、Request Headers 呢,如果它們不一樣了,那還要不要用緩存?
- 如果我們有好多項目,難道都沒有一個通用的解決方案嗎?
的確是些問題,實現起來確實要考慮很多問題。
不過不用擔心,今天給大家介紹一個神器,可以幫助我們通通解決如上的問題。
介紹
它就是 requests-cache,是 requests 庫的一個擴展包,利用它我們可以非常方便地實現請求的緩存,直接得到對應的爬取結果。
下面我們來介紹下它的使用。
安裝
安裝非常簡單,使用 pip3 即可:
pip3 install requests-cache
安裝完畢之後我們來了解下它的基本用法。
基本用法
下面我們首先來看一個基礎實例:
import requests
import time
start = time.time()
session = requests.Session()
for i in range(10):
session.get('http://httpbin.org/delay/1')
print(f'Finished {i + 1} requests')
end = time.time()
print('Cost time', end - start)
這裏我們請求了一個網站,是 http://httpbin.org/delay/1 ,這個網站模擬了一秒延遲,也就是請求之後它會在 1 秒之後才會返回響應。
這裏請求了 10 次,那就至少得需要 10 秒才能完全運行完畢。
運行結果如下:
Finished 1 requests
Finished 2 requests
Finished 3 requests
Finished 4 requests
Finished 5 requests
Finished 6 requests
Finished 7 requests
Finished 8 requests
Finished 9 requests
Finished 10 requests
Cost time 13.17966604232788
可以看到,這裏一共用了13 秒。
那如果我們用上 requests-cache 呢?結果會怎樣?
代碼改寫如下:
import requests_cache
import time
start = time.time()
session = requests_cache.CachedSession('demo_cache')
for i in range(10):
session.get('http://httpbin.org/delay/1')
print(f'Finished {i + 1} requests')
end = time.time()
print('Cost time', end - start)
這裏我們聲明瞭一個 CachedSession,將原本的 Session 對象進行了替換,還是請求了 10 次。
運行結果如下:
Finished 1 requests
Finished 2 requests
Finished 3 requests
Finished 4 requests
Finished 5 requests
Finished 6 requests
Finished 7 requests
Finished 8 requests
Finished 9 requests
Finished 10 requests
Cost time 1.6248838901519775
可以看到,一秒多就爬取完畢了!
發生了什麼?
這時候我們可以發現,在本地生成了一個 demo_cache.sqlite 的數據庫。
我們打開之後可以發現裏面有個 responses 表,裏面多了一個 key-value 記錄,如圖所示:
我們可以可以看到,這個 key-value 記錄中的 key 是一個 hash 值,value 是一個 Blob 對象,裏面的內容就是 Response 的結果。
可以猜到,每次請求都會有一個對應的 key 生成,然後 requests-cache 把對應的結果存儲到了 SQLite 數據庫中了,後續的請求和第一次請求的 URL 是一樣的,經過一些計算它們的 key 也都是一樣的,所以後續 2-10 請求就立馬返回了。
是的,利用這個機制,我們就可以跳過很多重複請求了,大大節省爬取時間。
Patch 寫法
但是,剛才我們在寫的時候把 requests 的 session 對象直接替換了。有沒有別的寫法呢?比如我不影響當前代碼,只在代碼前面加幾行初始化代碼就完成 requests-cache 的配置呢?
當然是可以的,代碼如下:
import time
import requests
import requests_cache
requests_cache.install_cache('demo_cache')
start = time.time()
session = requests.Session()
for i in range(10):
session.get('http://httpbin.org/delay/1')
print(f'Finished {i + 1} requests')
end = time.time()
print('Cost time', end - start)
這次我們直接調用了 requests-cache 庫的 install_cache 方法就好了,其他的 requests 的 Session 照常使用即可。
我們再運行一遍:
Finished 1 requests
Finished 2 requests
Finished 3 requests
Finished 4 requests
Finished 5 requests
Finished 6 requests
Finished 7 requests
Finished 8 requests
Finished 9 requests
Finished 10 requests
Cost time 0.018644094467163086
這次比上次更快了,為什麼呢?因為這次所有的請求都命中了 Cache,所以很快返回了結果。
後端配置
剛才我們知道了,requests-cache 默認使用了 SQLite 作為緩存對象,那這個能不能換啊?比如用文件,或者其他的數據庫呢?
自然是可以的。
比如我們可以把後端換成本地文件,那可以這麼做:
import time
import requests
import requests_cache
requests_cache.install_cache('demo_cache', backend='filesystem')
start = time.time()
session = requests.Session()
for i in range(10):
session.get('http://httpbin.org/delay/1')
print(f'Finished {i + 1} requests')
end = time.time()
print('Cost time', end - start)
這裏我們添加了一個 backend 參數,然後指定為 filesystem,這樣運行之後本地就會生成一個 demo_cache 的文件夾用作緩存,如果不想用緩存的話把這個文件夾刪了就好了。
當然我們還可以更改緩存文件夾的位置,比如:
requests_cache.install_cache('demo_cache', backend='filesystem', use_temp=True)
這裏添加一個 use_temp 參數,緩存文件夾便會使用系統的臨時目錄,而不會在代碼區創建緩存文件夾。
當然也可以這樣:
requests_cache.install_cache('demo_cache', backend='filesystem', use_cache_dir=True)
這裏添加一個 use_cache_dir 參數,緩存文件夾便會使用系統的專用緩存文件夾,而不會在代碼區創建緩存文件夾。
另外除了文件系統,requests-cache 也支持其他的後端,比如 Redis、MongoDB、GridFS 甚至內存,但也需要對應的依賴庫支持,具體可以參見下表:
| Backend | Class | Alias | Dependencies |
|---|---|---|---|
| SQLite | SQLiteCache |
'sqlite' |
|
| Redis | RedisCache |
'redis' |
redis-py |
| MongoDB | MongoCache |
'mongodb' |
pymongo |
| GridFS | GridFSCache |
'gridfs' |
pymongo |
| DynamoDB | DynamoDbCache |
'dynamodb' |
boto3 |
| Filesystem | FileCache |
'filesystem' |
|
| Memory | BaseCache |
'memory' |
比如使用 Redis 就可以改寫如下:
backend = requests_cache.RedisCache(host='localhost', port=6379)
requests_cache.install_cache('demo_cache', backend=backend)
Filter
當然,我們有時候也想指定有些請求不緩存,比如只緩存 POST 請求,不緩存 GET 請求,那可以這樣來配置:
import time
import requests
import requests_cache
requests_cache.install_cache('demo_cache2', allowable_methods=['POST'])
start = time.time()
session = requests.Session()
for i in range(10):
session.get('http://httpbin.org/delay/1')
print(f'Finished {i + 1} requests')
end = time.time()
print('Cost time for get', end - start)
start = time.time()
for i in range(10):
session.post('http://httpbin.org/delay/1')
print(f'Finished {i + 1} requests')
end = time.time()
print('Cost time for post', end - start)
這裏我們添加了一個 allowable_methods 指定了一個過濾器,只有 POST 請求會被緩存,GET 請求就不會。
看下運行結果:
Finished 1 requests
Finished 2 requests
Finished 3 requests
Finished 4 requests
Finished 5 requests
Finished 6 requests
Finished 7 requests
Finished 8 requests
Finished 9 requests
Finished 10 requests
Cost time for get 12.916549682617188
Finished 1 requests
Finished 2 requests
Finished 3 requests
Finished 4 requests
Finished 5 requests
Finished 6 requests
Finished 7 requests
Finished 8 requests
Finished 9 requests
Finished 10 requests
Cost time for post 1.2473630905151367
這時候就看到 GET 請求由於沒有緩存,就花了 12 多秒才結束,而 POST 由於使用了緩存,一秒多就結束了。
另外我們還可以針對 Response Status Code 進行過濾,比如只有 200 會緩存,則可以這樣寫:
import time
import requests
import requests_cache
requests_cache.install_cache('demo_cache2', allowable_codes=(200,))
當然我們還可以匹配 URL,比如針對哪種 Pattern 的 URL 緩存多久,則可以這樣寫:
urls_expire_after = {'*.site_1.com': 30, 'site_2.com/static': -1}
requests_cache.install_cache(
'demo_cache2', urls_expire_after=urls_expire_after)
這樣的話,site_1.com 的內容就會緩存 30 秒,site_2.com/static 的內容就永遠不會過期。
當然,我們也可以自定義 Filter。
Cache Headers
除了我們自定義緩存,requests-cache 還支持解析 HTTP Request / Response Headers 並根據 Headers 的內容來緩存。
比如説,我們知道 HTTP 裏面有個 Cache-Control 的 Request / Response Header,它可以指定瀏覽器要不要對本次請求進行緩存,那 requests-cache 怎麼來支持呢?
實例如下:
import time
import requests
import requests_cache
requests_cache.install_cache('demo_cache3')
start = time.time()
session = requests.Session()
for i in range(10):
session.get('http://httpbin.org/delay/1',
headers={
'Cache-Control': 'no-store'
})
print(f'Finished {i + 1} requests')
end = time.time()
print('Cost time for get', end - start)
start = time.time()
這裏我們在 Request Headers 裏面加上了 Cache-Control 為 no-store,這樣的話,即使我們聲明瞭緩存那也不會生效。
當然 Response Headers 的解析也是支持的,我們可以這樣開啓:
requests_cache.install_cache('demo_cache3', cache_control=True)
如果我們配置了這個參數,那麼 expire_after 的配置就會被覆蓋而不會生效。
總結
好了,到現在為止,一些基本配置、過期時間配置、後端配置、過濾器配置等基本常見的用法就介紹到這裏啦!
如果你覺得文章還不錯,歡迎關注公眾號:Python編程學習圈,或是前往編程學習網,瞭解更多編程技術知識,還有大量乾貨學習資料可以領取!