requests.get(url, headers=headers)另外我們也可以在每爬完一個檔案後,讓爬蟲休息一下,因為如果短時間內大量爬取檔案,有很大的機率會被該網站擋下來、鎖IP。 time.
確定! 回上一頁