今天簡單聊聊Scrapy的安裝。
前幾天有小伙伴留言說能不能介紹推薦一下爬蟲框架,我給他推薦了Scrapy,本來想偷個懶,推薦他去看官方文檔,里面有一些demo代碼可供學習測試。結(jié)果收到回復說文檔中演示用到的網(wǎng)站已經(jīng)無法訪問了。所以只能自己來簡單寫一下了,也算是自己一個學習記錄。
Scrapy是什么?
定義介紹我也不復制粘貼了。簡單來說,Scrapy是一個中大型的爬蟲框架,框架的意義就在于幫你預設(shè)好了很多可以用的東西,讓你可以從復雜的數(shù)據(jù)流和底層控制中抽離出來,專心于頁面的解析即可完成中大項目爬蟲,甚至是分布式爬蟲。
但是爬蟲入門是不推薦直接從框架入手的,直接從框架入手會讓你頭暈目眩,覺得哪兒哪兒都看不懂,有點類似于還沒學會基礎(chǔ)的遣詞造句就直接套用模板寫成文章,自然是十分吃力的。所以還是推薦大家有一定的手寫爬蟲基礎(chǔ)再深入了解框架。(當然還沒有入門爬蟲的同學…可以催更我的爬蟲入門文章…)
那么首先是安裝。
Python的版本選擇之前提過,推薦大家全面擁抱Python 3.x。
很久以前,大概是我剛?cè)腴T學習Scrapy時,Scrapy還沒有支持Python 3.x,那時一部分爬蟲工程師把Scrapy不支持Python 3.x作為不進行遷移的理由。當然了,那時更具體的原因是Scrapy所依賴的twisted和mitmproxy不支持Python 3.x。
現(xiàn)在我依然推薦大家全面擁抱Python 3.x。
先安裝Python
這次我們以本地環(huán)境來進行安裝(Windows+Anaconda),由于Python的跨平臺特性,我們本地寫的代碼可以很容易遷移到別的電腦或服務(wù)器使用。(當然了,從規(guī)范使用的角度上推薦大家使用單獨的env,或者直接使用docker或者vagrant,不過那就說來話長了…以后可以考慮單獨介紹)
按照慣例,我們直接使用 pip install scrapy 進行安裝。
那么,你大概率會遇到這樣的錯誤:
具體的錯誤原因…缺少Microsoft Visual C++ 14.0…你也可以自己通過其他渠道解決,當然我們最推薦的做法是直接使用 conda install scrapy 命令(前提是你安裝了Anaconda而非普通Python)。
如果遇到寫入權(quán)限錯誤,請用管理員模式運行cmd。
之后我們可以寫一個很小的demo,依然是官方案例中的DMOZ,DMOZ網(wǎng)站是一個著名的開放式分類目錄(Open DirectoryProject),原版的DMOZ已于去年的3月17日停止了運營,目前網(wǎng)站處于403狀態(tài)。但是網(wǎng)上大量過去的教程都是以DMOZ為案例的。我為大家找到了原DMOZ網(wǎng)站的靜態(tài)鏡像站,大家可以直接訪問 http://dmoztools.net/
大家按照官方文檔的步驟繼續(xù)做就可以了,后續(xù)的問題不大。
(http://scrapy-chs.readthedocs.io/zh_CN/0.24/intro/tutorial.html)
需要注意的就是工作目錄問題。
啟動Scrapy項目。
scrapy startproject tutorial
進入目錄,我們可以看到自動生成的一些文件,這些文件就是scrapy框架所需要的最基礎(chǔ)的組織結(jié)構(gòu)。
scrapy.cfg: 項目的配置文件
tutorial/: 該項目的python模塊。之后您將在此加入代碼。
tutorial/items.py: 項目中的item文件.
tutorial/pipelines.py: 項目中的pipelines文件.
tutorial/settings.py: 項目的設(shè)置文件.
tutorial/spiders/: 放置spider代碼的目錄.