免费视频淫片aa毛片_日韩高清在线亚洲专区vr_日韩大片免费观看视频播放_亚洲欧美国产精品完整版

打開APP
userphoto
未登錄

開通VIP,暢享免費(fèi)電子書等14項(xiàng)超值服

開通VIP
關(guān)于Scrapy爬蟲項(xiàng)目運(yùn)行和調(diào)試的小技巧(下篇)

人閑桂花落,夜靜春山空。

    前幾天給大家分享了關(guān)于Scrapy爬蟲項(xiàng)目運(yùn)行和調(diào)試的小技巧上篇,沒來得及上車的小伙伴可以戳超鏈接看一下。今天小編繼續(xù)沿著上篇的思路往下延伸,給大家分享更為實(shí)用的Scrapy項(xiàng)目調(diào)試技巧。

三、設(shè)置網(wǎng)站robots.txt規(guī)則為False

一般的,我們?cè)谶\(yùn)用Scrapy框架抓取數(shù)據(jù)之前,需要提前到settings.py文件中,將“ROBOTSTXT_OBEY = True”改為ROBOTSTXT_OBEY = False

在未改動(dòng)之后settings.py文件中默認(rèn)爬蟲是遵守網(wǎng)站的robots.txt規(guī)則的,如下圖所示。

如果遵守robots.txt規(guī)則的話,那么爬取的結(jié)果會(huì)自動(dòng)過濾掉很多我們想要的目標(biāo)信息,因此有必要將該參數(shù)設(shè)置為False,如下圖所示。

設(shè)置好robots.txt規(guī)則之后,我們便可以抓到更多網(wǎng)頁(yè)的信息。

四、利用Scrapy shell進(jìn)行調(diào)試

通常我們要運(yùn)行Scrapy爬蟲程序的時(shí)候會(huì)在命令行中輸入“scrapy crawl crawler_name”,細(xì)心的小伙伴應(yīng)該知道上篇文章中創(chuàng)建的main.py文件也是可以提高調(diào)試效率的,不過這兩種方法都是需要從頭到尾運(yùn)行Scrapy爬蟲項(xiàng)目,每次都需要請(qǐng)求一次URL,效率十分低。運(yùn)行過Scrapy爬蟲項(xiàng)目的小伙伴都知道Scrapy運(yùn)行的時(shí)候相對(duì)較慢,有時(shí)候因?yàn)榫W(wǎng)速不穩(wěn)定,根部就無法動(dòng)彈。針對(duì)每次都需要運(yùn)行Scrapy爬蟲的問題,這里介紹Scrapy shell調(diào)試方法給大家,可以事半功倍噢。

Scrapy給我們提供了一種shell模式,讓我們可以在shell腳本之下獲取整個(gè)URL對(duì)應(yīng)的網(wǎng)頁(yè)源碼。在命令行中進(jìn)行運(yùn)行,其語法命令是“scrapy shell URL”,URL是指你需要抓取的網(wǎng)頁(yè)網(wǎng)址或者鏈接,如下圖所示。

該命令代表的意思是對(duì)該URL進(jìn)行調(diào)試,當(dāng)命令執(zhí)行之后,我們就已經(jīng)獲取到了該URL所對(duì)應(yīng)的網(wǎng)頁(yè)內(nèi)容,之后我們就可以在該shell下進(jìn)行調(diào)試,再也不用每次都執(zhí)行Scrapy爬蟲程序,發(fā)起URL請(qǐng)求了。

通過shell腳本這種方式可以極大的提高調(diào)試的效率,具體的調(diào)試方法同爬蟲主體文件中的表達(dá)式語法一致。舉個(gè)栗子,如下圖所示。

將兩個(gè)Xpath表達(dá)式所對(duì)應(yīng)的選擇器放到scrapy shell調(diào)試的腳本下,我們可以很清楚的看到提取的目標(biāo)信息,而且省去了每次運(yùn)行Scrapy爬蟲程序的重復(fù)步驟,提高了開發(fā)效率。這種方式在Scrapy爬蟲過程中十分常用,而且也十分的實(shí)用,希望小伙伴們都可以掌握,并且積極主動(dòng)的為自己所用。

關(guān)于Scrapy爬蟲項(xiàng)目運(yùn)行和調(diào)試的部分小技巧先分享到這里,尤其是Debug調(diào)試和Scrapy shell調(diào)試極為常用,希望小伙伴們可以多多利用起來,讓其為自己的項(xiàng)目服務(wù),可以事半功倍噢~~

------------------- End -------------------

本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
scrapy終端常用命令
python爬蟲Scrapy框架筆記
獨(dú)家|教你用Scrapy建立你自己的數(shù)據(jù)集
python抓取數(shù)據(jù)
Python爬蟲:Scrapy從腳本運(yùn)行爬蟲的5種方式!
一篇文章教會(huì)你理解Scrapy網(wǎng)絡(luò)爬蟲框架的工作原理和數(shù)據(jù)采集過程
更多類似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服