免费视频淫片aa毛片_日韩高清在线亚洲专区vr_日韩大片免费观看视频播放_亚洲欧美国产精品完整版

打開APP
userphoto
未登錄

開通VIP,暢享免費(fèi)電子書等14項(xiàng)超值服

開通VIP
如何使用robots.txt防止搜索引擎抓取頁面
Robots.txt 文件對(duì)抓取網(wǎng)絡(luò)的搜索引擎漫游器(稱為漫游器)進(jìn)行限制。這些漫游器是自動(dòng)的,在它們?cè)L問網(wǎng)頁前會(huì)查看是否存在限制其訪問特定網(wǎng)頁的 robots.txt 文件。如果你想保護(hù)網(wǎng)站上的某些內(nèi)容不被搜索引擎收入的話,robots.txt 是一個(gè)簡(jiǎn)單有效的工具。這里簡(jiǎn)單介紹一下怎么使用它。

 

  如何放置 Robots.txt 文件

  robots.txt自身是一個(gè)文本文件。它必須位于域名的根目錄中并 被命名為"robots.txt"。位于子目錄中的 robots.txt 文件無效,因?yàn)槁纹髦辉谟蛎母夸浿胁檎掖宋募?。例如?a >http://www.example.com/robots.txt 是有效位置,http://www.example.com/mysite/robots.txt 則不是。

  這里舉一個(gè)robots.txt的例子:

  User-agent: *

  Disallow: /cgi-bin/

  Disallow: /tmp/

  Disallow: /~name/

  使用 robots.txt 文件攔截或刪除整個(gè)網(wǎng)站

  要從搜索引擎中刪除您的網(wǎng)站,并防止所有漫游器在以后抓取您的網(wǎng)站,請(qǐng)將以下 robots.txt 文件放入您服務(wù)器的根目錄:

  User-agent: *

  Disallow: /

  要只從 Google 中刪除您的網(wǎng)站,并只是防止 Googlebot 將來抓取您的網(wǎng)站,請(qǐng)將以下 robots.txt 文件放入您服務(wù)器的根目錄:

  User-agent: Googlebot

  Disallow: /

  每個(gè)端口都應(yīng)有自己的 robots.txt 文件。尤其是您通過 http 和 https 托管內(nèi)容的時(shí)候,這些協(xié)議都需要有各自的 robots.txt 文件。例如,要讓 Googlebot 只為所有的 http 網(wǎng)頁而不為 https 網(wǎng)頁編制索引,應(yīng)使用下面的 robots.txt 文件。

  對(duì)于 http 協(xié)議 (http://yourserver.com/robots.txt):

  User-agent: *

  Allow: /

  對(duì)于 https 協(xié)議 (https://yourserver.com/robots.txt):

  User-agent: *

  Disallow: /

  允許所有的漫游器訪問您的網(wǎng)頁

  User-agent: *

  Disallow:

 ?。硪环N方法: 建立一個(gè)空的 "/robots.txt" 文件, 或者不使用robot.txt。)

  使用 robots.txt 文件攔截或刪除網(wǎng)頁

  您可以使用 robots.txt 文件來阻止 Googlebot 抓取您網(wǎng)站上的網(wǎng)頁。 例如,如果您正在手動(dòng)創(chuàng)建 robots.txt 文件以阻止 Googlebot 抓取某一特定目錄下(例如,private)的所有網(wǎng)頁,可使用以下 robots.txt 條目:

  User-agent: Googlebot

  Disallow: /private

  要阻止 Googlebot 抓取特定文件類型(例如,.gif)的所有文件,可使用以下 robots.txt 條目:

  User-agent: Googlebot

  Disallow: /*.gif$

  要阻止 Googlebot 抓取所有包含 ? 的網(wǎng)址(具體地說,這種網(wǎng)址以您的域名開頭,后接任意字符串,然后是問號(hào),而后又是任意字符串),可使用以下條目:

  User-agent: Googlebot

  Disallow: /*?

  盡管我們不抓取被 robots.txt 攔截的網(wǎng)頁內(nèi)容或?yàn)槠渚幹扑饕?,但如果我們?cè)诰W(wǎng)絡(luò)上的其他網(wǎng)頁中發(fā)現(xiàn)這些內(nèi)容,我們?nèi)匀粫?huì)抓取其網(wǎng)址并編制索引。因此,網(wǎng)頁網(wǎng)址及其他公開的信息,例如指 向該網(wǎng)站的鏈接中的定位文字,有可能會(huì)出現(xiàn)在 Google 搜索結(jié)果中。不過,您網(wǎng)頁上的內(nèi)容不會(huì)被抓取、編制索引和顯示。

  作為網(wǎng)站管理員工具的一部分,Google提供了robots.txt分析工具 。它可以按照 Googlebot 讀取 robots.txt 文件的相同方式讀取該文件,并且可為 Google user-agents(如 Googlebot)提供結(jié)果。我們強(qiáng)烈建議您使用它。 在創(chuàng)建一個(gè) robots.txt 文件之前,有必要考慮一下哪些內(nèi)容可以被用戶搜得到,而哪些則不應(yīng)該被搜得到。 這樣的話,通過合理地使用 robots.txt , 搜索引擎在把用戶帶到您網(wǎng)站的同時(shí),又能保證隱私信息不被收錄。

本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
如何創(chuàng)建robots.txt文件?
robots.txt寫法,規(guī)范,作用
robots
robots.txt 指南
googlebot
搜索引擎原理-網(wǎng)絡(luò)蜘蛛和ROBOTS
更多類似文章 >>
生活服務(wù)
分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服