歡迎您來到潮人地東莞seo博客,本站專業免費分享多元化的seo網站優化技術干貨以及解答seo各種常見問題的博客網站

熱門關鍵詞: seo優化 seo推廣 seo技術 seo博客 seo網站推廣怎么做 seo怎么做 新手做seo怎么做
當前位置:seo博客首頁 > seo教程 >

SEO教程博客:關于robots.txt文件的寫法和正確使用方法

發布時間:2023-03-18 07:45:01 文章出處:潮人地東莞seo博客 作者:東莞seo博客 閱讀數量:

潮人地東莞seo博客小編下面跟大家分享關于SEO教程博客:關于robots.txt文件的寫法和正確使用方法等問題,希望seo專員在做seo優化的過程中有所幫助,內容僅供參考。

SEO教程博客:關于robots.txt文件的寫法和正確使用方法
SEO教程博客:關于robots.txt文件的寫法和正確使用方法

網站的robots.txt文件主要用于控制seo搜索引擎對網站的收錄,它是針對搜索引擎爬蟲而設定的一個網絡協議,用來告訴網絡爬蟲哪些頁面可以訪問。哪些頁面不能訪問。具體可精確到某個欄目、某個頁面、某個鏈接。通過robots.txt文件,我們可以讓搜索引擎爬蟲按照自己的規劃去訪問網站內容,對于不想收錄的頁面和內容采用robots.txt文件進行屏蔽,的好處一是減少了搜素引擎爬蟲的工作量,二是使整個頁面的權重更容易集中。

一、什么是robots.txt文件?
搜索引擎使用spider程序自動訪問互聯網上的網頁并獲取網頁信息。spider在訪問一個網站時,首先會檢查該網站的根域下是否有一個叫做 robots.txt的純文本文件,這個文件用于指定spider在您網站上的抓取范圍。您可以在您的網站中創建一個robots.txt,在文件中聲明 該網站中不想被搜索引擎收錄的部分或者指定搜索引擎只收錄特定的部分。 請注意,僅當您的網站包含不希望被搜索引擎收錄的內容時,才需要使用robots.txt文件。如果您希望搜索引擎收錄網站上所有內容,請勿建立robots.txt文件。

seo博客相關推薦閱讀:seo學習:seo優化技術好學嗎(seo優化技術難度大嗎)

二、robots.txt文件的寫法-如何正確使用robots.txt文件

例1. 禁止所有搜索引擎訪問網站的任何部分User-agent: *Disallow: /
例2. 允許所有的robot訪問(或者也可以建一個空文件 “/robots.txt”)User-agent: *Disallow: 或者User-agent: *Allow: /
例3. 僅禁止Baiduspider訪問您的網站User-agent: BaiduspiderDisallow: /
例4. 僅允許Baiduspider訪問您的網站User-agent: BaiduspiderDisallow:User-agent: *Disallow: /
例5. 禁止spider訪問特定目錄在這個例子中,該網站有三個目錄對搜索引擎的訪問做了限制,即robot不會訪問這三個目錄。需要注意的是對每一個目錄必須分開聲明,而不能寫成 “Disallow: /cgi-bin/ /tmp/”。User-agent: *Disallow: /cgi-bin/Disallow: /tmp/Disallow: /~joe/例6. 允許訪問特定目錄中的部分urlUser-agent: *Allow: /cgi-bin/seeAllow: /tmp/hiAllow: /~joe/lookDisallow: /cgi-bin/Disallow: /tmp/Disallow: /~joe/
例7. 使用”*”限制訪問url禁止訪問/cgi-bin/目錄下的所有以”.htm”為后綴的URL(包含子目錄)。User-agent: *Disallow: /cgi-bin/*.htm
例8. 使用”$”限制訪問url僅允許訪問以”.htm”為后綴的URL。User-agent: *Allow: .htm$Disallow: /
例9. 禁止訪問網站中所有的動態頁面User-agent: *Disallow: /*?*
例10. 禁止Baiduspider抓取網站上所有圖片僅允許抓取網頁,禁止抓取任何圖片。User-agent: BaiduspiderDisallow: .jpg$Disallow: .jpeg$Disallow: .gif$Disallow: .png$Disallow: .bmp$
例11. 僅允許Baiduspider抓取網頁和.gif格式圖片允許抓取網頁和gif格式圖片,不允許抓取其他格式圖片User-agent: BaiduspiderAllow: .gif$Disallow: .jpg$Disallow: .jpeg$Disallow: .png$Disallow: .bmp$
例12. 僅禁止Baiduspider抓取.jpg格式圖片User-agent: BaiduspiderDisallow: .jpg$

三、 robots.txt文件放在哪里?
robots.txt文件應該放置在網站根目錄下。舉例來說,當spider訪問一個網站(比如 http://www.abc.com)時,首先會檢查該網站中是否存在http://www.abc.com/robots.txt這個文件,如果 Spider找到這個文件,它就會根據這個文件的內容,來確定它訪問權限的范圍。

四、robots.txt文件的其他用途

1、如何禁止seo搜索引擎跟蹤網頁的鏈接,而只對網頁建索引?

如果您不想搜索引擎追蹤此網頁上的鏈接,且不傳遞鏈接的權重,請將此元標記置入網頁的 部分:

如果您不想百度追蹤某一條特定鏈接,百度還支持更精確的控制,請將此標記直接寫在某條鏈接上:sign in要允許其他搜索引擎跟蹤,但僅防止百度跟蹤您網頁的鏈接,請將此元標記置入網頁的 部分:

2、如何禁止搜索引擎在搜索結果中顯示網頁快照,而只對網頁建索引?

要防止所有搜索引擎顯示您網站的快照,請將此元標記置入網頁的部分:

要允許其他搜索引擎顯示快照,但僅防止百度顯示,請使用以下標記:注:此標記只是禁止百度顯示該網頁的快照,百度會繼續為網頁建索引,并在搜索結果中顯示網頁摘要。

3、我想禁止百度圖片搜索收錄某些圖片,該如何設置?

禁止Baiduspider抓取網站上所有圖片、禁止或允許Baiduspider抓取網站上的某種特定格式的圖片文件可以通過設置robots實現,請參考“robots.txt文件的寫法”中的例10、11、12。

五、robots.txt文件的適用范圍及原則

robots.txt文件適用于絕大多數的主流百度seo搜素引擎,但也不排除個別搜索引擎無視這一原則。
Robots協議是國際互聯網界通行的道德規范,基于以下原則建立:
1、搜索技術應服務于人類,同時尊重信息提供者的意愿,并維護其隱私權;
2、網站有義務保護其使用者的個人信息和隱私不被侵犯。

以上是潮人地東莞seo博客跟大家分享關于SEO教程博客:關于robots.txt文件的寫法和正確使用方法等問題,希望能對大家有所幫助,若有不足之處,請諒解,我們大家可以一起討論關于新手如何學seo 推廣的技巧,一起學習,以上內容僅供參考。

閱讀全文
本文標題"SEO教程博客:關于robots.txt文件的寫法和正確使用方法":http://www.420113.com/jc_10671.html
本文版權歸潮人地seo博客所有,歡迎轉載,但未經作者同意必須在文章頁面給出原文連接,否則保留追究法律責任的權利。
標簽:
合作伙伴
主站蜘蛛池模板: 无码av最新无码av专区| 自慰无码一区二区三区| 亚洲AV无码乱码国产麻豆| 超清无码一区二区三区| 中文无码人妻有码人妻中文字幕| 亚洲AV无码一区东京热| 精品日韩亚洲AV无码一区二区三区| 日本精品人妻无码免费大全| 日韩精品无码人成视频手机| 亚洲国产成人无码AV在线影院| 国产成人无码精品久久久性色 | 亚洲桃色AV无码| 精品国产v无码大片在线观看| 亚洲av无码天堂一区二区三区 | 在线高清无码A.| 国产精品无码一区二区三区不卡 | 久久久久无码国产精品一区| 久久久久久久久免费看无码 | 中文字幕无码视频手机免费看| 亚洲Av无码乱码在线观看性色| 亚洲成a∨人片在无码2023| 无码日韩精品一区二区免费暖暖| 麻豆人妻少妇精品无码专区| 无码无套少妇毛多18PXXXX| 无码国产色欲XXXX视频| 曰韩精品无码一区二区三区| 黄A无码片内射无码视频| 日韩激情无码免费毛片| 无码精品国产va在线观看dvd| 久久久久亚洲AV无码网站| 亚洲精品无码成人片久久| 成年无码av片在线| 国产成人无码区免费网站| 日韩综合无码一区二区| 狠狠躁夜夜躁无码中文字幕| 日韩精品无码免费专区午夜| 丰满少妇人妻无码| 无码少妇一区二区三区浪潮AV | 亚洲真人无码永久在线| 亚洲热妇无码AV在线播放| 亚洲av无码一区二区三区乱子伦|