歡迎您來到潮人地東莞seo博客,本站專業免費分享多元化的seo網站優化技術干貨以及解答seo各種常見問題的博客網站

熱門關鍵詞: seo優化 seo推廣 seo技術 seo博客 seo網站推廣怎么做 seo怎么做 新手做seo怎么做
當前位置:seo博客首頁 > seo常見問題 >

百度seo優化排名:robots.txt的寫法

發布時間:2023-06-04 08:20:01 文章出處:潮人地東莞seo博客 作者:東莞seo博客 閱讀數量:

潮人地東莞seo博客小編下面跟大家分享關于百度seo優化排名:robots.txt的寫法等問題,希望seo專員在做seo優化的過程中有所幫助,內容僅供參考。

第一:什么是robots.txt?

這是一個文本文件,是搜索引擎爬行網頁要查看的第一個文件,你可以告訴搜索引擎哪些文件可以被查看,哪些禁止。當搜索機器人(也叫搜索蜘蛛)訪問一個站點時,它首先會檢查根目錄是否存seo頁面優化方法推廣工具在robots.txt,如果有就確定抓取范圍,沒有就按鏈接順序抓取。

第二:robots.txt有什么用

seo博客相關推薦閱讀:seo搜索優化:網站SEO

為何需要用robots.txt這個文件來告訴搜索機器人不要爬行我們的部分網頁,比如:后臺管理文件、程序腳本、附件、數據庫文件、編碼文件、樣式表文件、模板文件、導航圖片和背景圖片等等。說到底了,這些頁面或文件被搜索引擎收錄了,用戶也看不了,多數需要口令才能進入或是數據文件。既然這樣,又讓搜索機器人爬行的話,就浪費了服務器資源,增加了服務器的壓力,因此我們可以用robots.txt告訴機器人集中注意力去收錄我們的文章頁面。增強用戶體驗。

1,用robots屏蔽網站重復頁

很多網站一個內容提供多種瀏覽版本,雖然很方便用戶卻對蜘蛛造成了困難,因為它分不清那個是主,那個是次,一旦讓它認為你在惡意重復,你就慘了

User-agent: *

Disallow: /sitemap/ 《禁止蜘蛛抓取 文本網頁》

2,用robots保護網站安全

很多人納悶了,robots怎么還和網站安全有關系了?其實關系還很大,不少低級黑客就是通過搜索默認后臺登陸,以達到入侵網站的目標

User-agent: *

Disallow: /admin/ 《禁止蜘蛛抓取admin目錄下所有文件》

3,防止盜鏈

一般盜鏈也就幾個人,可是一旦被搜索引擎“盜鏈”那家伙你100M寬帶也吃不消,如果你做的不是圖片網站,又不想被搜索引擎“盜鏈”你的網站圖片

User-agent: *

Disallow: .jpg$

4,提交網站地圖

現在做優化的都知道做網站地圖了,可是seo搜索引擎優化解決方法卻沒幾個會提交的,絕大多數人是干脆在網頁上加個鏈接,其實robots是支持這個功能的

Sitemap:?http://bbs.moonseo.cn/sitemaps/sitemaps_1.xml

5,禁止某二級域名的抓取

一些網站會對VIP會員提供一些特殊服務,卻又不想這個服務被搜索引擎檢索到

User-agent: *

Disallow: /

以上五招robots足以讓你對搜索引擎蜘蛛掌控能力提升不少,就像百度說的:我們和搜索引擎應該是朋友,增加一些溝通,才能消除一些隔膜。

第三:robots.txt基本語法

1、robots.txt的幾個關鍵語法:

a、User-agent: 應用下文規則的漫游器,比如Googlebot,Baiduspider等。

b、Disallow: 要攔截的網址,不允許機器人訪問。

c、Allow: 允許訪問的網址

d、”*” : 通配符—匹配0或多個任意字符。

e、”$” : 匹配行結束符。

f、”#” : 注釋—說明性的文字,不寫也可。

g、Googlebot: 谷歌搜索機器人(也叫搜索蜘蛛)。

h、Baiduspider: 百度搜索機器人(也叫搜索蜘蛛)。

i、目錄、網址的寫法:都以以正斜線 (/) 開頭。

Disallow:/

Disallow:/images/

Disallow:/admin/

Disallow:/css/

2、列舉一些robots.txt 具體用法:

1、允許所有的robot訪問

User-agent: *

Disallow:

或者

User-agent: *

Allow: /

或者建一個空文件”robots.txt”即可。

2、僅禁止某個機器人訪問您的網站,如Baiduspider。

User-agent: Baiduspider

Disallow: /

3、僅允許某個機器人訪問您的網站,如Baiduspider。

Usseo提升轉化優化關鍵詞的方法er-agent: Baiduspider

Disallow:

User-agent: *

Disallow: /

4、禁止訪問特定目錄

User-agent: *

Disallow: /admin/

Disallow: /css/

Disallow:

要攔截對所有包含問號 (?) 的網址的訪問(具體地說,這種網址以您的域名開頭、后接任意字符串,然后接問號,而后又接任意字符串),請使用以下內容:

User-agent: Googlebot

Disallow: /*?

要指定與某個網址的結尾字符相匹配,請使用 $。例如,要攔截以 .xls 結尾的所有網址,請使用以下內容: User-agent: Googlebot

Disallow: /*.xls$

您可將此模式匹配與 Allow 指令配合使用。例如,如果 ? 代表一個會話 ID,那么您可能希望排除包含 ? 的所有網址,以確保 Googlebot 不會抓取重復網頁。但是以 ? 結尾的網址可能是您希望包含

在內的網頁的版本。在此情況下,您可以對您的 robots.txt 文件進行如下設置:

User-agent: *

Allow: /*?$

Disallow: /*?

Disallow: /*? 指令會阻止包含 ? 的所有網址(具體地說,它將攔截所有以您的域名開頭、后接任意字符串,然后接問號,而后又接任意字符串的網址)。

Allow: /*?$ 指令將允許以 ? 結尾的任何網址(具體地說,它將允許所有以您的域名開頭、后接任意字符串,然后接 ?,? 之后不接任何字符的網址)。

以上介紹多數都是Google的http://www.google.com/support/we … cn&answer=40360,百度的大同小異具體可以看http://www.baidu.com/search/robots.html

PS:一般網站查看robots.txt文件的方法是主頁后面加robots.txt就可以,比如淘寶網的就是http://www.taobao.com/robots.txt請注意,僅當您的網站包含不希望被搜索引擎收錄的內容時,才需要使用robots.txt文件。如果您希望搜索引擎收錄網站上所有內容,請勿建立robots.txt文件。

以上是潮人地東莞seo博客跟大家分享關于百度seo優化排名:robots.txt的寫法等問題,希望能對大家有所幫助,若有不足之處,請諒解,我們大家可以一起討論關于網站seo優化排名的技巧,一起學習,以上內容僅供參考。

閱讀全文
本文標題"百度seo優化排名:robots.txt的寫法":http://www.420113.com/cjwt_15074.html
本文版權歸潮人地seo博客所有,歡迎轉載,但未經作者同意必須在文章頁面給出原文連接,否則保留追究法律責任的權利。
標簽:
合作伙伴
主站蜘蛛池模板: 中文有码vs无码人妻| 蜜臀AV无码一区二区三区| 日韩精品无码免费专区网站| 亚洲最大av无码网址| 无码毛片视频一区二区本码 | 精品无码国产自产拍在线观看| 精品久久久久久久无码| 精品少妇人妻av无码专区| 精品无码AV一区二区三区不卡| 久久中文精品无码中文字幕| 亚洲AV无码一区二区三区久久精品 | 亚洲AV无码码潮喷在线观看| 久久久久久亚洲av无码蜜芽| 亚洲va无码手机在线电影| 国产精品爽爽V在线观看无码 | 中文字幕无码亚洲欧洲日韩| 精品国产毛片一区二区无码| 国产成人无码精品久久二区三区| 欧洲成人午夜精品无码区久久 | 国产仑乱无码内谢| 免费无码午夜福利片69| 99久久无码一区人妻a黑| 无码免费一区二区三区免费播放| 精品人妻系列无码人妻免费视频| 天堂无码久久综合东京热| 无码人妻精品一区二区蜜桃网站| 久久久久无码国产精品一区| 亚洲国产精品无码AAA片| 狠狠精品久久久无码中文字幕| 日韩A无码AV一区二区三区| 免费一区二区无码视频在线播放| WWW久久无码天堂MV| 在线精品免费视频无码的| 国产精品无码久久四虎| 久久久精品天堂无码中文字幕| 亚洲AV无码专区在线厂| 无码色AV一二区在线播放| 无码日韩精品一区二区人妻 | 无码人妻黑人中文字幕| 日韩乱码人妻无码中文字幕| 精品多人p群无码|