潮人地東莞seo博客小編下面跟大家分享關于seo網站心得之robots文件是否支持中文目錄等問題,希望seo專員在做seo優化的過程中有所幫助,內容僅供參考。
robots.txt文件告訴了搜索引擎,哪些內容允許品牌網站seo優化方法抓取,那些內容不能抓取。那么,對于含有中文的URL,改文件是否能夠很好的支持呢?就此問題,可以參考如下:
有同學問百度站長學院一個關于robots的問題:我們有個站點的目錄結構使用的是中文,這樣式兒的:www.a.com/冒險島/123.html,那在制作robots文件和sitemap文件的時候,可以直接使用中文嗎?百度能獲取到嗎?在實際操作中我們發現,sitemap中有文件是可以生效的,但廣州專業網站seo優化服務robots封禁貌似沒有反應,所以想確認一下:robots文件是否支持中文?

seo博客相關推薦閱讀:百度seo優化排名:百度資源平臺閉站保護使用說明
工程師解答
Baiduspider目前(2016年10月)在robots里是不支持中文的。
同學追問
那我們進行UrlEncode編碼會不會支持呢?比如這種:http://www.a.cn/%E7%89%B9%E6%AE%8A:%E6%B5%8F%E8%A7%88/%E7%94%9F%E6%AD%BB%E7%8B%99%E5%87%BB:%E7%99%BD%E9%93%B6%E5%8A%A0%E7%89%B9%E6%9E%97
工程師解答
robots文件支持這種寫法。但是否生效,還要取決于當時BaiduSpider抓取的是哪種形式結構的鏈接,如果是UrlEncode編碼就可以生效,如果是中文就非常不幸了。
以上是潮人地東莞seo博客跟大家分享關于seo網站心得之robots文件是否支持中文目錄等問題,希望能對大家有所幫助,若有不足之處,請諒解,我們大家可以一起討論關于網站seo優化排名的技巧,一起學習,以上內容僅seo排名優化網站供參考。