WordPress設置最佳的Robots.txt規則,seo建站技術
導讀:seo建站技術seo建站技術一些文章在搜索引擎結果中出現了重復而沒有意義的鏈接,如果你也是使用的WordPress,不妨你也看看你自己的robots.txt文件。 如果你的WordPres職業技術學校網站。
一些文章在搜索引擎結果中出織夢模板現了重復而沒有意義的鏈接,如果你也是使用的WordPress,不妨你也看看你自己的robots.txt文件。
如果你的WordPress站點還沒有robots.txt文件,那么子凡覺得你就更有必要添加一個了,即使你的站點可以讓搜索引擎隨意抓取,因為搜索引擎機器人訪問網站時,首先會尋找站點根目錄有沒有 robots.txt文件,如果有這個文件就根據文件的內容確定收錄范圍,如果沒有就按默認訪問以及收錄所有頁面。另外,當搜索蜘蛛發現不存在robots.txt文件時,會產生一個404錯誤日志在服務器上,從而增加服務器的負擔,因此為站點添加一個robots.txt文件還是很重要的。
好了,還是來分享一個經過本站整理的比較完善的適用于WordPress的robots.txt文件內容吧!
User-agent: * Disallow: /wp-admin/ Disallow: /wp-content/ Disallow: /wp-includes/ Disallow: /trackback/ Disallow: /comments/ Disallow: /attachment/ Disallow: /comments/feed Disallow: /feed Disallow: /*/feed Disallow: /*/comment-page-* Disallow: /*?replytocom=* Disallow: /*/trackback Disallow: /?s=* Disallow: /*/?s=* Disallow: /wp-*.phpdede模板安裝 Sitemap: https://www.mbxzb.com/sitemap.HTML使用方法:新建一個名稱為robots.txt文本文件,將以上的內容放進去,然后上傳到網站根目錄即可。
最后還是簡單的解析一下其對應作用
1、User-agent: *
允許所有搜索引擎抓取網站,除非你網站有特別針對某個或多個搜索引擎,你可以適當的設置其抓取。如下只允許百度和谷歌抓取:
User-agent: Baidusdede后臺模板pider Disallow: / User-agent: Googlebot Disallow: /這樣設置的意思為只允許百度和谷歌的蜘蛛抓取所有,大家可以舉一反三的使用。
2、Disallow: /wp-admin/、Disallow: /wp-content/和Disallow: /wp-includes/ 用于告訴搜索引擎不要抓取后臺程序文件頁面。
3、Disallow: /*/comment-page-*和Disallow: /*?replytocom=* 禁止搜索引擎抓取評論分頁等相關鏈接。
4、Disallow: /category/*/page/和Disallow: /tag/*/page/ 禁止搜索引擎抓取收錄分類和標簽的分頁。(這一條子凡并未添加到上面演示,因為不同WordPress站點可能會有所不同,大家可以根據需要添加)
聲明: 本文由我的SEOUC技術文章主頁發布于:2023-07-23 ,文章WordPress設置最佳的Robots.txt規則,seo建站技術主要講述規則,WordPress,建站網站建設源碼以及服務器配置搭建相關技術文章。轉載請保留鏈接: http://www.bifwcx.com/article/web_35365.html