WordPress利用Robots.txt優化站點收錄,seo建站技術
導讀:seo建站技術seo建站技術很多建站新手對robots.txt文件的重要作用不是很清楚,利用這篇文章普及一下WordPress站點robots.txt文件編寫知識。 Robots協議(也稱網站平臺搭建信息技術網站。
很多建站新手對robots.txt文件的重要作用不是很清楚,利用這篇文章普及一下WordPress站點robots.txt文件編寫知識。
Robots協議(也稱為爬蟲協議、機器人協dede58模板議等)的全稱是“網絡爬蟲排除標準”(Robots Exclusion Protocol),網站通過Robots協議告訴搜索引擎哪些頁面可以抓取,哪些頁面不能抓取。
搜索引擎機器人訪問網站時,首先會尋找站點根目錄有沒有 robots.txt文件,如果有這個文件就根據文件的內容確定收錄范圍,如果沒有就按默認訪問以及收錄所有頁面。另外,當搜索蜘蛛發現不存在robots.txt文件時,會產生一個404錯誤日志在服務器上,從而增加服務器的負擔,因此為站點添加一個robots.txt文件還是很重要的。
知道Robots協議的作用后,下面具體說一下WordPress站點如何編寫robots.txt文件。
WordPress站點默認在瀏覽器中輸入:http://你的域名/robots.txt,會顯示如下內容:
這是由WordPress自動生成的,意思是告訴搜索引擎不要抓取后臺程序文件。
但這是遠遠不夠的,比較完整的WordPress站點robots.txt文件內容如下:
使用方法:新建一個名稱為robots.txt文本文件,將上面的內容放進去,然后上傳到網站根目錄即可。
下面分別解釋一下各項的作用:
聲明: 本文由我的SEOUC技術文章主頁發布于:2023-07-23 ,文章WordPress利用Robots.txt優化站點收錄,seo建站技術主要講述站點,WordPress,建站網站建設源碼以及服務器配置搭建相關技術文章。轉載請保留鏈接: http://www.bifwcx.com/article/web_35751.html