说明:我们有时候页面有些内容由于某些因素,都要防止被搜索引擎收录,而禁止搜索引擎收录比较简单的办法是在Robots.txt
里设置规则,Robots
协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots ExclusiON Protocol
),网站通过Robots
协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。这里说下方法。
这里以WordPress
博客网站为例,在网站根目录Robots.txt
里添加如下规则:
User-agent: * Disallow: /wp-admin/ Disallow: /wp-content/ Disallow: /wp-includes/ Disallow: /*/comment-page-* Disallow: /*?replytocom=* Disallow: /category/*/page/ Disallow: /tag/*/page/ Disallow: /*/trackback Disallow: /feed Disallow: /*/feed Disallow: /comments/feed Disallow: /?s=* Disallow: /*/?s=*\ Disallow: /attachment/
下面分别解释一下各项的作用:
上面只是些基本的写法,当然还有很多,不过够用了。当然像Typecho
、Emlog
,zblog
这些博客就自己看着办,方法一样。
未经允许不得转载:搬瓦工VPS_美国VPS » WordPress博客优化的Robots.txt规则以及规则各项的具体作用