我已经创建了一个使用WordPress的网站,第一天它充满了虚拟内容,直到我上传了我的内容。谷歌索引如网页:使用robots.txt来阻止/?param = X
www.url.com/?cat=1
现在这些页面不存在,并提出删除请求,谷歌问我挡住他们的robots.txt
我应该使用:
User-Agent: *
Disallow: /?cat=
或
User-Agent: *
Disallow: /?cat=*
我的robots.txt文件看起来有些这样的事情:
User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /author
Disallow: /?cat=
Sitemap: http://url.com/sitemap.xml.gz
这看起来不错,或者它可以导致搜索引擎的任何问题?我应该使用Allow:/以及所有的Disallow:?
除非您想要允许某些类别,否则无需在此处使用“允许”。例如,您不允许以`/?cat =`开头的所有内容。但是你可能想要允许一个特定的类别,如`Allow:/?cat = something`。 – 2011-01-21 18:41:28