0
我在我的网站上有各种分页,我想停止谷歌和其他搜索引擎爬行我的分页索引。一个抓取的页面的如何使用robots.txt停止漫游器爬行分页?
例子:
http://www.mydomain.com/explore/recently-updated/index/12
我如何,使用robots.txt否认抓取包含/索引的网页机器人/?
我在我的网站上有各种分页,我想停止谷歌和其他搜索引擎爬行我的分页索引。一个抓取的页面的如何使用robots.txt停止漫游器爬行分页?
例子:
http://www.mydomain.com/explore/recently-updated/index/12
我如何,使用robots.txt否认抓取包含/索引的网页机器人/?
我相信,如果你在你的根Web目录创建您的robots.txt文件有以下:
User-agent: *
Disallow: /explore/recently-updated/index/
给一个尝试,然后用别人(可能是谷歌的)机器人检查,以确保它被停止。
Disallow: /*?page=
Disallow: /*&page=