我想知道rails应用程序robots.txt文件的标准做法是什么。即通常阻止机器人追踪哪些文件夹。
我目前的robots.txt文件:Rails应用程序和robots.txt最佳做法
# User-agent: *
# Disallow:/
Disallow: /public/uploads/
Sitemap: www.mysite.co.za/sitemap.xml
我的问题是,大部分人都不允许/公/从上传被跟踪?
我也有一些模型/页面,其中只有管理员用户可以访问和执行CRUD操作。这受到设计保护。我想知道是否有必要在robots.txt文件中禁止这些内容,以及蜘蛛是否能够索引这些页面(因为它们仅受管理员使用保护)。
例如我有一个只有管理员可以在其上执行CRUD的类别模型。我要补充:
Disallow: /categories/
(或者是它与*)
Disallow: /categories/*
这些都是我在周围轨道的robots.txt使用的所有查询。这有意义吗?
谢谢,
马特
这个问题似乎是脱离主题,因为它是关于SEO => http://webmasters.stackexchange.com/。 – Zistoloen