2012-05-23 8 views
0

当我使用Google搜索自己的Drupal站点时,我经常会在结果中获得打印版本的页面,而非非打印版本。如何让我的Drupal页面的打印版本显示在Google的搜索结果中?

任何想法,为什么发生这种情况,以及如何防止它?

例如,谷歌执行以下操作:编辑只有网站:community.screen-scraper.com

至少结果的第一页包含链接到的网页的打印版本。 URL的显着特点是“出口”的存在。

我确实启用了干净的URL。

回答

1

将rel = nofollow添加到您的打印版本的链接。你也应该考虑设置锥形的URL,例如http://drupal.org/project/nodewords

+0

我无法弄清楚如何设置锥形网址这种情况。如果你有任何例子,我将不胜感激。 – swilsonmcss

0

除了上面你还可以添加一个noindex元标记违规网页(通过元标记注入到了“打印”网页的标题中),并排序淘汰您不想使用robots.txt文件编入索引的网页。

尝试这些链接,了解更多信息:

(meta标签)http://support.google.com/webmasters/bin/answer.py?hl=en&answer=79812

(机器人)http://support.google.com/webmasters/bin/answer.py?hl=en&answer=156449

+0

谢谢@SteveH。我将/ book/export /添加到了我的robots.txt文件中。现在我只是在等待Google的索引更新。你碰巧知道任何技巧来加快这一点?我在六天前使用Google的网站管理员工具“以Google抓取”,但打印页面仍然显示在搜索结果中。也许我很不耐烦。 – swilsonmcss

+0

没问题,使用网站管理员工具的良好呼吁(是为了向你提到这一点)。不幸的是,对于谷歌的大多数事情,这只是一个耐心的情况,虽然你的robots.txt文件显示阻止的URL菜单下的200(成功)状态?我不相信有更快的方法可以移除您想要移除的网页类型,不过您可以使用这些工具作为请求移除某些网址:https://support.google.com/webmasters/bin/answer。 py?hl = en&answer = 59819。也许再等一会儿,如果它们没有从搜索结果中消失,请尝试使用删除网址的请求? –

+0

对不起,只是为了确认当你使用fetch作为谷歌,它是否提出'拒绝robots.txt'作为获取状态?就好像您的robots.txt文件不能正常工作一样,请返回到已阻止的URLS页面并检查它是否已被下载并收到200(成功)的状态,然后测试此页面底部的一些网址。希望一切顺利。 –

相关问题