如果Blogger在mydomain.com和mydomain.blogspot.com上同时提供网站,并且这两个网站的权限都相同,但具有相同的robots.txt文件,是否有某种方式要配置robots.txt文件,以便仅阻止对网站的mydomain.blogspot.com版本进行索引?有没有其他办法可以达到同样的结果?使用robots.txt阻止一个域
1
A
回答
1
您无法使用robots.txt执行此操作,该文件只能包含文件夹/子文件夹,而不是域/子域的说明。如果可能,您可能需要为mydomain.com和mydomain.example.com创建单独的robots.txt文件。
另一种解决方案是将永久301从一个域重定向到另一个域。这对Blogger来说不可能吗?
0
要做的最好的事情是确保mydomain.blogspot.com被重定向到您的自定义域mydomain.com。重定向将需要永久重定向(301),并可通过Blogger上托管的博客实现。 这里这应该帮助您通过:
http://support.google.com/blogger/bin/static.py?hl=en&ts=1233381&page=ts.cs
,这里是一个又一个,但Blogger的以前的样子。 http://www.blogbloke.com/redirect-you-blogger-custom-domain-to/
我建议您使用第一个链接,并按照一步一步的程序!
相关问题
- 1. 使用robots.txt来阻止/?param = X
- 2. robots.txt阻止的网址
- 3. 使用模式来阻止robots.txt中的一些动态网址
- 4. 如何使用robots.txt阻止用于URL缩短服务的子域名?
- 5. 如何创建一个robots.txt文件,阻止所有,但根
- 6. 使用robots.txt禁止或禁止子域名
- 7. robots.txt的多个域
- 8. robots.txt的htaccess的阻止谷歌
- 9. Sitemap包含被robots.txt阻止的网址
- 10. Robots.txt阻止访问所有https://页面
- 11. XHR到同一个域被阻止
- 12. Robots.txt与一个网站,但两个域
- 13. 使用robots.txt阻止搜索引擎的url 100s
- 14. 我可以使用robots.txt阻止某些网址参数吗?
- 15. 阻止作用域输出
- 16. 使用AWS S3阻止子域名
- 17. 使用PowerShell阻止IP /域名
- 18. robots.txt能否阻止目录中的一种文件类型?
- 19. 如何禁止使用robots.txt为所有子域指定索引?
- 20. 阻止文件的robots.txt与[可能]多个文件扩展名
- 21. Robots.txt,禁止使用多语言URL
- 22. 使用“禁止:/ *?”在robots.txt文件
- 23. 阻止端口子域
- 24. 网站区域被阻止?
- 25. 跨域请求被阻止
- 26. .htaccess文件,阻止IDN域
- 27. 跨域请求被阻止
- 28. 阻止子域上的SSL
- 29. PHP表单阻止域名
- 30. 在apache中阻止域名*