我如何鼓励Google阅读新的robots.txt文件?
我刚在一个新网站上更新了我的robots.txt文件; Google网站pipe理员工具报告在我上次更新前10分钟阅读我的robots.txt。 有什么方法可以鼓励Google尽快重新阅读我的robots.txt文件吗? 更新:在网站configuration下 抓取工具访问| testingrobots.txt: 主页访问显示: Googlebot被阻止http://my.example.com/ 仅供参考:Google上次阅读的robots.txt文件如下所示: User-agent: * Allow: /<a page> Allow: /<a folder> Disallow: / 我是不是在自己的脚下开枪,或者最终会读到:http:///robots.txt(就像它上次读的那样)? 任何想法,我需要做什么?