Robots.txt与几个VirtualHosts

我的networking服务器运行( apache 2.4.10 )不同的虚拟主机为以下域名:

 foo.example.com bar.example.com www.example.com example.com 

这是我的虚拟主机的configuration文件:

 <VirtualHost *:80> DocumentRoot /var/www/ Redirect 404 / ErrorLog ${APACHE_LOG_DIR}/error.log CustomLog ${APACHE_LOG_DIR}/access.log combined </VirtualHost> <VirtualHost *:80> ServerName foo.example.com DocumentRoot /var/www/foo/ ErrorLog ${APACHE_LOG_DIR}/foo-error.log CustomLog ${APACHE_LOG_DIR}/foo-access.log combined </VirtualHost> <VirtualHost *:80> ServerName bar.example.com DocumentRoot /var/www/bar/ ErrorLog ${APACHE_LOG_DIR}/bar-error.log CustomLog ${APACHE_LOG_DIR}/bar-access.log combined </VirtualHost> <VirtualHost *:80> ServerName example.com ServerAlias www.example.com DocumentRoot /var/www/www/ ErrorLog ${APACHE_LOG_DIR}/www-error.log CustomLog ${APACHE_LOG_DIR}/www-access.log combined </VirtualHost> 

我想知道如何处理robots.txt文件。 我希望我所有的域名不被索引。

这是我的robots.txt文件:

 User-agent: * Disallow: / 

我把它复制到如下几个目录中:

 /var/www |-- foo | | | `-- robots.txt | |-- bar | | | `-- robots.txt | |-- robots.txt | `-- www | `-- robots.txt 

这是一个适当的configuration?

看起来不错,你为什么不试试看? 如果他们都将是相同的,你可能要考虑使用链接到一个单一的文件,所以你只需要在一个地方进行更改。

另外请记住,并不是所有的机器人都会遵守robots.txt文件,您可能最终不得不使用其他方法来阻止它们。