我试图在WHM / CPanel CeEntOS Linux服务器上安装Mod_Proxy Apache模块。 这里是系统信息: CentOS release 5.6 (Final) Server version: Apache/2.2.21 (Unix) Cpanel::Easy::Apache v3.7.2 rev9999 我安装的目的是这样的,当在网站abc.com上时,当我点击链接到网站auto.efg.com(假设它的IP地址是192.168.0.101)时,浏览器将在auto.efg上加载应用程序。同时在浏览器地址栏上维护abc.com。 所以我遵循这个教程: Install Mod_Proxy Apache module on WHM/CPanel CeEntOS Linux Server Without Recompiling Apache 所以当我完成后,我能够做到这一点: root@ip-xxx-xxx-xxx [/tmp/httpd-2.2.21/modules/proxy]# ls -l /usr/local/apache/modules/mod_proxy* -rwxr-xr-x 1 root root 88708 Jan 5 08:22 /usr/local/apache/modules/mod_proxy.so* -rwxr-xr-x 1 root root 49654 Jan 5 08:23 […]
我有一个以下的证书层次结构。 我需要在Apache上进行客户端身份validation。 . └── root (CA) – self signed ├── intermediate 1 (CA) | ├── client1 | ├── client2 └── intermediate 2 (CA) ├── client3 └── client4 谁应该存储中间证书(客户端或服务器)? 我宁愿只在服务器上存储根CA来validation所有的客户端证书。 主要原因是中间CA的列表可以增长,我不希望更新所有存储在Apacheconfiguration中的证书。 这在技术上是可行的吗? SSL协议是否要求客户端发送整个链? 有人想到这个问题。 据我了解,当客户端validation服务器时,服务器将整个链发送到客户端。 我希望它是对称的,当服务器需要validation客户端时,发送整个链是客户端的责任。
为了满足PubSubHubbub 0.4规范的要求,我必须为每个文件发送rel=self标题。 我现在试图用Apache的mod_headers和环境variables来做到这一点: Header append Link '<http://example.org%{REQUEST_URI}e>; rel="self"' 这个工作只要文件是由PHP处理,但不适用于没有被mod_php或任何CGI进程处理的静态文件(如*.htm )。 似乎没有办法获得所有当前Apache环境variables的列表,所以我不能检查哪些实际可用。 所以我的问题是:我怎样才能访问Header append指令中当前请求的URL的相对path? 在Apache 2.2.22-13+deb7u4上发生在Debian 7上。
我看了官方网站的文档,find起点有点难。 有没有一个免费的综合指南,很容易理解的人从来没有处理mod_security?
上下文:我想在Mac OS X Server 10.6.7上设置一个SVN服务器,并且遇到“SSL错误parsingtlsext”问题。 我已经尝试更改所述的SSLProtocol选项,但是我只是得到了“糟糕的解压缩”错误。 另一个解决scheme似乎是将openssl升级到0.9.8m或更高。 我可以下载和编译openssl,但是我不知道将其挂载到Apache和mod_ssl的默认安装的最佳方式。 我想尽可能地使用内置的Apple软件,最好不要覆盖它们的openssl版本。 如何在Mac OS X Server 10.6上更新mod_ssl以使用新版本的openssl?
Apache2反向代理似乎间歇性地冻结时,代理一个tomcat的Web应用程序。 问题是,每当我尝试login到代理的这个web应用程序时,每隔一段时间(通常在闲置之后一天或两天)就会冻结。 应用程序只是无限期地冻结,没有500响应代码…浏览器只是等待和等待。 如果我一直试图从我的浏览器提示url,它最终会再次开始工作。 我试图通过直接导航到Tomcat端口8080上的Web应用程序来重现此问题,但是我从来没有能够不经过反向代理重现此问题。 这是我的反向代理configuration…任何错误发现想法? 谢谢 在/ etc / apache2的/网站可用/默认 ProxyPass /manage/ http://localhost:8080/manage/ ProxyPassReverse /manage/ http://localhost:8080/manage/ ProxyPass /manage http://localhost:8080/manage ProxyPassReverse /manage http://localhost:8080/manage /etc/apache2/mods-available/proxy.conf <IfModule mod_proxy.c> #turning ProxyRequests on and allowing proxying from all may allow #spammers to use your proxy to send email. ProxyRequests Off <Proxy *> AddDefaultCharset off Order deny,allow Deny from all […]
我已经将Linodeconfiguration为Apache 2.2.14的Ubuntu 10.04.2 Web服务器。 我总共有4个站点,全部在/etc/apache2/sites-available下定义为虚拟主机。 所有站点几乎都是相同的克隆进行configuration。 而所有的网站,但我最后的工作成功。 default: (www.)exampleadnetwork.com (www.)example.com reseller.example.com trouble: client1.example.com 当我访问client1.example.com网站时,我不断收到此页面: 有用! 这是此服务器的默认网页。 networking服务器软件正在运行,但尚未添加内容。 在我的ports.conf文件中,我将NameVirtualHost正确设置为端口80上的IP地址。 如果我访问“www.sub.example.com”别名的网站工作! 如果我在没有www的情况下访问它,我会看到上面贴出的“It Works”摘录。 即使apache2ctl -S显示我的虚拟主机文件parsing正确,并被添加到混合。 我的虚拟主机configuration文件如下: <VirtualHost 127.0.0.1:80> ServerAdmin [email protected] ServerName client1.example.com ServerAlias client1.example.com www.client1.example.com DocumentRoot /srv/www/client1.example.com/public_html/ ErrorLog /srv/www/client1.example.com/logs/error.log CustomLog /srv/www/client1.example.com/logs/access.log combined <directory /srv/www/client1.example.com/public_html/> Options -Indexes FollowSymLinks AllowOverride None Order allow,deny Allow from all </directory> </VirtualHost> 其他网站是以下的变体: […]
PHP有几个会话设置,控制垃圾收集(即删除已到期的会话)的概率。 我的问题是:这个概率是否适用于在任何给定的Apache服务器上的所有虚拟主机上运行的所有Apache线程? 例如: 如果概率设置为1/100,是否意味着任何运行PHP进程的Apache线程都进入可能运行gc的进程池中? 或者,这是否只适用于为任何给定的VirtualHost运行的线程? 还是其他的分区? 最后,如果一个触发gc的PHP进程,它是否在所有PHP会话上执行gc? 或者只是该虚拟主机的会话? 还是其他types的分配? 我试图衡量,我需要调整给定的VirtualHost,整个服务器,或什么的gc_probability设置。
我在专用服务器上运行带有MPM prefork的Apache 2.2.21。 更多细节: Server Version: Apache/2.2.21 (Unix) mod_ssl/2.2.21 OpenSSL/1.0.0-fips DAV/2 SVN/1.7.0 mod_python/3.3.1 Python/2.6.5 mod_bwlimited/1.4 PHP/5.3.6 stream量通常在10-30个请求/秒之间,有12GB的RAM,我们已经相当保守地调整了MaxClients(250)。 我们确实看到各种原因使用的峰值(在一个旧的服务器上,我们在这些峰值期间几次打我们的MaxClients)。 无论如何,这是一个新的服务器。 运行一段时间后,我们的Apache状态开始如下所示: GGG_._._RC_.G..C.G_G.C_G..C_.CG_._._G__W____..R.WCR_.W..G_…… G的(“优雅地完成”)正在卡住。 如果我重新启动Apache,它们只会消失。 这肯定会导致我们在没有定期监控/修复的情况下达到我们的MaxClients限制。 我在互联网上阅读,似乎有一个类似于这个Apache的错误,但发生在不同的条件下。 它在2.2.14版中也显然是固定的。 我包含了一个挂起的过程的堆栈跟踪您的检查。 #0 0x000000350c6f119e in __lll_lock_wait_private () from /lib64/libc.so.6 #1 0x000000350c67c138 in _L_lock_9164 () from /lib64/libc.so.6 #2 0x000000350c679a32 in malloc () from /lib64/libc.so.6 #3 0x000000350c66fcfb in __libc_message () from /lib64/libc.so.6 […]
我需要为Amazon VPC中的一组服务器(10-20)设置集中式日志logging。 日志logging应该不会丢失任何日志消息,以防单个服务器脱机,或者整个可用区域脱机。 它也应该容忍丢包和其他正常的networking条件,而不会丢失或复制消息。 它应该至less在两个不同的EBS卷的两个可用区中存储消息,但是S3也是一个好的地方。 它也应该是实时的,以便消息在几秒内到达两个不同的可用区域。 我还需要同步不通过syslog生成的日志文件,所以只有syslog的集中式日志logging解决scheme不能满足所有的需求,尽pipe我猜这个限制可以解决。 我已经审查了几个解决scheme,我将在这里列出它们: stream向S3 :我可以设置两个日志服务器作为Flume主机,它们可以在本地或在S3存储日志消息,并且使用Flume将所有服务器configuration为使用端到端可靠性选项将所有消息发送到两个服务器。 这样,单个服务器的丢失不应该导致丢失的消息,并且所有消息将实时到达两个可用区域。 但是,需要有一些方法来join两个服务器的日志,并将所有传递给这两个服务器的消息进行重复数据删除。 这可以通过在发送端添加一个唯一的ID来完成,然后在日志文件上写一些手动重复数据删除。 我还没有find一个简单的解决scheme的重复问题。 Logstash到Logstash到ElasticSearch :我可以在服务器上安装Logstash,并通过AMQP将它们传递到中央服务器,并打开耐久性选项。 然而,为了这个工作,我需要使用一些具有集群能力的AMQP实现,或者像在Flume的情况下那样分发。 AMQP似乎是几个实现的又一个移动部分,并没有真正的指导什么是最好的这种设置。 而且我并不完全相信,我可以从logstash到elasticsearch获得实际的端到端持久性,假设两者之间的服务器崩溃。 扇出解决scheme再次运行重复数据删除问题。 似乎处理所有情况的最佳解决scheme是甲壳虫,它似乎通过一个Redis商店提供高可用性和重复数据删除。 但是,我还没有看到有关如何使用Logstash进行设置的指导,而Redis又是一个不应该非常困难的事情。 Logstash到ElasticSearch :我可以在所有的服务器上运行Logstash,在服务器本身拥有所有的过滤和处理规则,并且直接将它们logging到ElasticSearch服务器。 我认为这应该带给我可靠的日志logging,我可以使用ElasticSearch集群function透明地共享数据库。 但是,我不确定如果安装程序实际上在Logstash重新启动和间歇性networking问题中仍然存在,而没有在故障转移情况下或类似情况下复制消息。 但是这个方法听起来很有希望。 rsync :我可以rsync所有相关的日志文件到两个不同的服务器。 这里的可靠性方面应该是完美的,因为文件在完成同步之后应该与源文件相同。 但是,每秒做一次rsync并不会让人感觉好玩。 另外,我需要日志在被发送之后无法被打扰,所以rsyncs需要处于append-only模式。 除非我小心,否则日志旋转会让事情变得糟糕。 rsyslog与RELP :我可以设置rsyslog通过RELP发送消息到两个远程主机,并有一个本地队列来存储消息。 再次出现重复数据删除问题,RELP本身也可能会复制一些消息。 但是,这只能处理通过sysloglogin的东西。 这些解决scheme似乎都不是非常好,而且还有很多未知的知识,所以我在这里向那些build立集中的可靠日志logging的人们寻求更多的信息,以获得实现这个目标的最佳工具。