我有一个Squid代理服务器,控制我的networking的所有互联网stream量。 我需要一种方法来阻止用户在我的networking中下载大文件(比如> 50MB)。 我禁止了一些着名的端口(例如洪stream),但一些下载是可能的HTTP端口。 显然我不能禁止80港! 一个简单的解决scheme是限制每个IP的同时连接的最大数量(例如3个连接)。 这是可能的在这个configuration鱿鱼: acl ACCOUNTSDEPT 192.168.5.0/24 acl limitusercon maxconn 3 http_access deny ACCOUNTSDEPT limitusercon 但是这个解决scheme对于网页浏览的效果确实不错,因为任何智能浏览器都可以通过多个连接同时获得网站的不同部分,以加速网页浏览。 但是,如果我们有最大数量的连接,浏览器将无法获得一些部分,网站将部分显示,部分/图像/框架将不会显示。 那么,我们可以限制持续连接的最大数量吗? 我认为这个策略将起作用: 指定10秒内活动的最大连接数但每个IP的同时连接数是无限的 但是如何在Squid时实施这个策略呢? 用哪个configuration? 更新: artifex和Tom Newton提供了使用带宽限制的方法来打击下载。 但是squid中的带宽限制有一个缺点:它是静态的,不能dynamic改变。 所以一个人有一个有限的带宽,不pipe有多less人使用互联网(也许没有人)! 此外,这个解决scheme不能阻止人们下载。 他们仍然可以下载,但速度较慢。 但是,如果我们find一种方法来终止持久性连接(或任何超过特定时间的连接),下载大文件将几乎不可能(总是有某种方法!)
我们按照这里的教程设置了我们的networking: https : //help.ubuntu.com/community/Upside-Down-TernetHowTo。 基本上,我们有一个鱿鱼代理翻转客户端请求的页面的图像。 我们正在尝试修改脚本,以便在网页发送到客户端之前编辑网页的内容。 我们没有任何运气。 我想知道是否有什么不同的.html文件,使这是不可能的。 发生的是我们对请求的URI做一个wget,保存在本地,修改它,然后回显新的URI。 用户获得的页面是未修改的页面,而不是我们刚刚更改的页面。
我正在尝试设置一个squid代理,它将在一个端口范围内的一个IPv4上接受多个入站连接,并且为每个端口连接连接一个唯一的IPv6地址。 我已经命名了每个端口连接,并根据连接名称指定了一个ACL,然后我试图为每个连接定义一个传出IPv6。 下面的脚本工作,因为它接受不同端口上的连接,并通过IPv6路由出去,但所有出站连接都使用相同的IPv6(user5),即使每个用户定义了不同的ipv6也是如此 – 即使我评论从squid.conf中取出user5 IPv6,它仍然用于出站连接。 任何人都可以看到这里错了什么? (在Centos 6 64bit上使用Squid 3.1.1) ## declare an acl that is true for all ipv6 destinations acl to_ipv6 dst ipv6 ##tell Squid to listen on sequential ports and to designate a name for each inbound connection. http_port 241.xxx.xxx.101:3128 name=3128 http_port 241.xxx.xxx.101:3129 name=3129 http_port 241.xxx.xxx.101:3130 name=3130 http_port 241.xxx.xxx.101:3131 name=3131 http_port […]
对不起,如果这是一个新手问题。 我先试着描述一下情况,然后鱿鱼questin会进来。 目前的Fedora / Centos安装在/etc/yum.repos.conf中的正常configuration文件中有一个metalink,看起来像这样。 metalink=https://mirrors.fedoraproject.org/metalink?repo=fedora-$releasever&arch=$basearch 这metalink实际上使yum / dnfselect一个“随机”的服务器网站(由服务器select由世界各地根据metalink的客户端的位置地理上随机)。 这也用于下载缓慢的情况下切换到下一个更好的网站。 我注意到,由于docker造成大量的下载,为什么我正在考虑所有机器必须使用的鱿鱼代理。 但是这个yum / dnf的“随机”策略令我感到担忧。 我明白fedora / centos的意图分配这个免费的仓库的负载,所以实际上我不想破坏这个策略 可以鱿鱼智能检测,客户端只是使用“另一个fedora / centos回购url”和智能caching? metalink列表本身似乎是相当稳定的(它只是改变了问题的顺序,但列表本身似乎是相同的)。 意图:不要存储1000个相同文件的副本,只是因为它来自不同的服务器。 我怎么用鱿鱼呢? 编辑:有人有使用这个http://wiki.squid-cache.org/Features/StoreIDcachingDNF / YUM的经验吗?
我正在尝试在CentOS 5.5服务器上启用SELinux,Squid 3.1.12通过ncsa_auth来处理身份validation。 当我closuresSElinux时一切正常,但是当我启用它时,Squid在authentication插件ncsa_auth上崩溃。 这是错误信息: May 29 19:12:21 us squid[1458]: Squid Parent: child process 1493 started May 29 19:12:21 us kernel: printk: 27 messages suppressed. May 29 19:12:21 us kernel: type=1400 audit(1306696341.922:74): avc: denied { execute } for pid=1494 comm="squid" name="ncsa_auth" dev=xvda1 ino=610563 scontext=root:system_r:squid_t:s0 tcontext=user_u:object_r:usr_t:s0 tclass=file May 29 19:12:22 us (squid): The basicauthenticator helpers are […]
我使用Squid,我想知道如何使一个特定的IP范围允许的连接,我使用这个 acl permittedips src 77.86.72.49 http_access allow permittedips 但是我想要制作一个从70.*.*.*到90.*.*.* 。 我怎样才能做到这一点最简单的方法?
我正在使用ProxyChains在大学连接到我的代理。 它工作得很好,除了它甚至redirect本地端口的数据包到代理服务器: | S-链| – <> – 172.22.2.211:3128-<><>-4.2.2.2:53-<><>-OK | S-链| – <> – 172.22.2.211:3128-<><>-127.0.0.1:57343-<–denied 有没有办法在ProxyChains中添加127.0.0.1的例外
我得到了以下情况: 两个负载平衡路由器负载平衡 Wifinetworking(可达二十个AP) 我需要以下内容: 需要一个强制性的门户,客户可以授权和pipe理那里的帐户 基于MAC的授权 在线支付 Web代理caching(Squid) 在这个设置的大部分,我是一个newby在这个。 但是我想到了,就这样来设置它: 我的问题是: 这个设置甚至可能吗? (引用ETH0和ETH1设置) 我需要在pfSense上运行DHCP服务器(将其设置为路由器),还是在负载均衡路由器上启用DHCP? 所有提示都欢迎
如何通过鱿鱼阻止特定IP的网站? 请给解决scheme的例子或configuration文件。
有没有办法获取IP地址来引用Amazon S3存储位置? 目前我公司正在考虑的解决scheme包括build立一个Elastic IP的EC2服务器,并使用Squid作为S3位置的代理。 有没有更好的办法?