我有一个情况,我想要使用本地磁盘作为从单独的Web服务(类似S3)(热)文件的LRUcaching。 如果文件不存在于磁盘上,则通过互联网读取文件,写入本地磁盘,然后未来的请求可以使用本地caching而不是从原始源读取。 由于存储在Web服务中的数据量将超过本地存储,因此,如果存储已满,则在写入新文件时,我希望自动清除本地文件。 如果可能的话,我想避免这样的情况,即我有一个cron任务,在一定时间后检查atime和过期文件,因为如果没有文件正在写入,没有特别的理由会根据时间过期caching项目。 我试过find类似tmpfs的东西,它允许我像使用caching的应用程序一样,尽可能透明地实现类似于纯磁盘支持的caching(在SSD上),但是我一直无法find实现此function的任何东西(类似于CacheFS为NFS所做的,但是以更一般的方式)。
我正在尝试在Windows资源pipe理器中进行传输,并对“我的网站”进行完全控制。 非常感谢您的帮助。 我也问了一个: MSDN Sharepoint论坛的问题
我有一台Linode VPS服务器,我最近已经安装好了,并且正在从Mediatemple迁移到那里,我有一个由Pleskpipe理的VPS。 我不喜欢Plesk界面和它所做的很多事情,但是赞赏它允许多个人访问服务器上不同域的能力。 我拥有大部分的设置,但是我的域目录有权限问题。 我正在运行Ubuntu 8.04 LTS和Apache 2作为我的Web服务器。 我有成功地位于/var/www/vhosts/domainname.com域的域名,但必须修改文件作为根,以添加/更改域的文件。 我想用以下标准设置访问权限: 每个域可以有一个用户分配给它(并允许同一个用户pipe理多个域 – 甚至可以创build他们的主文件夹符号链接到他们的域) 某些用户将具有shell访问权限,并可能被chrooted到他们控制的域目录 FTP需要设置并能够正确访问域,以便每个域的内容编辑器可以上传/下载,而无需任何权限问题 我是相对较新的Linux系统pipe理员,并已经寻找一个很好的指导,以帮助解决这些问题,但还没有能够find一个呢。 在此先感谢您的帮助。
我只是设置了一个运行Maverick的文件服务器,并创build了2个2TB驱动器的镜像zpool。 在我以前使用ZFS的经验中,它将使用所有可用内存从驱动器caching…但现在我看到服务器上的内存使用量大约为400MB。 这告诉我,ZFS ARCcaching不起作用。 这在zfs-fuse中不被支持吗? 如果没有,是否有办法创build一个2GB的RAM磁盘,并将其用于ZFScaching?
如何获得solaris卷元设备的唯一标识符UUID? 我想在solaris的veritas卷pipe理器中使用像RID这样的唯一ID。
我正在寻找使用S3作为邮件系统的数据存储服务。 这个想法是允许用户上传文件作为电子邮件的附件,然后通过链接到S3上托pipe的文件从Web服务下载。 我面临的问题是: 当用户select他们的文件名,会有碰撞,所以S3上的文件必须有唯一生成的文件名,或存储在不同的文件夹中,用户是否仍然可以使用一些API或configuration下载文件的原始文件名? (例如:用户上传文件dog.gif,存储在存储桶中为A3f23_dog.gif,下载链接返回文件为dog.gif,可能使用HTTP标头) 包含在单个存储桶(位于根目录下)的文件/文件夹的数量是否会对性能造成影响? 或者我需要做一些文件分配到文件夹等 我可以使用URL公开提供这些文件,但仍然不允许枚举文件桶中的文件吗? (即文件列表) 非常感谢,我希望这是有道理的。
为了进行基准testing,我需要使用Ext4和Btrfs来格式化和安装可变大小的ram-back块设备。 不幸的是,我遇到的唯一的解决scheme使用似乎不灵活(他们都是相同的大小)的ramdisk。 我唯一想到的其他解决scheme是在tmpfs中使用loopback文件,然后用Ext4或Btrfs格式化这个文件。 除了古代的ramdisk之外,还有其他的ram-backed块设备吗?
我有一个SSH + Samba服务器,所以人们可以从networking上的任何地方访问它的文件。 我认为通过Web界面提供访问也是有趣的,所以即使他们没有访问VPN或Samba / SSH客户端的权限,他们也可以访问这些文件。 就像Ubuntu One或Dropboxnetworking界面一样。 http服务器可能与SSH + Samba在同一台机器上,所以它应该只提供对本地文件的访问,以及用他们的用户名/密码login的方法。 有人知道这样的软件吗?
我有一个关键的服务器运行,我不能打倒(或者至less,我告诉我现在不能)。 不幸的是它填满了根分区。 它正在运行一个自定义的进程,写一些日志文件,因为我主要是一个开发人员,我想修复程序logging的方式,使其与Logrotate兼容,因为它不是现在。 所以我需要说服主要的开发者,解决这个问题是值得的,应该是一个高度优先的事情。 目前,我可以压缩日志并将它们分离出来,因为它们想要保存很长时间才能分析。 但是有一天,服务器stream量很大,并且在我有机会做任何事情之前logging下很多数据。 一旦磁盘已满,无法备份压缩大文件是不可能的。 而且由于它们很大,复制到另一台服务器可能需要相当长的一段时间。 所以我需要一些杠杆来帮助推高这个优先级。 什么是完整的根分区的副作用?
我的系统pipe理员告诉我,我们应该从服务器上删除旧的静态文件,并将它们存储在数据库中,而不是因为文件系统上的文件过多会影响系统的整体性能。 影响是否显着? 目前我们目录中有大约2万个文件,预计在未来几年有望达到10万个。 这是一个相对较新的Ubuntu LTS系统。 如果100,000不重要,那么数字是多less? 编辑:这是不同于一个ext3目录中的文件的最大数量,同时仍然可以接受的性能? 因为我不关心目录性能,而是关心系统上的文件数量达到任意数量时的整个系统性能。 在我的具体情况下,系统pipe理员认为,由于整个系统上的文件总数,Apache会放慢速度。