Articles of 文件系统

在Mac OS X(服务器)上recursion应用ACL权限?

多年来,我用这两个吸盘的强大的武装… sudo chmod +a "localadmin allow read,write,append,execute,\ delete,readattr,writeattr,readextattr,writeextattr,\ readsecurity,writesecurity,chown" sudo chmod +a "localadmin allow list,search,add_file,add_subdirectory,\ delete_child,readattr,writeattr,readextattr,\ writeextattr,readsecurity,writesecurity,chown" 因为我认为这是一个recursion的 ,全面的,全面的,为每一个可用的权限(用户, localadmin )提供的。 当我, localadmin ,想要“做某事”没有很多关于权限的抱怨,等等 美丽的是,这种方法避免了改变所有权/组成员资格的必要性,或任何可执行的位。 但它是recursion的吗? 我开始想,事实并非如此。 如果是这样,我该怎么办? 而且如何能检查这样的东西? 将这个单用户添加到ACL不会显示在Finder中,所以…好的,欢呼声。

可以对每个文件encryption云存储?

现在存在许多云存储提供商,在保存文件之前是否可以添加一层encryption? 在一个文件中创build一个encryption的分区是可能的,但是当只有5kB的文件发生变化时不得不同步一个5GB的文件是不理想的。 理想情况下,我想每个文件encryption和文件名称和目录名称encryption。 会有这样的事情吗? 更新 EncFS可能就是我正在寻找的。

XFS磁盘在一段时间后变得不可用

Ubuntu 12.04(但是升级之前的版本是11.10) WD MyBook,2TB,没有RAID(或RAID0,不完全确定,总之没有镜像,两个1TB磁盘正在使用,安装为一个单一的设备)。 格式化为XFS,通常用于大型电影文件。 连接到Firewire 800。 在某个时候,LED不断地读/写,开始上下。 该设备提供访问错误。 拔下电源线(电缆,然后按住电源button一会儿,然后拔下电源),重新连接即可使用。 xfs_check没有结果。 xfs_repair做了一些事情,但看起来没有修复任何错误。 然后,大量阅读(检查1.5GB的洪stream文件的完整性)再次变得不可用。 任何想法有什么不对? 驱动器? 电缆? 母板? OS? UPD:不知道这是多么相关,但这里是dmesg输出 [14380.632816] SGI XFS with ACLs, security attributes, realtime, large block/inode numbers, no debug enabled [14380.633356] SGI XFS Quota Management subsystem [14421.812220] firewire_core: phy config: card 0, new root=ffc1, gap_count=5 [14441.890596] firewire_core: phy config: card 0, new […]

删除/ home中的一些文件增加了/上的可用空间。

基本上我有这个简化的文件系统: File system Dim. Usati Disp. Uso% Montato su /dev/md1 10G 4,0G 5,5G 43% / /dev/md2 683G 438G 211G 68% /home 我现在删除我的/home目录中的一些文件,我看到第一个分区的可用空间增加( / ) 存储在/dev/md2和/dev/md1文件之间是否有任何关联? 也许/home文件的inode存储在/dev/md1 ?

有没有支持inheritance的文件系统?

我想知道是否(在任何发展状态)存在一个文件系统,可以从另一个文件系统inheritance文件,但在该安装点上所做的更改只会影响该挂载点。 这就像是一个分布式文件系统,只有同步内部和外部,并且只有在缺less变化的情况下才允许执行。

Solaris支持ext4 / ext3 / btrfs

有谁知道Solaris 11(Sparc版本)是否支持挂载ext3 / ext4甚至更好的Btrfs卷? 我在网上find的大部分主题都是过时的(2006/2007),并且引用了对于面向Linux的FS非常不友好的Solaris版本。 我希望情况发生了变化,所以如果你有任何信息或指针,我会很感激。 感谢每一个进展,

如何“快速”创build300M文件和16M目录?

我有一个由2个hex数字定义的3级目录结构,如下所示: 0A/FF/2B/someimagefile.gif 我在1.5TB的压缩文件中有300M的小文件,这些文件将会填充这些目录(我们将来会有更多的文件出现,所以我select了目录结构来防止大量的文件崩溃到一个典型的extX文件系统)。 解压缩这些文件的速度为每秒1MB(或约18天解包)。 Ouchie! 我想这是慢的,因为我正在创build目录结构,然后是文件(从Java API完成)。 所以我开始只在bash循环中创build目录结构。 单独的目录是以目前的速度大约5天的任务。 任何关于提高这个速度的想法? UPDATE 这个难题的一部分是用perl而不是bash来解决的,创build目录的速度提高了200多倍,现在这个操作可以让你rest一下,而不是延长周末rest时间。 但文件创build仍然非常缓慢,即使不需要创build目录。

文件系统完整事件logging在哪里?

我强迫一个文件系统100%满。 我能够生成一条消息给STDOUT: # dd if=/dev/urandom of=reallylargefile count=2097152 dd: writing to `reallylargefile': No space left on device 1018761+0 records in 1018760+0 records out 521605120 bytes (522 MB) copied, 73.9457 seconds, 7.1 MB/s 但是我无法在任何日志(/ var / log / messages等)中find它。 这些事件在哪里登记? dmesg也不表示任何东西。 我需要了解syslogd的详细程度吗? cat / etc / redhat-release红帽企业Linux服务器版本5.7(Tikanga) 先谢谢了

Apache Tomcat设置最大file upload大小

我正在实施一个Grails / Groovynetworking应用程序,我想限制用户的file upload大小,我不希望有人上传一个10GB的文件到我的服务器。 我想到的是大多数的方法来计算大小是在文件已经上传之后完成的,如果有人提出了10个configuration文件并上传了10GB大小的10个文件? 这可以耗尽服务器,并占用服务器磁盘上的这么多空间。 所以我试图阻止这一点。 我发现Apache Tomcat允许进行以下configuration,使用硬编码或Annotation方法。 我不确定是否在上传过程中或在将file upload到临时位置之后计算最大文件大小。 文件显示如下: @MultipartConfig批注支持以下可选属性: 位置:文件系统上目录的绝对path。 位置属性不支持相对于应用程序上下文的path。 此位置用于在处理零件时或文件大小超过指定的fileSizeThreshold设置时临时存储文件。 默认位置是“”。 fileSizeThreshold:文件大小(以字节为单位),文件临时存储在磁盘上。 默认大小是0字节。 MaxFileSize:上传文件允许的最大大小(以字节为单位)。 如果上传文件的大小大于这个大小,Web容器将抛出一个exception(IllegalStateException)。 默认大小是无限的。 maxRequestSize:多部分/表单数据请求所允许的最大大小(以字节为单位)。 如果所有上传的文件的总大小超过此阈值,则Web容器将引发exception。 默认大小是无限的。 注解方式: @MultipartConfig(location="/tmp", fileSizeThreshold=1024*1024, maxFileSize=1024*1024*5, maxRequestSize=1024*1024*5*5) 这里是硬编码值: <multipart-config> <!– 50MB max –> <max-file-size>52428800</max-file-size> <max-request-size>52428800</max-request-size> <file-size-threshold>0</file-size-threshold> </multipart-config> 我很感激,如果任何人都可以澄清,如果在上传过程中计算MaxFileSize。

如何将分区表添加到现有的EXT4文件系统

我在8x3TB磁盘(18TB)上有软件RAID6,有文件系统/ dev / md1,但EXT4不能大于16TB,所以有2TB的空闲空间。 我想用这个空间。 我的第一个想法是将文件系统从磁盘的起始位置移开一点点,并使分区表和合适的分区描述我的数据。 但也许有一些聪明的黑客来回顾这些2TB,并且可以很容易地添加另一个磁盘到这个arrays。 复制这些数据,分区和恢复数据不是一个解决scheme。