我正在使用VirtualBox 4.1.18,并且有一台运行Windows 8 RC的虚拟机,最初的大小为25GB(太小!)。 在安装操作系统和一些应用程序后,我的磁盘空间不足,因此closures了guest虚拟机,然后使用此命令将VHD重新调整为80GB: C:\Program Files\Oracle\VirtualBox> .\VBoxManage.exe modifyhd "D:\VirtualBox VMs\Windows 8 RC\Windows 8 RC.vhd" –resize 81920 0%…10%…20%…30%…40%…50%…60%…70%…80%…90%…100% C:\Program Files\Oracle\VirtualBox> .\VBoxManage.exe showhdinfo "D:\VirtualBox VMs\Windows 8 RC\Windows 8 RC.vhd" UUID: 03fb26e7-d8bb-49b5-8cc2-1dc350750e64 Accessible: yes Logical size: 81920 MBytes Current size on disk: 24954 MBytes Type: normal (base) Storage format: VHD Format variant: dynamic default In use by […]
根据Percona: 卸载文件系统或使其只读,如果… 你有文件系统损坏或 您已经以innodb_file_per_table格式删除了表 如果我启用了innodb_file_per_table,并意外删除了一个表,而将datadir挂载在/分区内,数据仍可以恢复吗? 显然你不能使用卸载的根文件系统。 我们的VPS主机有一个我们无法自定义的默认文件系统表。 我想知道在未来的情况下。 编辑:将通过NFS挂载/文件系统到另一个系统只读是一个解决方法? TIA。
给定一个专门用于存储音乐,video等的分区,是否可以隐藏lost + found目录?
我运行一个托pipe的持续集成公司,我们在Linux上运行客户的代码。 我们每次运行代码时,都会在单独的虚拟机中运行它。 一个常见的问题是客户的testing有时会失败,因为他们的代码在虚拟机上签出的目录顺序。 让我进入更多的细节。 在OSX上,HFS +文件系统确保目录始终以相同的顺序遍历。 使用OSX的程序员假设,如果它在机器上运行,它必须在任何地方工作。 但是它在Linux上通常不起作用,因为Linux文件系统在遍历目录时不提供sorting保证。 作为一个例子,考虑有2个文件,a.rb,b.rb. a.rb定义MyObject ,而b.rb使用MyObject 。 如果首先加载a.rb,一切都将工作。 如果b.rb首先被加载,它将尝试访问未定义的variablesMyObject ,并失败。 但比这更糟的是,它并不总是失败。 因为在Linux上订购的文件系统没有sorting,所以在不同的机器上将会是不同的顺序。 这更糟,因为有时testing通过,有时会失败。 这是最糟糕的结果。 所以我的问题是,有没有办法使文件系统的sorting是可重复的。 也许有一些标志ext4,这说明它会一直以某种顺序遍历目录? 或者也许有不同的文件系统有这个保证?
我有一系列服务器(HP ProLiant,34台服务器),每台服务器都有500 G的硬盘空间。 这些服务器是计算集群的一部分,运行的进程大致分为两个“阶段”: 阶段1:读取less量大(高达6Gb)的文件,并写入相对较大(高达1-2Gb)的文件。 阶段2:读写大量(数百个)小文件,然后将其合并成更大的文件; 这些文件也随着作为“事务点”的临时文件一起生成。 服务器不共享相同的机箱,并通过Gbit以太网连接。 根据我之前的问题 ,我最初在一台服务器上放置了一个NFS共享,但是并发性水平导致了可用性和locking问题,因此经常在第二阶段导致进程失败。 现在,我可以使用服务器中的磁盘,我想过使用分布式文件系统。 我的初始方法(用于感谢其他地方的成功testing)是使用GlusterFS(分布式+复制安装)。 然而,虽然它在第一阶段完美运行,但是由于networking中的延迟不足以处理池中所有服务器的所有这些并发读取和写入,导致各种服务器不同步,因此怪异的错误(缺less文件,奇怪的权限拒绝错误…)错误。 此外,“问题”是服务器本身(或其中的一部分,我不需要全部使用)需要运行计算和提供存储(这是一个捐赠的资源,所以我不能做超过那)。 所有这些都解释了用例,然后提示这个问题:什么是最好的分布式文件系统来处理“第二阶段”? 请注意,我需要文件级别的东西,例如装入点或虚拟设备。
我想创build一个服务,以服务数十万个较小的文件(从5kb到500kb,大部分在10-100kb左右)。 把它想象成一种gravatar.com,它可以在https://secure.gravatar.com/avatar/1545f91437e2576b910dbd1023a44756这些URL上提供这些小的头像图片 我想使用没有任何ID或散列的描述性URL,例如http://www.server.com/This-is-my-file.ext ,没有重复的文件名。 什么是最有效的方式来服务和组织的文件没有太多的开销? 只要将所有内容放在一个目录中并让nginx提供这些文件,就会在一定数量的文件(取决于文件系统)后变慢。 一个想法是基于文件名的第一个字符将文件保存在一个简单的目录结构中,所以这个例子将在T / H / This-is-my-file.ext中用nginxconfiguration中的一个简单的重写规则。 这会导致分配到不同目录的分配非常不均匀。 使用来自允许的值说,文件名的MD5哈希将导致良好的分布,但需要更多的计算能力… 我想这听起来像是一个关键的价值存储的完美的用例,但不是只有文件系统和nginx可以保持简单吗?
这是一个场景:我有一个Windows服务器上的文件需要5 TB(是的,这是一个T),我需要尽可能短而有效地迁移到新的服务器上。 (认为:Robocopy,Rsync等,因为我打算使用差分来做这个)。 这些文件位于单个父目录(d:\ files \ folder1,d:\ files \ folder2等)下的41,000个目录中。 由于这些服务器正在迁移到新的服务器上,所以我想分解它们,以使它们不是全部位于同一个“文件”目录中,而是在逻辑上尽可能多地分配到多个驱动器上(尝试将驱动器大小保持在2TB左右备份和复制的目的)。 Robocopy没有正则expression式选项。 Rsync需要一个linux服务器,这不是不可能的,但增加了开销:这是一个Windows到Windows的移动。 我已经find一种方法来使用PowerShell循环访问41,000个目录,并为每个目录单独启动Robocopy,从而允许我指定目的地……但这似乎效率低下。 我考虑的另一个select是一次性迁移所有内容,然后根据需要将其副本写入其他驱动器。 这意味着要复制2/3的文件两次。 我错过了什么明显的?
众所周知,由于编码和解码操作, 纠删编码增加了额外的复杂性。 由于这个缺点,大多数云服务build议使用热数据的数据复制和擦除冷数据的编码。 例如,从Ceph文档: 擦除编码池压碎规则集针对的是用于冷存储的硬件,具有高延迟和较慢的访问时间。 复制缓冲池规则集旨在提供更快的硬件,以提供更好的响应时间。 热数据的定义比“比其他数据更容易访问的数据”更好吗? 让我们考虑一个依靠擦除编码的存储系统和一个运行在其上的应用程序,这个应用程序由I / O密集型工作负载来定义。 它被视为热门数据吗? 现在,我怎么能说我的存储系统的擦除代码是否可行? 测量某些特定testing(即随机/顺序读取/写入)的应用程序IOPS是否相关? 是否存在一个阈值,说删除代码不适用于热数据,因为我只logging(例如)100个IOPS应用程序端用于4 kB块的随机写入操作? 如果我logging一千亿IOPS呢? IOPS是否与这种testing相关(也许其他度量会说更多)? 我对这个问题充满疑问,任何帮助都会感激不尽。
我在创build系统时使用默认参数创build了一个XFS文件系统。 现在查看xfs_info的输出,它显示sunit和swidth的值为0。 我似乎无法find解释在这方面的意思。 (我发现sunit和swidth集中在为这些参数设置正确的值,而不是将它们设置为0.) # xfs_info . meta-data=/dev/mapper/centos-root isize=256 agcount=8, agsize=268435455 blks = sectsz=512 attr=2, projid32bit=1 = crc=0 finobt=0 data = bsize=4096 blocks=1927677952, imaxpct=5 = sunit=0 swidth=0 blks naming =version 2 bsize=4096 ascii-ci=0 ftype=0 log =internal bsize=4096 blocks=521728, version=2 = sectsz=512 sunit=0 blks, lazy-count=1 realtime =none extsz=4096 blocks=0, rtextents=0 这肯定是一个无知的问题,对此我很抱歉,因为我是一个XFS新手,但sunit和swidth值是什么意思? 我如何知道XFS实际上使用了哪些参数值,以及这些值如何与适合于我的RAIDarrays的值相关联? (这是在硬件RAID之上的LVM之上的XFS系统。)
我有一个块存储卷通过FC挂载到我的服务器,我用XFS格式化了卷。 我开始遇到可以用xfs_repair轻松修复的文件系统损坏,但是我无法确定问题的根本原因。 我很积极,与我的FC存储无关,因为其他连接的服务器正常运行。 是否有需要使用的日志/软件包来确定此类问题的根本原因? 环境RHEL 6.7 谢谢