我想在使用ZFS进行文件存储的FreeBSD主机上设置Samba域控制器。 当我尝试运行samba-tool domain provision文档中有关设置域控制器的文章时 ,我得到一个错误,告诉我需要启用POSIX ACL。 根据FreeBSD的ZFS页面 , FreeBSD上的ZFS仅支持NFSv4风格的ACL,目前已经完全实现,但与POSIX风格的ACL不兼容。 然后我来到一个非官方的指南,在FreeBSD上设置一个Samba域控制器 ,解决方法是在调用samba-tool时简单地提供–use-ntvfs标志,我可以确认这个工作。 但是,根据Samba上AD DC的function状态 ,NTVFS-feature在2010年已经被弃用,这看起来并不乐观。 现在我正处在一个十字路口。 我可以通过两种方式来设置DC,即使用–use-ntvfs或者使用UFS创build卷并对其进行格式化。 但是我不能预见这些解决scheme的利弊。 使用–use-ntvfs什么后果? 之后是可以改变的东西,还是我坚持select,直到我提供一个全新的域名?
我正在使用BTRFS从2个磁盘创build一个RAID0卷。 两者均位于每个可用30 GB空间的AWS EC2实例上。 我用来创build文件系统的命令是: btrfs -d raid0 -L MYLABEL /dev/xvdf /dev/xvdg 。 现在Ubuntu告诉我磁盘空间已满,就像BTRFS: root@host:/var/docker-apps/prometheus# btrfs balance start -dconvert=raid0 . ERROR: error during balancing '.': No space left on device There may be more info in syslog – try dmesg | tail root@host:/var/docker-apps/prometheus# 有趣的是,当我看到btrfs filesystem usage我得到这个: root@host:/var/docker-apps/prometheus# btrfs filesystem usage . Overall: Device size: 60.00GiB […]
我们都知道linux / Unix会自动阻止尝试写入到一个当前打开的文件被另一个进程写入。 但是,如果另一个进程打开文件,是否可以阻止/locking对文件的读取访问 ? 我有两个不同的脚本,都是随机启动,在白天运行不同的时间:一个脚本覆盖一个特定的文件; 另一个从该文件读取。 我想第二个阻塞(等待)或失败,如果第一个文件打开。
据我所知,AFS卷名长度是有限制的,所以实际上只能使用22个字符(我们只使用只读卷,所以我们需要join“.readonly”来适应31个字符的限制)。 有谁知道这个限制是否仍然适用于最近的OpenAFS版本,如果是的话,这个限制的原因是什么? 我真的希望能够使用更长的名字。 (已经在superuser.com上询问,但意识到它在这里更合适)。
在新创build的机器上,其根ext4分区据称空间不足。 在总结分区上的所有文件时,总的已用空间不会接近df所示的已用空间。 inode是足够可用和保留空间设置为3%,没有绑定挂载在命名空间左右。 > df / Filesystem 1K-blocks Used Available Use% Mounted on /dev/xvda2 6061632 5900308 0 100% / > df -h / Filesystem Size Used Avail Use% Mounted on /dev/xvda2 5,8G 5,7G 0 100% / > find / -mount -type f -exec du {} + | sort -r -h | awk '{SUM += $1} […]
我曾尝试将Azure文件服务作为networking文件系统的一种forms,可以同时由多个虚拟机进行安装 – 这是常规的Azure虚拟硬盘所不具备的function。 Azure VHD一次只能连接到一个虚拟机。 但是,通过SMB协议安装Azure文件共享时,我观察到一些非常差的写入性能。 设置如下,我已经在Standard_DS2虚拟机上启动了Canonical:UbuntuServer:16.04-LTS:latest虚拟机。 启动过程完成后,请按照官方说明通过SMB安装Azure文件共享。 sudo apt-get install cifs-utils sudo mkdir -p /mnt/azure sudo mount -t cifs //<storageaccount>.file.core.windows.net/<file-share-name> /mnt/azure/ -o vers=3.0,username=<storageaccount>,password=<base64-encoded>,dir_mode=0777,file_mode=0777,serverino 然后我运行这个简单的写性能testing: time for i in $(seq 1 500); do echo "hello!" > /mnt/azure/hello.txt; done real 0m20.673s user 0m0.032s sys 0m0.124s 可以看出,完成需要20多秒。 作为比较,在我的本地机器(使用SSD驱动器)上运行相同的testing,我看到以下数字: time for i in $(seq 1 500); do echo […]
在Proxmox中,我们使用LVM为我们的虚拟机(LVM精简configuration)创build光盘(逻辑卷)。 最近我们发现,即使所有的虚拟机光盘几乎都是空的,我们的卷组也快满了。 问题在于,一些LVM分区显示了大得多的映射大小,即df所报告的存储在VM磁盘上的实际大小的数据。 例如,我们有100 GB逻辑卷的虚拟机。 虚拟机内的光盘使用情况仅显示3.2 GB的空间: #> df Filesystem Size Used Avail Use% Mounted on /dev/mapper/pve-vm–3011–disk–1 99G 3.2G 91G 4% / … 但主机上的逻辑卷显示它使用39.8 GB: #> lvdisplay — Logical volume — LV Path /dev/pve/vm-3011-disk-1 LV Name vm-3011-disk-1 VG Name pve LV UUID oleKd5-O2o4-c4CE-5vzn-bXRC-TXwF-lzApmW LV Write Access read/write LV Creation host, time carol, 2016-08-16 09:03:54 +0200 […]
不得不在AWS上调整我的EBS。 我遵循亚马逊的指示,基本上我已经在第二台机器(作为辅助磁盘)上安装EBS / HD,并使用“gdisk”来调整分区的大小。 然后他们说要把EBS / HD重新安装到原来的机器上(重新启动它),并执行'resize2fs'。 但是,启动原始实例后,“df”显示“可用”和“使用%”,意识到我使用gdisk(在另一台机器上)添加的大小。 我根本不必使用resize2fs。 所以,我的问题是:我的系统是如何自动调整文件系统的大小? 据我所知,我所做的只是调整分区大小,而不是文件系统? 亚马逊的文档使这看起来像是两件不同的事情。 我还需要做resize2fs吗? 如果我没有,我会在晚些时候遇到麻烦吗? 恐怕我在一些炼狱状态下运行,即使一切看起来都很好(我可以保存新的文件,而之前的HD已经100%满了)。 格式是ext4(带有保护性MBR的GPT),如果有帮助的话。 谢谢!
我们有一个巨大的和越来越多的Windows图像和其他大型文件。 在那里,我假设大部分文件在多个文件中是相同的。 有没有一个压缩系统或甚至可以检测到这个文件系统?
所以我在Mac上开发PHP,而OS X(HFS +)在涉及到文件和文件夹名称时不区分大小写。 这可能会导致自动加载PHP类的问题,因为它使用类名search文件。 当我的代码中的case typoss可以在整个开发周期中完成时,它就变成了一个令人讨厌的问题,而当我开始部署到我们的(linux)生产服务器时,它只能背后丑陋的脑袋。 有谁知道一个解决scheme,将迫使OS X服从大小写开发PHP? 谢谢