这是在带有用于CSV的DAS共享存储的2012R2 Hyper-V群集上运行的(新)2012R2 VM。 这是奇怪的地方 – 服务器将工作正常没有问题,我们将得到报告某些股份不再有效。 我将login到服务器,浏览到资源pipe理器中的数据磁盘,它会加载驱动器上的前10个文件夹。 这是“绿色的死亡酒吧”的起始位置,Explorer坐在那里无法加载其余的驱动器。 所有的文件夹,我可以看到,相应的共享工作,但任何资源pipe理器无法加载,用户无法通过其映射的驱动器访问不再。 重新启动修复它只是暂时的。 事件没有logging,没有任何性能问题,如果我把它放在虚拟机之外并将它挂载到主机上,VHD本身就没有问题。 在这个阶段寻找任何想法!
因为所有知道/ etc / fstab文件定义了哪个dev作为 – / dev / sdX需要在分区上挂载某些时间目标挂载点未挂载为已定义的fstab 例如 /dev/mapper/vg00-lv_var /var ( from fstab ) 但是当我们运行mount命令或者df命令的时候,我们注意到/ var没有挂载 我只是想着这个,创build一个循环,在/ etc / fstab每行上运行的bash脚本,并将其与df或mount的输出进行比较,以查看mount-point是否真的挂载 代替这个,也许有人可以build议简单的解决scheme,如果从/ etc / fstab挂载的所有挂载点都真正挂载,如从df命令或挂载命令
如何在父/子层次结构中列出btrfs文件系统上的所有子卷/快照? 我想要的东西就像目录/文件的tree命令,但对于具有子卷ID的父/子子卷和磁盘上快照的位置。
我正在为〜200GB数据库(包括数据和索引)运行Postgres实例。 它位于Google Compute Engine服务器上。 我的磁盘选项是networking块存储或本地SSD。 我想知道是否可以使用本地SSD作为数据库的caching层。 networking块存储是持久的,但是具有相对较慢的读/写和低IOPS。 本地固态硬盘具有高吞吐量读/写和高IOPS,但是实际上是瞬态的并且不能在closures实例的情况下存活。 我想我可以运行两个Postgres实例:networking块存储上的主服务器,以及本地SSD上的只读副本。 但是,就像Linux自动使用可用的RAM作为磁盘caching,我不知道是否可以告诉Linux使用本地SSD作为慢速networking块存储的caching。 有谁知道如何去做呢?
我一直在尝试几个小时才能在pipe理和I / Opath上获得GlusterFS SSL workong无济于事,所以我希望你能帮助我。 我试过了简单的方法: openssl genrsa -out glusterfs.key 4096 openssl req -new -x509 -key glusterfs.key -subj "/CN=Anyone" -out glusterfs.pem 然后我把glusterfs.pem从所有对等体连接到glusterfs.ca并将glusterfs.ca分配给所有节点。 以下文件存在: /etc/ssl/glusterfs.key /etc/ssl/glusterfs.pem /etc/ssl/glusterfs.ca 我已经创build了该文件来在pipe理path上启用SSL并重新启动glusterd。 touch /var/lib/glusterd/secure-access systemctl restart glusterd 我的glusterd.log现在正在logging数百条(每分钟几十条)显示SSL错误: [2017-08-29 22:01:07.535725] E [socket.c:202:ssl_dump_error_stack] 0-socket.management: error:1408F10B:SSL routines:SSL3_GET_RECORD:wrong version number [2017-08-29 22:01:07.535760] E [socket.c:2519:socket_poller] 0-socket.management: server setup failed 当我尝试在I / Opath上启用SSL时,在卷日志中发生同样的错误,当我尝试更复杂的方式创build我的glusterfs。*文件时也会发生同样的错误。 例: openssl […]
我正在从我的工作站复制文件到dev沙箱,本地我没有www-data用户,这是我的web服务器所需要的。 有没有办法为unison同步的文件设置user_id?
在尝试这个之前应该多读些关于这方面的知识,但是现在我知道得更多了…把事情搞砸了。 事后才知道xfs的缺点。 操作系统显然是安装了默认的分区和types,所以有以下几点: /dev/mapper/cl-root 50G xfs /dev/mapper/cl-home 50G xfs cl-root已经达到了100%,所以我以为自己并没有真正被使用,所以我会从cl-home那里窃取这个空间。 有以下几点: lvresize –size 10GB /dev/mapper/cl-home lvresize –size 89GB /dev/mapper/cl-root 两个都是成功的,这些变化反映在每个卷的lvdisplay中; 然而df -h仍然显示他们是相同的大小。 决定重新启动,这是由于/home没有正确安装而进入紧急模式的地方。 作为一个解决办法,我修改了/etc/fstab ,这样nofail可以启动/dev/mapper/cl-home ,这样可以正常启动,尽pipe它重做了/home目录。 我看着df -h ,它没有显示/dev/mapper/cl-home ,文件系统仍然显示/dev/mapper/cl-root相同的大小。 lvdisplay显示调整驱动器大小。 尝试mount /home并获得: mount: /dev/mapper/cl-home: can't read superblock 。 据我所知,减小或增加文件系统大小的过程分为两部分:1)修改逻辑卷,然后2)修改文件系统。 我已经做了1)的印象,只需要做2)。 尝试: resize2fs /dev/mapper/cl-home 10G resize2fs 1.42.9 (28-Dec-2013) resize2fs: Bad magic number in super-block while […]
我的设置非常简单:在Windows 10安装了Debian NFS共享。 问题也很简单。 Windows将创build所有新的文件和目录具有相同的权限,在我的情况下0755.这会产生以下问题: 所有的文件/目录0755 – 由于可执行的位目录访问是好的,但所有的文件现在也成为可执行文件,这是不可接受的 所有文件/目录0644 – 目录访问不再可接受,但所有文件现在具有正确的权限 据我所知,这个问题在Linux方面没有任何问题,NFS正在运行。 问题在于Windows没有区分这两者。 Windows上是否有解决scheme,就像Linux上的umask一样,允许使用0755权限创builddirs,使用0644创build文件? 或者,也许在NFS服务器端的一些设置自动转换这些权限,如Samba做的帮助 create mask = 0644 directory mask = 0755 configuration指令?
我有2个VPS。 一个有SSD并运行KVM。 第二个有一个很大的磁盘空间。 如何将第二个vps安装为根驱动器上的附加存储,以便它自动安装并运行我在指定的VPS上指定的内容。 如果我想在VPS 2上安装一个程序,我应该可以做到这一点如果我想安装在VPS 1上,我应该可以做到这一点。 我该怎么做呢?
为什么ls –ignore不会忽略这个模式? 看下面的例子: mkdir books cd books touch books_abby.csv touch books_karen.csv touch books_david.csv touch books_tom.csv 这会创build四个文件: $ ls books_abby.csv books_david.csv books_karen.csv books_tom.csv 如果你想忽略所有包含“tom”的文件名并列出它们, books_tom.csv仍然会返回: $ ls *.csv –ignore="*tom*" books_abby.csv books_david.csv books_karen.csv books_tom.csv 预期的结果是包含“tom”的文件被省略: $ ls *.csv –ignore="*tom*" books_abby.csv books_david.csv books_karen.csv