Articles of 挂载

Linux中文件系统挂载的最大数量

Linux可以处理的文件系统挂载是否有最大数量? 发行版之间有差异吗?

将一台FTPS服务器挂载到一个linux目录下(但是得到Access denied:530错误)

我试图装载FTPS到一个目录,但它似乎并没有工作… 我可以做这个: lftp -p 990 user:[email protected] 它会连接好。 但是,如果我这样做: curlftpfs 10.10.10.1:990 /mnt/test -o user=user:pass 我得到这个错误: * Couldn't find host 10.10.10.1 in the .netrc file; using defaults * About to connect() to 10.10.10.1 port 990 (#0) * Trying 10.10.10.1… * connected * Connected to 10.10.10.1 (10.10.10.1) port 990 (#0) < 220-FileZilla Server version 0.9.34 beta < 220-written […]

正确的方式来提高单一的应用程序的权限?

我有一个单一的应用程序(在Ubuntu上)尾巴/ var /日志/消息,并拿起USB插入,如果该设备是在一个特定的端口,需要分区,格式化,并安装它。 显然这需要root权限。 我是Linux的新手,我想知道什么是“正确”的方法是完成这个。 始终以root身份运行我的应用程序会更好吗? 还是更好(或可能)给我的应用程序权限卸载 , 分开 , mkfs ,并安装和任何其他只需要的根进程? 背景: 一旦安装,一些特定的客户要求的文件将被加载到驱动器。 每个驱动器都是独一无二的,因此克隆将无法工作,而且我将每周支持数百个驱动器,所以我需要它尽可能自动化。 我意识到这是危险的,所以是的,我会在机器上发出一个警告,所有的驱动器将被格式化。 我使用单声道,因为它适合用C#.net编写的更大的应用程序。

强制安装后更新cwd进程?

Redis将快照转储到快速耗尽空间的设备上。 我已经尝试将更大的设备安装到快照目录,但是Redis继续将快照转储到较小的设备。 有没有办法强制redis使用新的目录而不重新启动服务?

Linux操作系统。 每周不同的备份驱动器到相同的挂载点

我们有一个外部驱动器,我们的服务器备份到每晚。 它被挂载到/快照。 我们计划每周交换一次这个磁盘。 问题是一个驱动器以/ dev / sdc而另一个以/ dev / sdd命名。 在fstab中,mount被设置为/ dev / sdc。 备份脚本之前,运行挂载/快照,从fstab获取挂载点。 我怎么能得到它在一个星期挂载/ dev / sdc和下一个星期挂载/ dev / sdd。 它必须是自动的,因为交换磁盘的人不会进入terminal。

有没有可能在线更改目录安装点?

假设我有一个拥有一个大根分区的生产服务器。 我想把一个目录,例如/var ,放在一个单独的分区,连同它所有的数据。 将所有数据复制到新分区然后挂载的明显方式可能会导致数据不一致,因为在线系统中的更改可能无法预测。 我正在想的是: 在某处挂载空的分区; 将所有数据从/var复制到新分区; 开始保持/locking(排队?)所有写入请求到/var ; 用rsync同步最后的更改; 将新分区挂载到/var ; 松开步骤3中的锁。 步骤3和步骤6是我不知道该怎么做的。 有没有停机时间这样的事情? 如果不是没有宕机,那么至less在不重启服务器的情况下停机时间很短?

挂载nfs共享的导出

我有两台机器A和B不在同一个networking上,我想从一台机器上导出一个nfs共享。 在中间,我有一台机器在这两个networking上。 我成功地将我的A的份额挂载到M.现在,我想将此挂载导出到B. 我在M上创build了一个导出,如下所示: /mnt/path/to/mountpoint/of/A's/nfsshare <B's IP address>(rw,insecure,secure,root_squash,wdelay,sync,no_subtree_check) 并试图把它安装在B上,就像这样: <M's hostname>:/mnt/path/to/mountpoint/of/A's/nfsshare /some/empty/directory nfs auto,rw,rsize=65535 0 0 当我尝试挂载M的导出时,我在B上得到这个消息: mount.nfs:vm-dc:/ mnt / dcstore01 / data02 / formats_exploitation失败,服务器给出的原因:权限被拒绝 我在M的系统日志中得到这个消息: Dec 6 13:53:05 vm-dc rpc.mountd[27916]: authenticated mount request from 10.0.0.1:773 for /mnt/dcstore01/data02/formats_exploitation (/mnt/dcstore01/data02) Dec 6 13:53:05 vm-dc rpc.mountd[27916]: qword_eol: fflush failed: errno 22 (Invalid argument) Dec 6 13:53:05 vm-dc […]

我必须在/ etc / exports中“改变”一下以获得mount -a的执行权限,这是什么问题?

每当必须重新启动server1时,我可以将NFS挂载到server2上的唯一方法是更改​​server1上/ etc / exports文件中的一个“fsid”整数。 否则, mount -a命令只会挂在server2上。 典型场景: Server1重新启动。 在server1上,我在/ etc / exports中有两行代码: /mnt/ramdisk/dir1 *(fsid=0,rw,no_root_squash,no_subtree_check,async) /mnt/ramdisk/dir2 *(fsid=1,rw,no_root_squash,no_subtree_check,async) 我发出这个命令: "exportfs -r". 在server2上,我在/ etc / fstab中有这个: xxx.xxx.xx:/server1_dir1/ /dir1_server2 nfs async,noatime 0 0 xxx.xxx.xx:/server2_dir2 /dir2_server2 nfs async,noatime 0 0 我首先“卸载”那些现在有过时的NFS处理的老旧的dirs。 然后, "mount -a" 该命令挂起。 我杀了之后, df显示dir1挂载,但dir2没有。 让这两个dirs挂载的唯一方法是将fsid整数更改为其他值。 例如,在server1上,我们现在有: /mnt/ramdisk/dir1 *(fsid=0,rw,no_root_squash,no_subtree_check,async) /mnt/ramdisk/dir2 *(fsid=2,rw,no_root_squash,no_subtree_check,async) 我改变了fsid = 1到= 2 。 我再次发出exportfs […]

从驱动器恢复数据

我有一台运行Centos 6的服务器。它已经哼了好几年了,我一直在备份数据。 突然之间,在重新启动之后,它变成了只读模式。 我认为其中一个文件夹没有正确备份,我想访问这些数据。 以下是我所做的: 系统上安装了新的硬盘驱动器。 安装了Ubuntu 15.04桌面。 从新驱动器启动。 当我做: lsblk -l 它告诉我,我有两个驱动器,分区如下: sdb —– sdb1 459.8 G —– sdb2 8 K —– sdb3 6 G sda —– sda1 102 M —– sda2 649 G sdb是新的启动驱动器sda是旧的启动驱动器 我可以安装sda1罚款 当我尝试挂载sda2时,出现以下错误消息: unknown filesystem type 'LVM2_member' 任何想法我能做些什么来获得/ dev / sda2上的数据?

在不影响原始安装的情况下卸载安装架

还有一个问题讨论关于卸载安装,但解决scheme有不必要的影响。 考虑以下目录布局: . ├── A_dir │ └── mount_b ├── B_dir │ └── mount_c └── C_dir 现在我将C_dir绑定到B_dir/mount_c并将B_dir到A_dir/mount_b : [hidden]$ sudo mount –bind C_dir B_dir/mount_c [hidden]$ sudo mount –rbind B_dir A_dir/mount_b [hidden]$ mount | grep _dir | wc -l 3 现在umount A_dir/mount_b将会失败,这并不奇怪。 根据networking上的答案,我们需要首先umount A_dir/mount_b/mount_c然后umount A_dir/mount_b 。 但是, umount A_dir/mount_b/mount_c也将卸载B_dir/mount_c : [hidden]$ sudo umount A_dir/mount_b/mount_c [hidden]$ mount | […]