普通用户可以通过chmod文件来使其不可访问 evgeniy@ubuntu:~$ touch test evgeniy@ubuntu:~$ chmod 444 test evgeniy@ubuntu:~$ echo 'test' > test bash: test: Permission denied 像这样的东西可以模拟为root用户?
我需要将一个大文件(损坏的MySQL表〜40GB)移动到一个单独的服务器上以修复它。 (当试图在我的生产服务器上修复时,它很快就杀死了服务器)。 为了做到这一点,我想将我的生产服务器中的.frm,.MYI和.MYD文件同步到云服务器。 我将/ var / lib / mysql / {database} /中的文件复制到/ home / {myuser},这样我就不需要为rsync命令启用root访问权限,并且100%确定数据库文件不是在使用(它不应该被写入或读取,但显然我不想closures我的生产数据库来确保)。 我试图复制的第一个文件大约是10GB。 我正在从我的生产服务器的一部分转移到另一部分,即到相同的磁盘arrays。 不幸的是,复制命令“cp filename newfilename”花费了太多的资源,导致服务器停滞不前。 如何将文件复制到不同的目录时使用更less的资源? (这需要多长时间并不重要)。 假设我设法做到这一点,那么在将文件rsyncing到云时,我可以期待什么样的资源使用情况? 任何人都可以build议一个更好的方式来做到这一点 我正在快速耗尽磁盘空间,因此需要尽快修复和归档此表。
这是一个晦涩难懂的问题,我知道。 我正在尝试在Linux机器上进行一些磁盘的性能testing。 我得到了一些不一致的结果,在同一个磁盘上运行相同的testing。 我知道磁盘有不同的性能,这取决于正在访问磁盘的哪一部分。 特别是,由于接近恒定的数据密度和恒定的转速,对磁盘外部的读取和写入具有比读取和写入磁盘内部部分高得多的吞吐量。 我想看看,如果我的不一致可以归因于这种几何因素导致的吞吐量变化。 是否有可能使用现有的工具来找出磁盘上的文件放置位置? 如果没有,我想我可以写一些东西,直接寻找,读取,并写入设备文件本身,绕过(和销毁)的文件系统,但我希望避免这一点。 我目前在3.0内核上使用ext4(Arch Linux,如果有的话),但我也对其他文件系统的技术感兴趣。
背景 无法从服务器pipe理员权限中删除的用户往往会忘记在C:上保存数据库备份( .bak )时,地狱将会丢失。 题 是否可以阻止服务器pipe理员的用户在C:上的目录中保存某些types的文件? 他们仍然应该被允许在C:上保存任何其他文件types,并且他们对所有其他驱动器的权限应该保持不变。 替代 如果不可能仅禁止某些文件types,那么每当有人试图将某个.bak文件保存在C:上的某些目录中时,是否至less可以显示popup警告。 其他考虑因素 由于各种原因,这些用户必须保持其服务器pipe理员权限。 我不介意我是否使用文件级权限,脚本或GPO。 所有工作的解决scheme是受欢迎的
在debugging一个似乎无法连接的python irc bot的过程中,我想:“我知道,我只是用tcp dump来看看它在做什么”。 所以我像往常一样运行tcpdump,它说它是捕获的数据包,但实际上并没有写cap文件。 akraut@lance ~/pcaps $ sudo tcpdump -w pyhole -s 0 "port 6667" tcpdump: listening on eth0, link-type EN10MB (Ethernet), capture size 65535 bytes ^C17 packets captured 17 packets received by filter 0 packets dropped by kernel 4294966881 packets dropped by interface akraut@lance ~/pcaps $ ls -la total 8 drwxr-xr-x 2 akraut […]
比方说,我有一个目录ḟoo/其中包含很多文件在某种目录结构。 我需要保留其中一些,但不是全部。 有没有一种方法(就地)删除所有的,除了(说)500最新?
我们有一个由几千个用户组成的环境,在大约40个集群上运行应用程序,大小从20个计算节点到98,000个计算节点。 这些系统上的用户生成大量的文件(有时> 1PB),由传统的Unix权限控制(由于文件系统的特殊性,ACL通常不可用或不实用)。 我们目前有一个名为“give”的程序,它是一个suid-root程序,允许用户在组权限不足时将文件“授予”给另一个用户。 所以,用户可以input如下所示的文件给另一个用户: > give username-to-give-to filename-to-give … 然后,接收用户可以使用一个名为“take”(命令程序的一部分)的命令来接收文件: > take filename-to-receive 然后文件的权限被有效地传送给接收用户。 这个程序已经存在好几年了,我们希望从安全和function的angular度来重新审视。 我们目前的行动计划是消除我们当前实施“give”的恶性循环,并将其打包为开源应用程序,然后再重新部署到生产环境中。 当只有传统的Unix权限可用时,有没有人有另一种方法用来在用户之间传输超大文件?
有哪些方法可以使Linux文件系统的情况变得不灵活? 我有在Windows上开发的asp.net应用程序,但是在Linux上放置单词时总是会出现大写/拼写问题。 一种方法是将本地主机SMB共享挂载到/ var / www。 还有别的吗?
我正在看这个设置: Windows Server 2012 1TB NTFS驱动器,4 KB群集,约90%满 存储在10,000个文件夹中的〜10M文件=〜1,000个文件/文件夹 文件大多很小<50 KB 虚拟驱动器托pipe在磁盘arrays上 当应用程序访问存储在随机文件夹中的文件时,需要60-100毫秒来读取每个文件。 使用testing工具时,似乎打开文件时发生延迟。 读取数据只需要很less的时间。 总之,这意味着读取50个文件很容易花费3-4秒,这比预期的要多得多。 写作是批量完成的,所以表演在这里不成问题。 我已经遵循SO和SF的build议来达到这些数字。 使用文件夹减less每个文件夹的文件数量( 在文件系统中存储一百万张图像 ) 运行contig来整理文件夹和文件( https://stackoverflow.com/a/291292/1059776 ) 8.3名称和上次访问时间禁用( configurationNTFS文件系统的性能 ) 如何处理阅读时间? 考虑60-100毫秒每个文件是好的(不是,是吗?) 任何想法如何设置可以改善? 是否有低级的监测工具可以说明究竟花了多less时间? UPDATE 如评论中所述,系统运行Symantec Endpoint Protection。 但是,禁用它不会改变读取时间。 PerfMon每次读取10-20毫秒。 这意味着读取任何文件需要6次I / O读操作,对吧? 这是MFT查找和ACL检查? MFT的大小约为8.5GB,比主内存大。
我希望能够在运行诸如安装程序之类的程序时跟踪对我的文件系统所做的修改列表,以便我可以在之后恢复它们。 编辑:这涉及一个非打包的程序。 我尽可能使用apt-get。 理想情况下,我希望能够做到这样的事情: (sudo) catch-modifs some-installer.bin > fsmodifs.patch 接着: (sudo) revert-modifs fsmodifs.patch 有没有一个方便的方法来做到这一点?