man apt-cache对此有这样的说法: showpkg显示有关在命令行上列出的软件包的信息。 剩余的参数是软件包名称。 列出了每个软件包的可用版本和反向依赖关系,以及每个版本的转发依赖关系。 转发(正常)依赖项是所涉及的包所依赖的那些包; 反向依赖关系是那些依赖于所涉及的软件包的软件包。 因此,一个包必须满足前向依赖关系,但是反向依赖关系不需要。 例如, apt-cache showpkg libreadline2会产生类似于以下内容的输出: Package: libreadline2 Versions: 2.1-12(/var/state/apt/lists/foo_Packages), Reverse Depends: libreadlineg2,libreadline2 libreadline2-altdev,libreadline2 Dependencies: 2.1-12 – libc5 (2 5.4.0-0) ncurses3.0 (0 (null)) Provides: 2.1-12 – Reverse Provides: 因此可以看出,libreadline2,版本2.1-12,依靠libc5和ncurses3.0,libreadline2必须安装它才能工作。 反过来,libreadlineg2和libreadline2-altdev依赖于libreadline2。 如果安装了libreadline2,则还必须安装libc5和ncurses3.0(和ldso); libreadlineg2和libreadline2-altdev不必安装。 对于输出其余部分的具体含义,最好查阅apt源代码。 我想也许有人在这里做了,我不必。
好的,我很抱歉没有通过这里的几十个在线网站和问题来自己搞清楚这一点……但是我在时间紧迫,不想破坏任何东西。 我需要将一个文件夹和所有子文件夹和文件从一台Linux服务器(Gentoo)备份到同一networking上的Ubuntu机器上,最好使用rsync。 这是我需要的: 有人可以提供我的步骤,以确保Ubuntu目标框准备好接收rsync(权限等)? rsync脚本本身。 所有我需要做的是同步到目标每晚在源文件夹/子文件夹/文件的权限等所有的理想将是5副本周一/周二/周三/周四/周五,但我愿意住在一起单个副本每晚被覆盖(只要源不更改) 谢谢!
我开始尝试做一些简单的性能testing。 “哪些磁盘更快,以及多less东西。 我不需要太高的精度,我只是想要一个粗略的想法。 它变成一个奇怪的进入如何工作的内部事件。 有趣的,实际上,但有点奇怪。 在我进一步讨论之前,我要说的是,本文中的所有内容都是在Arch Linux系统上运行的,运行3.0内核,从MyBook Essential USB3机箱中移除Western Digital WD30EZRX 3TB SATA磁盘驱动器(这些机箱可以做坏事您的数据),并安装在Sans Digital单盘USB3机箱中,通过Buffalo USB3 PCIe单通道卡连接。 驱动器是该USB卡上的唯一设备,在testing期间系统处于空闲状态。 我写了一个性能testing程序,一个简单的C程序来打开一个文件,写入四个GiB的数据,fsync(),然后退出。 我在一个空的全盘ext4文件系统上运行了9次testing(任意一个数字,因为我想要单个数字,但是忘了从零开始),每次运行58-59秒,大约73 MB /秒。 不是世界上最快的磁盘,但结果是相当一致的。 由于我不记得的原因,没有预料到任何麻烦,我在几个小时后回来做了完全相同的testing,拔掉磁盘后再testing另一个磁盘,将原始磁盘重新插入,然后重新执行mkfs。 令我惊讶的是,我得到了非常不同的结果。 这一次,我在51-52秒(83 MB /秒)的范围内得到了结果,2秒接近48秒。 几个小时后,在做了一些研究之后(包括在这里问一个关于如何找出文件使用哪个磁盘块的问题),我在同一个磁盘上运行了另一个testing,而不用重新初始化。 我只是在前一个testing的同一目录(文件系统的根目录)中创build了新的文件。 这一次,我在44-45秒(96 MB /秒)的范围内得到了结果。 后来,我又跑了三个testing(实际上改进了我的testing程序),再次把这些文件放在现有的文件旁边,并获得了44秒,45秒和50秒的性能。 这三组运行是完全相邻的。 请记住,我还没有谈论个人跑步。 我跑了9次testing程序,所有的结果都是44秒,还有9次,都是45秒的结果,还有9次,都是50秒的结果。 这些差别很大,而且很奇怪。 我使用debugfs来检查文件正在使用哪些块,并没有什么“有趣的”在那里。 每个文件似乎从磁盘开始依次得到下一个可用块。 我能想到的唯一可能的解释是,如果磁盘电路以某种方式从磁盘的不同部分分配块并将它们呈现给主机为连续的。 对于我所看到的结果,它将不得不注意到我的testing运行之间的延迟,并将其作为切换到磁盘的不同部分进行分配的机会。 坦率地说,这听起来有点像我,但我没有很多其他的想法。 任何人都可以阐明这一点? 为什么我会得到这样的局部一致而全局variables的结果呢?
将Mac OSX机器上的文件夹内容与Linux服务器上的另一个文件夹同步的最简单方法是什么? 你可以使用scp : scp -r /path/to/folder/ username@IP_ADDRESS:/path/to/sync/with 但是scp很慢并且复制所有文件,不pipe它们是否存在于服务器上。 还有什么其他的select?
今天我得到了这个奇怪的错误,我无法修复它: root@server# yum -y update Loaded plugins: allowdowngrade YumRepo Error: All mirror URLs are not using ftp, http[s] or file. Eg. </html>/ removing mirrorlist with no valid mirrors: /var/cache/yum/addons/mirrorlist.txt Error: Cannot retrieve repository metadata (repomd.xml) for repository: addons. Please verify its path and try again root@server# 与禁用回购“插件”: root@server# yum update –disablerepo=addons Loaded plugins: allowdowngrade YumRepo […]
CentOS 5.5不会引导过去这一点: 这台机器有一个Areca RAID控制器,操作系统位于由2个SATA驱动器组成的RAID 1镜像上。 还有第二个数组, 带有4个SATA驱动器的RAID 5组。 根据错误信息,这里可能有什么错误?
TL / DR版本: 单声道+ Duplicati.commandline.exe恢复等等,吐出了几个文件,无论我尝试。 我可以列出集合,列表中的文件,甚至做一个validation,但每次我做任何forms的恢复,我得到的错误的影响: 无法恢复文件:“snapshot / blahblah / 2005-11-07.tar.gz”,错误消息:快照/ blahblah / 2005-11-07.tar.gz的部分文件logging与文件不匹配 在这里有什么build议,或者在哪里寻找更好的解决scheme的想法? 完整的故事: 我最近为几台服务器(主要是Linux)提供了一个干净,友好的备份解决scheme,但是偶尔也会添加一个windows box。 这个解决scheme符合我所有的要求,并且做得很好…保存1:交叉兼容性 该解决scheme是基于几个元素的组合,但最终实现了使用Duplicity和Duplicati来实际存储文件。 整个解决scheme已经准备就绪,我意识到Duplicati事实上并不允许我将文件恢复到Linux系统,不pipeMono下的命令行可能会告诉你什么。 它只是吐出随机压缩和图像文件的错误,显然没有什么好的理由,因为我已经尝试了几个选项来恢复它,还有几个版本的单声道,包括安装它几乎lib-for-lib。 由于这些错误的原因,没有有效的日志文件,甚至“–debug-output = true”标志也什么也不做。 我能列出集合,列表中的文件,甚至做一个validation,但每次我做任何forms的恢复,我得到的错误效果: 无法恢复文件:“snapshot / blahblah / 2005-11-07.tar.gz”,错误消息:快照/ blahblah / 2005-11-07.tar.gz的部分文件logging与文件不匹配 现在,我很可能会使用Duplicati网站上的友好指示,并编写相当于还原的bash,但这并不完全理想。 对此有何build议? 或者可能是一种替代解决scheme,它具有Duplicati / Duplicity的相同优势,但实际上可以跨平台使用。
可能重复: 我的服务器被黑了应急 我们有一个远程Linux(Debian)服务器,显然,这个服务器被用作一个平台来实施DoS攻击。 我们已经被托pipe我们的服务器的公司发出警告,表示我们有大量来自该服务器的传出stream量。 我想知道的是:我怎样才能跟踪并最终杀死导致这么大stream量的stream程呢? 之前我曾经玩过类似的东西,但是前一阵子,我想我记得用'lsof'来跟踪这个过程。 但是,lsof没有安装在这台服务器上,而且以前从来没有在Linux上安装任何东西,我真的不知道如何安装它。 我很感谢在这个问题上的任何build议或指导,但主要问题是基本上如何跟踪恶意进程?
我正在运行CentOS 5.4机器,并且无法使sendmail正常工作。 经过一番研究,我发现我需要改变我的服务器FQDN。 /etc/hosts具有以下内容: 127.0.0.1 localhost localhost.localdomain xx.xx.xx.xx test (xx.xx.xx.xx是我服务器的真实IP地址,'test'是我相信机器的名字) 我删除了上面的两行,并将其replace为: xx.xx.xx.xx mydomain.com MyDomain sendmail现在可以正常工作,但是由于我对Linux和FQDN没有经验,所以我不确定是否更改这个文件会在其他地方引起意想不到的问题。 Web和FTP访问似乎不受影响,但我很好奇,如果任何Linux大师知道如果我做错了什么。 提前致谢!
作为试验项目的一部分,我正在尝试为使用NoMachine的开发团队设置瘦客户端环境。 每个开发人员都将login到同一个Linux机器上,并通过X会话进行开发。 目前,每个开发人员在他们的本地工作站上运行他们自己的HTTP守护进程,在127.0.0.1:5000上侦听。 但是,如果我把每个人都搬到同一台机器上,这显然会造成港口冲突的问题。 理想情况下,我想保持他们的工作stream程相同。 如果我不得不为每个人分配一个独特的端口,这只会造成很多的悲伤和困惑。 有没有办法做到这一点? 不同的进程可以在每个用户的基础上绑定到相同的端口吗? 我发现了一种方法来使用iptables做每个用户的端口redirect,但这只能解决部分问题: iptables -t nat -I OUTPUT –src 0/0 –dst 127.0.0.1 -p tcp –dport 5000 -m owner –uid-owner userA -j REDIRECT –to-ports 5001 该解决scheme仍然不允许不同的进程绑定到相同的端口。 我甚至不知道我是通过寻找一个iptables解决scheme来find正确的方向。 有什么build议么? 有没有可能在用户级应用的黑客? 谢谢!