我将Samba版本4.1.17-Ubuntu设置为域控制器和活动目录 ,一切似乎都顺利进行,但是当我尝试在一个Windows 10 PC域成员上使用pipe理员帐户在AD中使用Windows活动目录 创build新用户 用户和计算机pipe理工具 ,我得到这个错误: 发生错误,请联系您的系统pipe理员 (当我试图复制用户时也遇到同样的问题)。 但是当我使用samba-tool来创build一个用户时,它是完美的。 这是我的smb.conf文件: [global] workgroup = EXAMPLE realm = EXAMPLE.LOCAL netbios name = LINUXSERVER server role = active directory domain controller dns forwarder = 8.8.8.8 idmap_ldb:use rfc2307 = yes [netlogon] path = /var/lib/samba/sysvol/example.local/scripts read only = No [sysvol] path = /var/lib/samba/sysvol read only = No [Users] directory_mode: […]
我有一个运行在RedHat linux上的java / tomcat应用程序。 最初,当我启动应用程序,一切似乎工作得很好。 但是,经过一段时间,我猜想1-2天,我目睹了以下的成绩。 PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND 7023 root 20 0 2857m 577m 5920 S 0.0 14.6 5:12.80 /prd/JAVA//bin/java -Djava.util.logging.config.file=/prd/myapp 17729 myus 20 0 2875m 574m 5920 S 0.0 14.5 10:49.76 /prd/JAVA//bin/java -Djava.util.logging.config.file=/prd/myapp 12597 root 20 0 2868m 564m 6304 S 0.0 14.3 5:54.86 […]
我正在运行Proxmox 3.3.1来托pipe运行Linux的虚拟机(64位,内核版本3.2.0)。 虚拟机使用一个512GB的硬盘,不幸的是在创build虚拟机时configuration为使用ide驱动。 我怎样才能重新configuration虚拟机,使用virtio驱动程序访问硬盘? 我发现这个论坛的主题,但提出的解决scheme似乎是这样做的Windows客人,这需要添加一个小的虚拟HDD,以驱动程序安装驱动程序内的客人。 我想这不是Linux所需要的。 关于这个主题的另一个答案 (尽pipe纯粹是关于KVM,而不是关于Proxmox)提到这一点 […]您需要更改guest /dev/vdX的/etc/fstab文件中的驱动器标签,将/dev/sdXreplace为/dev/vdX [..] 不过,我注意到Proxmox guest并没有使用/dev/hdX ,而是使用/dev/mapper/<vmname>-root 。 所以我不确定这个答案是否适用,因为Proxmox似乎有自己的做事方式。
我有一个(大)系统,有caching行为,我不明白。 似乎caching运行系统内存不足。 这怎么可能? 存在内存压力时内核不清理caching吗? 我们的一个用户在两个挂载点之间运行了“cp *”。 该挂载点上有很多大文件。 在启动cp的20分钟内,可用内存从190G下降到3G。 这很好,内核正在使用caching。 然而,经过几个小时的工作,开始出现page_allocation_errors,系统最终经历了内核恐慌。 caching不应该被清理? 我错过了什么? Sar输出: 04:30:01 AM kbmemfree kbmemused %memused kbbuffers kbcached kbcommit %commit 04:30:01 AM 190117832 338882216 64.06 821904 98713680 88991700 16.06 04:40:01 AM 94106312 434893736 82.21 822088 194964388 89050160 16.07 04:50:01 AM 3014152 525985896 99.43 821300 286266580 87867416 15.86 05:00:01 AM 4209852 524790196 99.20 801136 […]
给定一个包含文件的树结构,说: source |– bar | +– three.txt |– baz | +– four.txt +– foo |– one.txt +– two.txt 如果我做 tar czvf dest/archive-1.tgz –listed-incremental dest/archive.snar source/* 这将创build一个包含所有当前文件和文件夹的.tgz文件,正如我所期望的那样: source/bar/ source/baz/ source/foo/ source/bar/three.txt source/baz/four.txt source/foo/one.txt source/foo/two.txt 如果我马上做: tar czvf dest/archive-2.tgz –listed-incremental dest/archive.snar source/* 这似乎创build.tgz文件包含当前目录的所有子文件夹,没有文件: source/bar/ source/baz/ source/foo/ 这不是我想要的。 就像这样的一个玩具例子来说,它并没有那么糟糕,但是在一个大的文件夹结构中,很难说这个.tgz基本上是空的。 这是很多的噪音。 理想情况下, tar会告诉我,没有更新的文件,并退出一个错误代码,但即使它做了一个空的焦油,这将是更好的(对于我来说,在这种情况下)比大量空文件夹的档案。 有没有办法让tar –listed-incremental像我想要的那样行事? 我已经做了一些searchfind解决scheme,但我还没有find很多。 我最终可能会停止使用–listed-incremental并且用find来组装一个文件列表,但是如果有一种方法可以让–listed-incremental做我想做的事情,那么这将是更多的工作。 有什么build议么?
我有很多关于这方面的研究,但我找不到任何答案我的问题。 我的问题是如何将VMware内核参数发送/传递给VMware vSphere中的VM guest虚拟机(所以我不需要打开控制台)? 不知何故,我想通过这个exmaple: linux ks=http://ip-addr/ks/kickstart-file.cfg ip=XXXX netmask=XXXX gateway=XXXX dns=XXXX 我甚至不确定这是可能的。 我知道我可以编辑iso文件并添加上面的参数,但在我的情况下,我不能,因为我创build一个虚拟机时使用静态IP地址。 有什么工具/ API(最好是命令行),让我做到这一点?
我在nginx中configuration一个位置如下: location /download { secure_link $arg_key,$arg_expires; secure_link_md5 "$secure_link_expires$uri$remote_addr download"; if ($secure_link = "") { return 403; } if ($secure_link = "0") { return 410; } set_unescape_uri $key $arg_key; set_unescape_uri $value $arg_expires; redis2_query setnx $key $value; redis2_pass 127.0.0.1:6379; proxy_pass http://172.16.10.134/$uri; proxy_set_header Host $host; proxy_cache $STATIC; proxy_cache_valid 200 1d; proxy_cache_use_stale error timeout invalid_header updating http_500 http_502 http_503 […]
我在debian 8上对dnssec运行以下命令。但是我得到错误: # dnssec-signzone -A -3 $(head -c 1000 /dev/random | sha1sum | cut -b 1-16) -N INCREMENT -o myzone.local -t myzone.local.zone dnssec-signzone: warning: Kmyzone.local.+007+16956.key:5: no TTL specified; zone rejected dnssec-signzone: fatal: failed loading zone from 'myzone.local.zone': no ttl
我正在做我的服务器上的一些testing,并希望降低我的PCIe设备(或其PCIe桥)的宽度。 如果是相关的,我想通过Linux的setpci来改变基于PCI规范的速度,并且改变链路控制2寄存器的“目标链路速度”。 这使我从8GT / s下降到5GT / s甚至2.5GT / s。 这是一个工作的例子: Server:~ # setpci -s 83:04.0 98.w=1:ff Server:~ # setpci -s 83:04.0 78.w=20:20 Server:~ # ./check_speed_width 84:00.0 has reported reduced PCIe speed: 2.5GT/s instead of 8GT/s bridge device 83:04.0 has reported reduced PCIe speed: 2.5GT/s instead of 8GT/s Server:~ # setpci -s 83:04.0 98.w=2:ff Server:~ # […]
我有12个混合的Ubuntu 12/14数据库Cassandra节点。 所有节点都是带有SSD,1Gb网卡的裸机节点,并且都位于相同的DC(受pipe理的COLO)中。 在轻微的操作下,所有节点和我们的云节点(在同一个DC中)之间的延迟都在1ms以下。 当我开始写入数据库节点时,来自和来自这些数据库节点的延迟大幅攀升至大约300ms。 CPU负载也在1(4个物理内核),磁盘利用率低于3%,通过dstat,networking负载约18MiB。 本地读取和写入Cassandra相对较快,所以我排除了应用程序层被超载。 我应该调整哪些工具和设置来了解为什么我的延迟如此糟糕? 我有监视工具来查看这些问题,我不确定从哪里开始诊断。