我目前的雇主正计划在Linux和Solaris服务器上推出System Center代理。 我不是在这里辩论为什么我不是这个想法的粉丝,这场战斗已经被打败了(不是真正的战斗,简单的pipe理法令,无法辩论)。 但是,我想知道的是,如果有人有将代理部署到Linux和/或Solaris服务器的经验, 你介意分享你的经验吗? 是否有任何问题或陷阱寻找等? 非常感谢!
我在HP DL385 G7上安装了Solaris 11(+最新的SRU)(连接到P2000存储器,有30个磁盘;它们被注册为单独的RAID0驱动器,但是我使用的是ZFS的raidz1),这是我们的文件服务器。 每两天,系统冻结,需要重新启动。 日志和fmdump没有什么特别之处。 我结束了一个cron工作,每隔2分钟就把一些统计数据转储到硬盘上,这表明在崩溃之前有一个负载增加和内存减less: $ grep load top.120512* top.120512063601:last pid: 21751; load avg: 0.61, 2.30, 2.93; up 4+17:03:45 06:36:02 top.120512063800:last pid: 21765; load avg: 0.27, 1.62, 2.59; up 4+17:05:44 06:38:01 top.120512064000:last pid: 21779; load avg: 0.29, 1.17, 2.30; up 4+17:07:45 06:40:02 top.120512064200:last pid: 21793; load avg: 0.56, 0.97, 2.09; up 4+17:09:44 06:42:01 […]
我需要将所有文件从current_path移动到current_path / DestinationFolder 。 我使用的SFTP版本是: SFTP协议版本2 可用的命令是: sftp> help Available commands: cd path Change remote directory to 'path' lcd path Change local directory to 'path' chgrp grp path Change group of file 'path' to 'grp' chmod mode path Change permissions of file 'path' to 'mode' chown own path Change owner of file 'path' to 'own' […]
我有两台运行Solaris 10的Sun服务器。两台都有Emulex光纤通道卡。 我想以“交叉”的方式将两者连接起来,就像铜以太网和IPv4一样。 点是我有一个ZFSarrays附加到一个我想通过光纤通道上的NFS共享到另一个。 这些是为了testing/开发,所以没有交换结构的预算。 我怎么去设置这个呢? 我将不胜感激任何共享的经验,并不一定是基于Solaris的。
这似乎是一个简单的事情要做,如果它只会按照logging工作。 但是,由于zoneadm移动过程中的一些错误,它不起作用。 去搞清楚。 首先让我看看那些简单的文档所说的: http://docs.oracle.com/cd/E19455-01/817-1592/gcgnc/index.html 那么说,在同一台服务器上将非全局区域从一个地方移到另一个地方的命令就是这样 zoneadm -z zonename move /some/new/pathname 这看起来相当麻烦…但是,如果非全局区域中有任何目录中的文件名中有一个特殊的(不是完全无关紧要的)字符的话,那么这个过程就会爆炸。 请允许我演示: 第一步:closures区域。 确保它被阻止: # zlogin -C -e\@ z_001 [Connected to zone 'z_001' console] node002 console login: root Password: Last login: Sun Jul 21 05:12:17 on console Jul 25 17:50:06 node002 login: ROOT LOGIN /dev/console Oracle Corporation SunOS 5.10 Generic Patch January 2005 node002-sparc-SunOS5.10 […]
我在Solaris中设置了以下tcp内核参数 ndd -set /dev/tcp tcp_ip_abort_interval 120000 ndd -set /dev/tcp tcp_rexmit_interval_max 15000 ndd -set /dev/tcp tcp_rexmit_interval_min 400 ndd -set /dev/tcp tcp_keepalive_interval 30000 Linux(RedHat)中的等价性是什么? 我只find了tcp_keepalive_intvl。
我在使用NFSv4 ACL的Solaris内核模块的OmniOS服务器上设置了SMB / CIFS文件共享,这些ACL应与Windows客户端正常工作。 我想创build一个共享的目录,其目标如下:一个用户(比方说alice )应该能够创build和修改文件,但不能删除它们。 还应该防止创build子目录。 应该允许读访问。 我已经尝试了以下ACL,基本上工作: /usr/bin/chmod A=\ user:root:rwxpdDaARWcCos:fd—–:allow,\ # root has full access user:alice:rwx—aRc–s:——-:allow,\ # dir: create files, read everything user:alice:rwxp–aARWc–s:fi—-:allow \ # files: wpAW is needed for full file write access, everything is only inherited to files /pool/share 但是,如果alice在Windows资源pipe理器中查看新增文件的“ 安全”选项卡,她可以授予自己完整的访问权限,然后删除该文件,即使她没有共享权限。 如何解释这种行为? 我怎样才能改变它,使ACL不能被修改? 编辑: ls输出似乎是正常的: # /usr/bin/ls -v total 1 -rwx——+ […]
我只是想知道是否明智地将4x500Gb和2×750添加到相同的ZFS池? 或者我们应该只添加相同大小的硬盘到游泳池? 当我们有很多配对的磁盘时,任何文档都会非常方便或者指导我们该怎么做。
我目前有一台运行带有12x1tb磁盘的Oracle Solaris Express 11的存储服务器。 它目前提供两个function:1)通过NFS为小型vSphere 4.1场提供数据存储,2)通过SMB为团队提供networking共享。 ZFS的优势对于我们迄今为止的用途来说是显而易见的。 但是,我们正在开始考察单点故障,并调查消除它们。 一个明显的单点故障是NAS本身。 如果涉及Solaris或NAS硬件的软件或硬件问题,则会使整个存储池脱机。 我们已经有了购买另一个等效机箱+磁盘的预算,但是我的软件选项是如何将这些机箱集中在一起并使存储池更加可用? 我已经阅读了一些有关HAStorage +的东西,作为一个可以进行存储集群的软件,但是也可以通过两个节点来集群NFS和SMB服务吗? 我可以期待实现自动故障转移的解决scheme吗? 最后,有没有什么体面的指导如何设置呢?
有一个configuration和工作的接口nge0的Sun X4100。 服务器在后面有一组4个networking插孔, nge0对应于以太网端口0。 我尝试启用以太网端口3与ifconfig nge3 plumb ,我收到了输出 ifconfig: plumb: nge3: Invalid argument 但我可以configurationnge1没有问题。 这是prtconf -D的输出 i86pc (driver name: rootnex) scsi_vhci, instance #0 (driver name: scsi_vhci) isa, instance #0 (driver name: isa) asy, instance #0 (driver name: asy) motherboard pci, instance #0 (driver name: npe) pci10de,5e pci10de,cb84 pci10de,cb84 pci108e,cb84, instance #0 (driver name: ohci) device, […]