Articles of solaris

Maxwell HS-8/112和3M D8-112的8mm Data8磁带驱动器兼容性

我们有一台Exabyte Mammoth-2磁带驱动器连接到一个Solaris 10盒,目前能够恢复任何Exabyte介质没有问题,但是我们有另外两个品牌的8mm磁带被显示为“非法磁带”,并被磁带驱动器自动popup。 Maxell HS-8/112 3M D8-112 从我所了解的Exabyte猛犸2只会读AME格式。 但是我找不到什么信息支持Maxell和3M磁带(甚至是什么格式)。 任何帮助在这个问题上,不胜感激。

zpool autoexpand不会更改池的大小

我们有一些旧的Solaris 10服务器(SunOS名称为5.10 Generic_142909-17 sun4u sparc SUNW,Sun-Fire-V490)现在已连接到我们的新IBM SAN。 这些Solaris服务器仍然主要是UFS文件系统。 前一阵子,我们从SAN中添加了一个新的2TB LUN到一个服务器,并开始将它作为一个Zpool文件系统定义在其上 – 这非常简单。 它工作得很好! 最近我们发现2TB是不够的,所以我们把LUN从2TB扩展到3TB。 显示zpool list NAME SIZE ALLOC FREE CAP HEALTH ALTROOT solarisSYS 1.98T 1.84T 146G 92% ONLINE – …在LUN扩展之前和之后,正如人们所期望的那样。 现在显示luxadm display # luxadm display /dev/rdsk/c4t600507640081017A080000000000004Dd0s2 DEVICE PROPERTIES for disk: /dev/rdsk/c4t600507640081017A080000000000004Dd0s2 Vendor: IBM Product ID: 2145 Revision: 0000 Serial Num: 010020405e82XX00 Unformatted capacity: 3145728.000 […]

linux和Solaris之间的区别/ usr / bin / env

我有一个简单的脚本: #!/usr/bin/env perl -w print "Hello World\n" 使这个可执行文件,在Linux上运行,我得到: /usr/bin/env: perl -w: No such file or directory (没有-w,这工作正常) 在Solaris 8计算机上运行相同的脚本会生成正确的输出。 有什么build议,为什么这是?

根据数据集IO统计信息获取ZFS(或每个导出IO统计信息的NFS)

我在哪里可以find有关IO如何在zfs数据集之间分配的统计信息? (zpool iostat只告诉我一个池有多lessIO正在经历。) 所有相关的数据集都是通过NFS使用的,所以我也很高兴每个导出的NFS IO统计信息。 我们目前正在运行OpenIndiana [编辑] 看来,操作和字节计数器在kstat中可用 kstat -p unix:*:vopstats_??????? … unix:0:vopstats_2d90002:nputpage 50 unix:0:vopstats_2d90002:nread 12390785 … unix:0:vopstats_2d90002:read_bytes 22272845340 unix:0:vopstats_2d90002:readdir_bytes 477996168 … …但奇怪的hexID号码必须从/etc/mnttabparsing(更好的想法?) rpool/export/home/jkj /export/home/jkj zfs rw,…,dev=2d90002 1308471917 现在写一个munin插件来使用数据…

Solaris ZFS卷:工作负载不符合L2ARC

我已经在RAID控制器后面安装了一些带有一些相当快的HDD的Solaris Express 11机器,将设备设置为启用压缩的zpool,并添加了镜像日志和2个caching设备。 数据集暴露为FC目标以供ESX使用,并且我已经用一些数据填充它来玩弄。 L2ARC部分填满(由于某种原因,不再填充),但我几乎看不到有任何用处。 zpool iostat -v显示过去并没有从caching中读取太多内容: tank 222G 1.96T 189 84 994K 1.95M c7t0d0s0 222G 1.96T 189 82 994K 1.91M mirror 49.5M 5.51G 0 2 0 33.2K c8t2d0p1 – – 0 2 0 33.3K c8t3d0p1 – – 0 2 0 33.3K cache – – – – – – c11d0p2 23.5G 60.4G 2 1 […]

ZFS系统上的大量快照

这里是我的场景:我有两台服务器(还有很多,但是这个场景有两台),一台是Solaris备份服务器,另一台是CentOS Linux服务器。 每天晚上,CentOS服务器都会运行一个cron作业,以将自己同步到Solaris备份服务器。 完成之后,会将date和时间放入Solaris服务器上的特殊文件中。 Solaris服务器每分钟运行一次cron作业,如果它看到这个文件,就会抓取内容并使用它来创build快照。 结果非常好:每天都会自动运行备份,然后创build一个ZFS快照。 一直工作了两个多月。 我曾预料到现在我的空间不足,需要开始(手动)删除旧的快照。 但事实上,我在空间上很好。 我唯一担心的是,每天添加超过60张快照和更多快照,是否存在大量ZFS快照的已知问题? ZFS文件系统可以有最大数量的ZFS快照吗? 还是我可以继续积累快照,直到我空间不足?

由于孩子死亡,Solaris SMF终止服务

我正在使用SMFpipe理Solaris10下的服务。 这个服务本身就是一个进程pipe理器,并且分离出许多subprocess,其中一些偶尔会死掉(或者因为各种原因而死亡)。 服务过程本身是非常强大的,但永远不会死。 我遇到的问题是,当我使用KILL信号手动杀死其中一个subprocess时,SMF将重新启动主服务: [ Aug 27 08:07:06 Stopping because process received fatal signal from outside the service. ] 有没有一种方法可以configurationSMF或服务清单,使SMF 不会杀死服务,如果其中一个服务subprocess被杀害? TIA

如果iostat显示100%忙等待但CPU完全空闲,这是什么意思?

如果iostat显示100%忙等待但CPU完全空闲,这是什么意思? 我的应用程序运行了一段时间,然后进入这个状态周期约10-20秒。 它是solaris 10上的事务处理C ++应用程序。 IO stat output: extended device statistics cpu device r/sw/s kr/s kw/s wait actv svc_t %w %b us sy wt id c0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0 0 0 0 0 100 sd1 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0 0 sd2 0.0 0.0 0.0 0.0 0.0 […]

ZFS取代硬件/软件RAID的需求吗?

我想提供保护,防止我的服务器上的数据丢失。 通常情况下,我会使用硬件RAID 1或5,但我一直在阅读ZFS 。 ZFS本身提供RAID 1或5的数据保护而不需要RAID控制卡是否正确? 如果是这样,我假设一个硬盘是不足以提供数据保护,因为如果该驱动器失败,所有的数据都会失败,所以我需要运行多less个硬盘驱动器来提供这种保护?

我在哪里可以find有关ZFS的介绍性文档?

由于对ZFS的兴趣,我最近安装了OpenIndiana。 我喜欢ZFS的function列表,但我很难包装如何configuration它。 到目前为止,我所遇到的所有文档似乎都预先了解了诸如池和文件系统这样的概念。 我在哪里可以find介绍级别的信息,用ZFS来定义这些概念?