我有一个孤立的networking,我已经build立了一个vfiler。 这个networking的重点是它是一个非路由“testing”networking。 但是,需要通过域级帐户对文件pipe理器进行LDAP / Kerberos和CIFS访问。 所以我们有部署只读域控制器。 要将Windows盒子joinRODC,我们将: 手工创build一个机器账户。 join域,并在客户端指定机器账号密码。 一个谷歌search发现我: https ://kb.netapp.com/support/index?page = content & id =1012918 build议如下:首先手动将文件pipe理器指向可写入的DC。 我宁愿不这样做,如果我能避免它 – 我没有故意在这个networking上的可写DC。 更重要的是 – 我的虚拟现实是在一个空间,所以我甚至不能暂时“跳过”到正确的访问networking。 (这是我猜想的点,但即使如此…) 有没有人有一个build议,我怎么能做到这一点 – 我假设我可能需要从我的DC提取一些信息,并将其传递,如servicePrincipal。 或者也许只是在某处手动“设置”我的CIFS密码。
我有一个过程: 写一个新的.tmp文件。 使用rename()系统调用来replace现有的文件。 该文件正在从远程NFS客户端访问。 我们这样做,因为我们想要primefaces文件更新,并且rename()规范说: 如果newpath已经存在,它将被primefacesreplace,所以没有任何一个尝试访问newpath的进程会发现它丢失。 但是,可能会出现一个窗口,其中oldpath和newpath指向正在重命名的文件。 我们依靠这种行为。 但是,最近,从迁移到新的NetApp(集群模式,从7模式)开始,我们已经有一个偶尔会遇到ENOENT的进程 – 没有这样的文件或目录。 我的意思是“非常偶然” – 在过去的几周里有四五次,每隔五分钟左右发生一次。 我正在与供应商一起调查,看他们的NFS服务器是否可能是个bug。 但是我真正想要弄清楚的是,这个primefaces性保证是否实际上适用于NFS。 有没有人能够澄清如果rename()的primefaces保证适用于多客户NFSscheme? 我并不确定这个function是否正在运行,但从来没有保证过。 来自: RFC1813 过程RENAME将目录中的from.name标识的文件from.dir重命名为目录to.dir中的to.name。 该操作对于客户来说是必需的。 如果是相关的,我们有SL 6.5客户端在ONTAP-CDOT 8.3上访问NFS数据存储。
对于我们的平台之一,我有大约20台MSSQL 2K3机器需要将其备份放置在几个NetApp盒子上(然后将备份复制到其他数据中心并进行长期存储)。 这些NetApp目前只在我们的Linux机器上使用,并且仅用于NFS,如果需要,我可以购买SMB许可证,但需要考虑稳定/可靠的Windows NFS客户机。 你相信内置的Windows SUA NFS客户端吗? 有一个更好的第三方NFS客户端,你会推荐? 或者你只是使用SMB来安装备份卷? 谢谢。
我有一个服务器上有3个oracle实例,文件系统是netapp的nfs。 closures数据库后,每个数据库的一个进程不会长时间退出。 每个杀-i都不行。 我试图桁架,pfile它,通过错误的命令。 而且iostat显示netapp服务器有很多IO。 所以有人说这个过程是忙于写数据到远程netapp服务器,并且在写入完成之前,它不会退出。 所以需要做的只是等到所有的IO都完成了。 等待较长时间(大约1.5小时)后,stream程退出。 所以我的问题是:一个进程如何忽略kill信号? 据我所知,如果我们杀了-9,它会立即停止。 你有没有遇到这种情况 – 我不会立即杀死这个进程? TEST7-stdby-phxdbnfs11 $> ps -ef | grep dbw0 oracle 1469 25053 0 22:36:53 pts / 1 0:00 grep dbw0 oracle 26795 1 0 21:55:23? 0:00 ora_dbw0_TEST7 oracle 1051 1 0 08年4月? 3958:51 ora_dbw0_TEST2 oracle 471 1 0 Apr 08? 6391:43 ora_dbw0_TEST1 TEST7-stdby-phxdbnfs11 $> […]
有谁知道一个Powershell脚本,将列出NETAPP vfiler上的所有共享和他们的ACL?
在与7模式下的另一个Netapp具有snapmirror关系的Netapp中,通过Data Ontap检查复制性能的选项是什么? 我们升级了链接,想知道更改后snapmirror如何执行。
我有一个NetApp作为我的nfs服务器,两个Linux服务器作为nfs客户端。 问题是这两个服务器中较新的一个在读取和写入nfs服务器时,读写速度会有很大差异。 另外,这个新服务器的读写看起来很棒。 旧的服务器没有这个问题。 老主人:鲤鱼 带有8个内核,32 GB RAM的Sun Fire x4150 SLES 9 SP4 networking驱动程序:e1000 me@carp:~> uname -a Linux carp 2.6.5-7.308-smp #1 SMP Mon Dec 10 11:36:40 UTC 2007 x86_64 x86_64 x86_64 GNU/Linux 新主持人:胡椒 HP ProLiant Dl360P Gen8 w / 8核,64 GB RAM CentOS 6.3 networking驱动程序:tg3 me@pepper:~> uname -a Linux pepper 2.6.32-279.el6.x86_64 #1 SMP Fri Jun […]
我们必须对我们的Netapp上使用的NFS数据存储VMWare使用的实时卷大小进行调整。 所有我们的Windows虚拟机在resize后都很好。 但是,我们的一些Linux VM有问题。 一些Linux VM停止响应。 重新启动这些虚拟机后,我找不到任何指示问题的日志。 但是我在某些虚拟机上find了这样的日志消息: May 29 14:56:02 rhel6-server-1314 kernel: INFO: task jbd2/dm-0-8:382 blocked for more than 120 seconds. May 29 14:56:02 rhel6-server-1314 kernel: "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message. May 29 14:56:02 rhel6-server-1314 kernel: jbd2/dm-0-8 D 0000000000000000 0 382 2 0x00000000 May 29 14:56:02 rhel6-server-1314 kernel: ffff880037ce9c20 0000000000000046 ffff880037ce9be0 ffffffffa00041fc […]
这是一个坏主意吗? 我知道旧版本的MySQL在NFS上performance不佳。 我想象的问题在于使用fsnc()和/或O_DIRECT。 如果这些问题大部分已经解决了,那么是否存在常见的陷阱/疑难杂症,特别是在一个很大的(有数千万条logging的多个表)InnoDB数据库中,可能会达到20-50次读取/秒
我正在研究改进vSphere环境中的性能。 我们正在使用NetApp设备,将所有存储在通过NFS装入的数据存储中的虚拟机都存储在此虚拟机中。 有人build议,对于某些特定的工作负载(如SQL数据或文件服务器),磁盘IO性能可能会更好地使用iSCSI作为数据vHD。 在我的示例中,启动盘将是存储在NFS附加数据存储中的普通VMDK。 D驱动器(SQL数据或文件服务器数据所在的磁盘)将是一个iSCSI连接的卷。 C: – VMDK disk container -> VMFS datastore -> NFS -> NetApp D: – iSCSI -> NetApp 我也在思考:从vSphere级别还是从Windows直接启动iSCSI? 有没有人有任何经验或想法呢?