我正在使用128Gb SSD上的数据目录运行MySQL。 我正在处理每周加载和处理的大数据集(〜20Gb),每个数据集都存储在一个单独的数据库中用于时间点比较。 把所有的数据放到一个单一的数据库中是不可行的,因为在这样的大型数据库上的性能已经成为一个问题。 但是,我无法一次在SSD上保存6个以上的数据集。 现在我每周都要手动将最旧的2Tb转盘转储到数据库中,为新的转换空间腾出空间。 但是,如果我需要一个“归档”数据库(半经常发生),我必须删除当前的(转储后),重新加载它,做我需要的,然后扭转结果。 有没有办法将MySQLconfiguration为使用多个数据目录,比如说一个在SSD上,另一个在2TB的旋转磁盘上,然后透明地“合并”它们? 如果我能做到这一点,那么归档不再意味着“完全移出数据库”,而是意味着“移到慢物理设备上”。 在旋转磁盘上执行查询所需的时间将less于完全转储,删除,加载,删除和重新加载两个整个数据库所需的时间,所以这是一个胜利。 我想使用像unionfs这样的东西,但我想不出一种方法来控制哪个数据库被存储在哪个物理驱动器上,因为它通过合并目录级别(从我所知道的)来工作,所以我仍然坚持使用多个目录。 任何帮助感谢,提前感谢
有时当你连接到一个多path的iSCSI目标时,你将只能访问它的一些门户。 当发起者直接连接到目标的以太网端口时,这是常见的,而不是通过交换机。 [我这个基础架构的实际例子是一个带有4个直接连接的服务器的Dell MD3200i / MD3220i SAN] 当您执行iSCSI发现时,发起者将获得所有门户的列表,甚至是那些实际上并没有连接到并且不能说话的门户。 使用双控制器,每个控制器有四个端口,您将看到如下所示的内容: # iscsiadm –mode discovery –type sendtargets –portal 192.168.130.101 192.168.130.101:3260,1 iqn.1984-05.com.dell:powervault.md3200i.690b11c0123456789012345678901234 192.168.131.101:3260,1 iqn.1984-05.com.dell:powervault.md3200i.690b11c0123456789012345678901234 192.168.132.101:3260,1 iqn.1984-05.com.dell:powervault.md3200i.690b11c0123456789012345678901234 192.168.133.101:3260,1 iqn.1984-05.com.dell:powervault.md3200i.690b11c0123456789012345678901234 192.168.130.102:3260,2 iqn.1984-05.com.dell:powervault.md3200i.690b11c0123456789012345678901234 192.168.131.102:3260,2 iqn.1984-05.com.dell:powervault.md3200i.690b11c0123456789012345678901234 192.168.132.102:3260,2 iqn.1984-05.com.dell:powervault.md3200i.690b11C0123456789012345678901234 192.168.133.102:3260,2 iqn.1984-05.com.dell:powervault.md3200i.690b11c0123456789012345678901234 …但是主机被连接到第一个(192.168.130.101)和第六个(192.168.131.102)端口,所以它将永远无法与其他六个端口通话。 根据iSCSI目标的典型文档,最终所有入口由发起者“知道”,但后者只会对感兴趣的(在上面的例子中是两个)实际login。 应该从发起者的configuration中删除“不可达”的吗? 即使没有实际login,他们是否可以提出“已知”的问题?
当我在机器上运行puppet客户端(非守护进程)时,我经常但随机地得到以下错误消息: 错误:无法创build:参数path失败:文件path必须完全限定 警告:在失败的目录上不使用caching 警告:configuration无法实例化:参数path失败:文件path必须是完全限定的 这似乎是适度清楚的意思 – 我没有一个完全合格的参数path。 但是,它不告诉我在哪里可以find这个修复它,甚至哪个参数是错误的:( (如果我使用debugging选项,它会一直工作,所以它似乎是一个清单caching的问题…这将是很好的摆脱这个生产使用,仍然) 注意:我不能一直这样做 :/
我是Solaris新手。 我有一台运行附加的J4400和一些内部驱动器的Solaris 10u8机器。 我们使用的是多pathSAS I / O(stmsboot; mpathadm),所以设备挂载点已经从正常的c0t5d0移到长string – 在c0t5d0的情况下,现在是/dev/rdsk/c6t5000CCA00A274EDCd0 。 (我可以看到这与stmsboot -l0 。 通常,在Solaris系统上更换磁盘时,我将运行cfgadm -c unconfigure c0::dsk/c0t5d0 。 但是, cfgadm -l不会列出c6,也不会列出任何磁盘。 实际上,运行cfgadm会得到以下结果: bash#cfgadm -l / dev / rdsk / c0t5d0 Ap_Idtypessockets乘员条件 / dev / rdsk / c0t5d0:未find匹配的库 bash#cfgadm -l / dev / rdsk / c6t5000CCA00A274EDCd0 cfgadm:未find附件点 bash#cfgadm -l c6t5000CCA00A274EDCd0 Ap_Idtypessockets乘员条件 c6t5000CCA00A274EDCd0:未find匹配的库 那么 – 如何pipe理和删除Solaris […]
我需要在Mac OS上添加一个目录到我的PATHvariables。 我将它添加到.bash_profile和.profile ,并且适用于terminal。 但Emacs( http://emacsformacosx.com )仍然不使用新的PATHvariables。 (我想从emacs运行latex,但是在我的/usr/local/bin找不到这个命令,我试图将它添加到PATH中) 我甚至退出并返回,但仍然没有运气。 有什么build议么?
我有几台服务器,通过NFS向几个webfarms提供完全相同的内容,涉及的所有服务器都运行CentOS 5 两个NFS服务器之间的内容使用Unison进行复制(以前尝试使用drbd,严重影响性能) 为了分配负载,我正在从每个农场安装一个不同的NFS服务器。 Webfarm1挂载NFS1 Webfarm2挂载NFS2 我遇到的唯一问题是,当其中一台服务器崩溃时,我想自动从其他NFS服务器重新装载内容,直到服务器恢复,然后在宽限期后返回到第一台服务器。 在开始编写这样的应用程序之前,我想知道是否有任何已经可用的Opensource解决scheme可以实现我所期望的function,应用程序的所有智能应该放在客户端(服务器端解决scheme已经经过testing,丢弃(心跳,drbd等),因为我想在主动 – 主动解决scheme中使用两个NFS服务器。 另外,webfarm中的所有服务器都要访问相同的NFS服务器,这一点很重要,否则会导致一些令人讨厌的复制问题。 预先感谢您的帮助!
我的仓库目录是/ var / www / svn ,访问文件是/ var / www / svn-auth ,我在svn目录下创build仓库project1 我的configuration svn.mydomain.com.conf <VirtualHost 127.0.0.1:8080> ServerName svn.mydomain.com <Location /> DAV svn SVNPath /var/www/svn/REPOSITORY_NAME AuthType Basic AuthName "Subversion repositories" AuthUserFile /var/www/svn-auth/passwd Require valid-user </Location> </VirtualHost> 一些修改httpd.conf Listen 8080 DocumentRoot "/var/www/" <Directory "/var/www"> nginx svn.mydomain.com.conf server { server_name svn.mydomain.com; location / { proxy_pass http://127.0.0.1:8080; } […]
我们有几台VMware ESXi主机访问存储在光纤通道SAN上的多个数据存储。 我们发现一些主机仍然被设置为“最近使用”模式来实现多path策略。 我想改变这些剩余的主机使用“循环”,据我所知,在我们的场景是最好的select,但我想知道,如果改变这个政策,而在一个活的环境,有任何影响连接到数据存储?
在我们的Linux服务器上,我们目前使用HP的qla2xxx驱动程序,因为它内置了多path(主动/被动)。 但是,还有其他各种选项,如Red Hat的device-mapper-multipath和stock qla2xxx驱动程序(多总线和故障转移)以及SecurePath和PowerPath(两者都可以实现中继,iirc)等。 有人可以告诉我各种scheme的优点和缺点吗(如果我可以问这个问题),除了{安全,电源}path选项费用巨大的显而易见的事实? 我主要感兴趣的是免费提供的选项,比如HP的qla2xxx与Red Hat的multipathd以及其他可能的开放源代码解决scheme,但是我也想听听商业解决scheme的充分理由。 更新 :我将在未来几天内对各种选项进行基准testing(每个选项10个iozone运行的平均值(选项是本机qla2xxx故障恢复,原生qla2xxx多总线,HP qla2xxx故障恢复))。 对于那些感兴趣的人,我会在这里发布结果摘要。
我有以下硬件: 2个SuperMicro服务器(128GB RAM,2个8核心AMD) 2个/服务器LSI SAS2008 PCIe MPT-Fusion2 HBA(每个卡2个SAS端口) 1x LSI CTS2600 DAS,配有24x WD 15.7k RPM 600GB SAS驱动器。 服务器运行的是OpenSuSE 11.4,具有从上游构build的多path工具的自定义构build,并且包含OpenSuSE 11.3补丁集。 每个服务器上的所有4个SAS端口连接到DAS,每个DAS RAID控制器连接2个端口。 DAS设置了RAID10中的22个驱动器,128k条带。 我在arrays上创build了一个500GB的卷组,并将其导出到其中一台服务器上。 多path设置为对输出到服务器的500GB LUN进行多pathI / O。 这是multipath.conf文件: defaults { path_checker "directio" path_selector "queue-length 0" path_grouping_policy "multibus" prio "random" features "1 queue_if_no_path" #queue IO if all paths are lost } multipath -l输出: pg (360080e50001b658a000005104df8c650) […]