我想知道照片存储的最佳做法是什么。 我在与用户存储照片的业务。 每个用户最多可以有35张照片,目前我们有大约10万用户。 我目前从数据库中引用照片。 我build议的解决scheme是像这样的照片名称的散列。 f56c0de1c61fdb926e79e8a0a65bd12930c9.jpg 像这样爆发成目录 照片1 f5/6c/0d/e1c61fdb926e79e8a0a65bd12930c9.jpg f5/6c/0d/e1c61fdb926e79e8a0a65bd12930c9_thumb.jpg 照片2 ec/1c/55/bfb660548a6770238668c4b117d92f.jpg ec/1c/55/bfb660548a6770238668c4b117d92f_thumb.jpg 数据库在数据库中以逗号分隔数组的forms存储,类似于sorting顺序。 ec1c55bfb660548a6770238668c4b117d92f,ec1c55bfb660548a6770238668c4b117d92f 这是做这个最有效的方法吗? 它是可扩展的吗? 我不知道如果照片散列是很大,我也不知道如果目录大小是正确的。 我在stackoverflow上创build了一个更详细的post,只是不知道这个问题属于哪里。 https://stackoverflow.com/questions/19106596/how-to-store-photo-on-file-system-and-store-sort-order-in-database
我需要修改服务器/ etc / exports文件以导出到其他主机。 修改这个文件后,为使其生效(即让其他主机访问指定的文件系统),我相信我必须在导出文件系统的服务器上运行“exportfs”。 这是否会中断正在使用从服务主机导出的文件系统的用户? 我希望能够“无声无息”地添加这个新主机,而不会中断。 如果您有任何其他的build议,有关这个,常见的陷阱,要小心的事情等,将不胜感激。 编辑:以防万一… uname -a返回2.6.32-358.18.1.el6.x86_64#1 SMP周五8月2日17:04:38 EDT 2013 x86_64 x86_64 x86_64 GNU / Linux
我正在寻找一个文件系统基准testing工具来testingCephFS。 这个基准testing工具必须: 根据特定的分布生成一组文件(称为文件集),例如,伽玛,经验性,非档案性或适合的等等。 基于生成的文件集,它应该能够使用该集合并运行testing,从而对性能进行基准testing。 得到结果,完成。 在对SSD / HDDalgorithm,系统等做一些修改后重新testing 我想知道如果你能build议我任何生成/接收特定工作负载(分配文件大小)的基准testing工具。 任何其他build议,表示感谢。 提前致谢
我需要build立一个满足以下需求的debian stable系统: 硬盘应该是镜像: Raid 1 如果可能的话,文件系统应该autogrow (如果我们用一个更大的文件系统replace一个硬盘,等待同步,并用另一个replace另一个) 自动增长应该online工作 硬盘空间的主要目的是持有一个database 当然有几个想法可以完成 – 但我正在寻找最好的。 我现在的感觉是, btrfs (因为没有真正稳定的zfs )可能是解决scheme – 但它足够稳定吗? 我对任何build议感兴趣。
有没有办法configuration一个Linux目录,以便拥有该目录的组中的任何人在该目录中创build一个文件时,该文件将被该组中的任何人写入? 我也想把这个configuration应用到该目录的所有子目录。 谢谢。
我正在准备一台带有8x 1TB磁盘的戴尔R520 PowerEdge服务器作为数据存档/仓库(文件,RDBMS,NoSQL)服务器。 开箱即用,PERC H710P RAID控制器configuration了3个2TB RAID6虚拟磁盘。 我的理解是,2TB限制是与Windows“基本磁盘”( http://technet.microsoft.com/en-us/library/cc773268.aspx )。 我将安装Debian 7.4或Ubuntu 12.04 LTS作为操作系统。 为了简单起见,我想为数据存储创build一个〜5TB的分区。 创build跨越三个虚拟磁盘的LVM分区是否明智? 这是否减轻了我从RAID6获得的有效双磁盘容限? 或者,当LVM跨越多个磁盘时,会出现性能问题吗? 或者,将虚拟磁盘删除并重新创build为一个大的6TB RAID6虚拟磁盘会更好吗? Debian或Ubuntu也限制在2TB吗? 我相信曾经是这样的。 还是?
假设我正在创build一个WordPress的托pipe应用程序,人们在这里pipe理他们的博客。 我关注的重点是在所有服务器之间同步模板页面。 所以每个客户将有5-10个模板,并说我正在运行10台服务器。 客户每次修改模板时,都必须同步到10台服务器。 10000个客户* 10个模板= 100K个文件。 说我保留模板的备份,以便他们可以恢复到以前的版本,现在是200K文件。 我想避免在NAS上有模板文件,因为我想使用ec2。 无论如何,我真正的问题是,保持200K文件服务器之间的可pipe理的东西或是文件的分配? 我没有pipe理文件的经验,因为我通常把这种事情放在数据库上。 我最初的想法是这样做的: 将模板保存在数据库中 保留在每个服务器上的模板的本地副本,所以我不必从数据库中获取模板,因为这将太多飞周围,我想要的。 实际上,这些模板不会经常改变,但实际上我不知道在这个时候它们多久会改变一次,但我想早些时候人们会改变它们,直到他们按照自己的意愿来设置它们的布局。 思考?
这是一个有点法医性质的奇怪问题。 我正在运行一个服务器,它最初安装了openSuse 11.4,并且升级了两次(到v12.3和v13.1)。 最近,一个更新搞糟了机器引导扇区和分区表,尽pipe有备份,但我无法恢复。 我已经重新安装了一个不同的操作系统,但是我缺less一个东西:服务器有3个大硬盘(2TB,2TB,1TB),之前它们被安装成一个大容量的5TB容量。 当我configuration所有这些时,我使用了openSuse的YaST(GUI工具)来完成这个任务。 现在我想重新创build5TB的容量,所以我可以访问我的数据。 我没有备份最初的5TB音量设置/configuration,而且我也没有备份数据。 我怎样才能重新创build5TB的音量? 也就是说我正在使用哪个FS,如何安装这个卷? 我正在寻找答案,告诉我如何解决这个难题。 我记得设置所有这些要求我只用同样大小的分区来连接在一起。 所以我在每个2TB磁盘上创build了两个1TB分区,在1TB驱动器上创build了一个1TB分区。 我不知道我把它们粘在一起的顺序。 我还记得,没有涉及冗余,还有其他任何我必须configuration来保存我的数据更可靠。 这三个磁盘设备是/dev/sdb (2TB), /dev/sdc (2TB)和/dev/sdc (1TB)。 # lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 37.3G 0 disk >>sda1 8:1 0 243M 0 part /boot >>sda2 8:2 0 1K 0 part >>sda5 8:5 0 37G 0 part >>server–vg-root […]
我有一个生产服务器和一个开发服务器。 问题是开发服务器只有20GB的磁盘空间和大约8GB的可用。 我试图移动的文件夹是6GB(ish)。 我试图压缩文件夹并将其下载到开发服务器,除了提取磁盘空间已满。 有没有解决scheme来移动文件夹,而不是压缩,使其完全适合开发服务器? 我知道这可以通过FTP完成,因为我已经从我的电脑上完成了,除了我只有命令行访问这两个服务器。 任何解决scheme
我们的服务器有两个独立的硬盘,没有RAID。 一个硬盘只是用来存储垃圾/临时数据,我们通常使用LRUalgorithm删除临时数据。 我们在这个硬盘上有一个10K的文件,有些文件是不可读的(我们不知道为什么)。 我们已经在这个磁盘上做了fsck ,第一次运行时它说修复了一些错误,但问题仍然存在。 每当我们尝试读取这个不可读的文件时,我们的负载平均值变高: cp: overwrite `/tmp/t.mp4'? y cp: reading `mq/full/68156.3gp': Input/output error 有没有可能find一个不可读的文件列表? 造成这个问题的原因 如何解决这个问题?