我们的networkingpipe理员坚持认为,我们在DMZ中托pipe的Web服务器不安全,无法访问防火墙后面的数据库服务器。 为了解决这个问题,我们通过Web服务或WCF访问数据。 我觉得这是一个不必要的性能负担,如果Web服务器可以直接访问数据库就可以消除。 我给出的理由是黑客能够login到Web服务器,然后访问数据库。 有没有可能只打开端口的IIS或不可能是具体的? 如果我们可以将其locking到IIS,那么黑客可以很容易地构build它吗? 我已经阅读了互联网上的各种post,但我似乎无法find一个明确的答案。 人
如果您在mysql INNODB表中禁用了键(挂起索引),那么这个设置最后会持续多久? 对于像这样的查询: ALTER TABLE users DISABLE KEYS; 在脚本的末尾重新启用密钥? 或者他们持续到你明确地转动索引?
我有很大的静态内容,我必须通过基于Linux的networking服务器来提供。 它是一套超过一百万个小的gzip文件。 90%的文件小于1K,其余文件最多50K。 在将来,这可能会增长到超过1000万个gzip文件。 我应该把这个内容放在一个文件结构中,还是应该把所有这些内容放在一个数据库中? 如果是在文件结构中,我可以使用大型目录还是应该考虑使用较小的目录? 我被告知一个文件结构的交付速度会更快,但另一方面,我知道这些文件会占用大量的磁盘空间,因为文件块将超过1K。 交货业绩最好的策略是什么? UPDATE 对于logging,我已经在Windows 7下执行了一个testing,有五十万个文件:
在这篇“ 计算机世界”文章中 ,它指定PostgreSQL可以扩展到64核心限制。这是否意味着一个64核心的多核处理器? 还是多核处理器较less? 我之所以问,是因为我正在试图找出PostgreSQL可以扩展到多less处理器,但当然这可能仅限于处理器的types。 但是,我一直在其他数据库(例如Microsoft SQL Server)中发现其他数据库的统计信息,指出它可以扩展到320个逻辑处理器,而不指定它们的内核数量。 这是一个非常模糊的统计? 任何想法将不胜感激。 谢谢!
我正在努力完成以下内容: 拍摄原始数据库的快照,在另一台服务器上创build并确定一个副本? 拍摄原始数据库的快照,在同一台服务器上以不同的数据库名称创build副本 但是,我不能因为MSSQL的经验非常有限。 有什么build议么? 附加信息: 起源数据库服务器:SQL Server 2000 目标数据库服务器:SQL Server 2005
可能重复: 什么是初学者应该知道/学习系统pipe理员的工作? 我很快就要从大学gradle了,现在正在寻找工作机会。 有一个我对Linux系统pipe理(PHP,MySQL,Apache Webserver,BIND,bash,postfix,当然还有一般的系统维护和安全性)有很大的兴趣。 然而,在我的实习过程中,我的大部分工作都涉及Hyper-V虚拟化和Windows,而且我没有得到太多的Linux时间。 在我的业余时间,我通常是一个Windows用户,只有非常基本的Linux知识。 什么样的知识和技能,你会说,一个新的初级职位申请人需要摆在他真的准备好工作(和面试)之前? 从书籍到电子书,教程,一般技能描述,命令,网站,博客……的任何消息都会帮助我。 帮助我成为一名更好的Linuxpipe理员,为这次访谈做好准备! 非常感谢 :-) 编辑:正如有些人所build议的,我会更新原来的问题:我说我是一个问题标题的初级,这是指我正在申请的工作(没有经验,几乎没有机会,那么明显是会find一份高级工作)。 我的Linux知识可能比我让你们明白一点, 我正在通过“如何设置DNS服务器?” 阶段,DNS,DHCP,networking服务器等,我已经设置了几次之前。 我正在寻找更高级的知识,白天工作中需要的东西,或者在面试中可能会问到的问题。 我想尽可能做好准备。 感谢迄今为止的input!
我们必须存储大约300万种产品的基本信息。 目前的信息是一个180 MB CSV每季度更新。 每天将会有大约30,000个查询,但查询只是一个非常简单的关键值存储。 我们只需要查看产品ID并显示其余的信息(这些信息都在一个logging中)。 这是为了networking,快速的performance是至关重要的。 我们是否应该使用MySQL,即使我们真的不需要关系数据库? 我们是否应该每个季度生成3百万个静态HTML文件? 我们是否应该在Amazon S3或Rackspace Cloud Files等产品上存储每行产品的单行CSV? 什么是最好的方法来做到这一点?
是否有规则或我可以用来计算max_connections , default_pool_size和max_client_conn一个好的数字? 默认值是奇数。 PostgreSQL默认为max_connections = 100,而pgbouncer默认为default_pool_size = 20。 不应该default_pool_size总是高于max_connections? 否则,有什么意义? 我认为pgbouncer是为了让我们通过降低开销(通过重用PostgreSQL的连接)来处理更多的连接。 我很困惑。 我正在寻找类似于在PostgreSQL wiki中find的build议,比如“这个参数应该是你内存的50%”。 我记得有一个MySQL的电子表格,可以让你计算这些参数。 对于PostgreSQL / pgbouncer来说,这将是非常棒的。
使用sequelpro连接到AWS上的远程mysql服务器非常简单 ,但是我正在用mongodb做同样的事情。 我尝试通过命令行设置一个SSH隧道,如下所示: ssh -fN -l root -i path/to/id_rsa -L 9999:host.com:27017 host.com 我也尝试用ip地址replace主机 我们的想法是将端口9999上的所有mongodb连接转发到端口27101上的主机上。但是,当我运行命令: mongo –host localhost –port 9999 连接失败,我得到这个: MongoDB shell version: 2.6.0 connecting to: localhost:9999/test channel 2: open failed: connect failed: Connection timed out channel 3: open failed: connect failed: Connection timed out 2014-05-22T14:42:01.372+0300 DBClientCursor::init call() failed 2014-05-22T14:42:01.374+0300 Error: DBClientBase::findN: transport error: localhost:9999 […]
长期以来,我一直在想,是否有系统必须“扩大”(到更强大,更昂贵的服务器上),而不是通过分散到许多更小的服务器上来“扩展”。 这样的系统是否存在,如果存在的话,是否有什么特别的东西会导致系统需要扩大而不是扩大? (例如,ACID投诉数据库事务或其他强大的数据完整性需求可能会产生这种需求。) 由于扩展似乎会带来比扩展更高的硬件成本,如果可能的话,它似乎是你想要避免的东西,但是我不知道它是否总是可以避免的。 那么,有没有系统不能扩展,而必须扩大规模? 什么可以导致这种情况,你将如何确定这样一个系统? (他们通常有共同的特点,可能会使他们更容易识别?)