在如今艰难的经济形势下,厂商必须做到两件事:1)向支出谨慎的潜在客户证明该厂商的产品在经济上是合算的;2)表明为什么该厂商的产品优于竞争对手的产品。
第二页
备份过程中写入数据的磁盘可以被看做一个"暂存池",因为它只承载最新的备份(但也有可能被用于数据恢复)。在FalconStor的术语中,承载重复数据删除后数据的实际存储池是一个块层次的单实例库(SIR)。这里不要和单实例存储(SIS)相混淆。SIS是一个数据缩减技术,这个技术可以在文件层次上保存单实例。SIR是在块层次上保存单实例,也就是说重复数据删除是作用在文件的下一个层级。
这就是执行目标端重复数据删除而不是来源端重复数据删除的好处。对于FalconStor的客户和许多其他企业来说,它们很可能愿意使用目标端重复数据删除。
FalconStor的参考环境使用的是配对的集群式VTL节点。每个节点都处理它自己的工作负荷,但是每个节点都有另一个节点与其形成主动-主动式的配置,这样如果一个节点发生发生故障,另一个节点就可以接过工作负荷(虽然性能会有一定下滑)。FalconStor总共使用4个SIR节点,对来自暂存池的数据进行重复数据删除,然后存入单实例库。单实例库到远程站点的复制过程(这个过程可以和重复数据删除过程同时进行)的速度是4GB/秒,也就是500MB/秒。FalconStor感觉这个过程中没有瓶颈,因为FalconStor已经配置了足够的资源来将创建好的数据复制过去。
FalconStor声称,在这次测试过程中,100TB数据的备份在不到10小时的时间里就完成了,而且这个100TB的数据池在14个小时的时间内得到了重复数据删除。这里要注意的是,备份和重复数据删除的这两个时间是并行的,而不是一前一后的。重复数据删除过程需要等待第一个虚拟磁带库被写入磁盘,但是一旦写入后,重复数据删除便开始启动。这里要指出的是,客户还可以在重复数据删除启动前选择将数据写入物理磁带。FalconStor提供的政策引擎还可以管理这些流程,比如将不适合重复数据删除的备份工作(比如,视频流)从重复数据删除流程中剔除。
在重复数据删除库(无论是本地的还是在DR站点的),每个节点的数据恢复速度都是1.2GB/秒,或4.3TB/小时。通过两个VTL节点,完全恢复100TB数据的时间为11.6小时(如果增加新的节点,还可以缩短恢复时间)。
虽然目前还没有客观的标杆(比如用于衡量服务器性能的SPEC标杆)来帮助评估FalconStor的测试,但是该公司的性能数据令人印象深刻。就在几年前,人们还认为1TB/小时的备份速度非常先进。那么对于附重复数据删除的VTL市场来说这意味着什么?首先,我们认为FalconStor公布性能数据应该值得肯定(虽然至少还有另一个厂商还做出了关于重复数据删除解决方案的性能声明)。
对于那些希望量化重复数据删除技术价值和经济价值的企业来说,这种性能声明确实很有价值。不过,这有可能激起另一场"SPEC(标准性能评估机构)标杆"之争。虽然标杆最终会变成一个正规的受认可的流程,但是目前在重复数据删除上还没有普遍认可的衡量流程,因此一些厂商可能认为FalconStor的测试是一个明显的挑衅。其他厂商会如何反应?它们有可能:1)声称性能并不重要;2)声称FalconStor的测试不是按照真实情况下的设置;3)完全忽略FalconStor的举动;4)声称它们的性能可与FalconStor媲美或比FalconStor更好。
重复数据删除的现有客户或潜在客户对此会做何反应?如果声称性能并不重要,则显然违反事实。如果忽略FalconStor的举动,则会让FalconStor获得竞争优势。挑测试过程的毛病是一个常见的策略(在SPEC测试中,有时也采用特殊设置,这种特殊设置有的在实际情况中是不现实的)。
那么竞争对手唯一的选择就是对它们自己的产品进行类似的分析,然后以最真实的方式得出测试数据。这种争论过程对于整个行业以及客户来说都是有利的。这一点我们要感谢FalconStor。
网友评论