科技行者

行者学院 转型私董会 科技行者专题报道 网红大战科技行者

知识库

知识库 安全导航

至顶网CIO与应用频道CIO加油站重复数据删除 为何如此吸引CIO们的眼球

重复数据删除 为何如此吸引CIO们的眼球

  • 扫一扫
    分享文章到微信

  • 扫一扫
    关注官方公众号
    至顶头条

应用缩减比为20∶1的重复数据删除技术之后,可节省超过140TB的容量,重复数据删除后的存储容量不到18TB。本地执行的远程站点磁盘备份可以提供操作恢复,同时将重复删除的备份复制到中央数据中心,用于灾难恢复。

来源:计世网 2010年1月28日

关键字: CIO 数据

  • 评论
  • 分享微博
  • 分享邮件

在本页阅读全文(共2页)

  据IT管理杂志《CIOInsight》及其网站公布的“信息主管2009年最优先考虑的事项”的研究结果显示,在200多位受访者中,有38%的受访者把“降低成本”作为2009年最优先考虑的事项,而在2008年时,这个数字只有29%; 有37%的受访者把“降低ROI的成本”作为在下一年管理中最优先考虑的事项; 而34%的受访者表示“提高IT投资的回报率”将会是其最重要的管理措施。显然,IT部门在今后将会很明智地进行开支预算,其投资回报将以月(而不是年)来衡量。

  而在IT管理者拟定的近期项目采购清单上,重复数据删除产品最受青睐。其中的理由很简单,这些产品提供的效益比琳琅满目的存储产品更多,因为它们降低了数据保护的投入和运营支出,促进了分布式备份操作的整合,并且减少了服务器虚拟化相关的存储费用。

  据ESG预计,数据库中数据(结构化数据)每年的增长速度为25%,而非结构化数据的增加则是它的2到3倍。这么多信息的产生,以及由于政府法规遵从、电子举证等对信息存储期限的规定,使信息的存储容量需求让人难以应对; 再加上容量需求增长所带来的存储占地空间、存储设备采购、与存储相关的操作成本和管理成本等的提升,企业中IT部门所承受的压力可见一斑。

  数据保护产生的影响

  多重效应

  数据的增长成本是很昂贵的,但最大的“信息成本”来自那些出于数据保护目的所产生的大量的数据副本。当ESG询问近400名IT决策者在数据保护方面遇到的最大难题是什么时,得到的最多的答案是“与需要保护的数据的容量保持同步”。问题是数据保护操作的效率可能会很低—备份应用为同一文件(或略做修改)产生出了许多份备份,而实际上该文件只有少量的数据发生了改变,而且,即使该文件没有改变或对企业已经不再有用,也仍然会制作出几十份相同的数据副本并长时间保存。

  在这种情况下,很容易使备份流程的效率低下。大量冗余的备份文件堵塞了局域网、广域网和SAN,消耗了企业内部和外部的存储容量。因此,数据保护进程和二级存储系统对容量过剩问题有很大的影响,但也为其优化提供了最明显的机会。

  问题的复杂化

  在某些情况下,当企业实施新技术来解决其他IT相关问题时,则增加了数据保护的容量。例如,很多信息主管正通过部署服务器虚拟化解决方案来推动数据中心的整合和“绿色”项目,这些解决方案使客户能够在单一硬件上运行多个服务器,提升了使用率。然而,ESG研究发现,在实施了服务器虚拟化技术的企业中,有超过1/3的企业的备份数据总量有所增加。由于虚拟机磁盘映像包含操作系统、应用程序和数据,在单一的物理服务器的虚拟机上会有大量的冗余信息。

  艰难的协调

  随着数据容量的增长及法规、法令规定保留期的延长,所管理的数据量可能会超过分配给备份的时间。为了减少备份时间,IT部门在备份进程中部署磁盘的比率正在上升。然而,ESG发现,存储系统的成本是另一个最受关注的问题,这给IT部门出了一个难题:IT部门怎么能在控制支出的同时跟上数据的增长,以提供数据保护所需的适当的服务水平协议?

  控制二级存储的成本

  数据容量的增长不会减慢。数据保护进程(如备份和复制)更是显著地加快了容量的增长速度。因此,企业采用策略和技术首先对环境进行优化是有道理的,这是不会牺牲性能或带来风险的做法。重复数据删除已经成为一项引人注目的控制存储容量和成本的技术。

  不重复存储相同的数据

  重复数据删除可识别并消除冗余数据,它可以在文件、块或字节级别上执行。数据查验的粒度越细致,找到并消除冗余数据的机会就越大。在二级存储进程(如备份)中,数据最初在二级存储设备中进行筛选,随后所有写入的数据都会进行冗余查验。相同的数据不会被重复存储,而只是存储与之相同的数据的指针,这将使占用的空间大大减少。

  无论采取什么方式,重复数据删除的结果都是能够衡量的。关键的衡量指标之一就是容量缩减的程度,即缩减比。类似10∶1或10倍的缩减,表明了企业能够缩减备份数据的规模和程度,例如将500GB缩减到50GB。如图1所示,在数据保护调查的受访者中,48%的重复数据删除使用者声称缩减比为10倍到20倍,有16%的使用者认为是21倍到超过100倍不等。虽然重复数据删除的缩减比将根据数据类型、全备份频率、保留、跨文件和跨应用程序冗余、本地或全局重复数据删除、重复数据删除算法等不同而有所不同,但ESG实验室的测试发现,20∶1的缩减比总体上是可以实现的。

  20∶1的重复数据删除比可以带来显著的容量节省。例如在图2中,如果对20TB的数据每周进行备份,在8周的时间内通常会激增到160TB的备份容量(设置为6周的保留期)。

  应用缩减比为20∶1的重复数据删除技术之后,可节省超过140TB的容量,重复数据删除后的存储容量不到18TB。

  由更频繁的全备份或更长的保留期所造成的存储的数据量往往会加大重复数据删除比,这使得企业更有理由尽量使用重复数据删除解决方案,因为它可以提高容量并节省了相关预算,同时还可以提高数据从磁盘上恢复的可能性。

  数据缩减解决了IT最头疼的事

  1)更好的、成本更低的数据保护

  重复数据删除改变了磁盘数据保护的经济模式。第一,它促使磁盘备份的总体拥有成本更加接近于磁带策略的总体拥有成本,从而使从磁带保护到磁盘保护的转变更加顺利。淘汰磁带方式所带来的资金成本的节省可能包括:磁带基础设施(硬件和软件许可)、磁带介质采购和灾难恢复的成本。第二,有了重复数据删除技术,企业可以更有效地复制更多的用于灾难恢复的数据,这样就优化了磁盘的备份环境。消除了重复数据之后,企业不必再购买很多的远程站点磁盘容量,复制进程也不再需要大量的网络带宽基础设施。

  重复数据删除技术减少了备份数据,使企业能够在更少的设施上整合更多的备份。企业也可以增加数据的保留期限,从而使信息的访问更加容易(相对于保存在磁带上的数据),法规遵从和电子搜索的恢复会进行得更加顺利。最重要的是,相对于使用磁带,磁盘可以减少备份窗口并加快恢复时间。

  企业应该迅速地实现基于磁盘的数据备份,以保护现场数据,并着手用磁盘替代磁带。ESG的研究表明,到2010年,将有近50%的备份数据存储在磁盘上,而2007年时,这个数字是26%(见图3)。

    • 评论
    • 分享微博
    • 分享邮件
    邮件订阅

    如果您非常迫切的想了解IT领域最新产品与技术信息,那么订阅至顶网技术邮件将是您的最佳途径之一。

    重磅专题
    往期文章
    最新文章