ITPub博客

首页 > 大数据 > 数据分析 > 数据恢复为何越来越难

数据恢复为何越来越难

数据分析 作者:0nefish 时间:2013-07-27 18:35:00 0 删除 编辑

大量的软件评测证明,当前数据恢复软件行业最关键的问题正是恢复速度过于缓慢。存在这样的问题的原因,只要是当前的存储设备数据容量急剧上升。在早期我们普通使用的硬盘容量一般在80G-120G,此时的恢复速度尚可接受。而随着互联网信息分享传播功能的迅速普及,单单是一部普通的高清电影都可以占据数十G的容量。这个也正是为什么当前的硬盘容量开始向1T级别攀升的重要原因呢。实际上,急剧攀升的硬盘容量虽然可以方便我们存放更多的信息,但是其在执行速度和效率上自然也会出现一定的下降。

方法/步骤

  1. 1

    以普通的500G硬盘为例,假设要扫描并恢复该硬盘之中全部的数据,那么普通数据恢复软件的整个耗时将持续数个小时。同时,在实际的软件测试过程中发现,有不少号称扫描速度飞快的恢复软件,在实际过程之中都没有表现出应有的效率,其中更有部分恢复工具在扫描过程之中出现了系统卡死、资源占用高等问题,严重干扰了用户的正常使用,而且部分软件还引起了系统重启的问题。

  2. 2

    从理论上说,这些软件的设计开发根本没有考虑到大量数据的处理,也没有相应的数据扫描和恢复提速核心,最终的结果自然会引起资源占用过大而导致频繁重启。

  3. 3

    在严重的情况下,频繁的重启还将会进一步加剧系统上文件的丢失。那这些软件在处理小量数据恢复的时候,会否有好的表现呢?观察发现,即便是少量数据的恢复处理,这些软件的恢复成功率也低得惊人,尤其有部分恢复出来的文件完全不可使用。可见,不单只是软件恢复处理速度的问题,其整个软件本身的数据恢复引擎都存在致命的缺陷。

    END

来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/8925825/viewspace-1112786/,如需转载,请注明出处,否则将追究法律责任。

上一篇: 没有了~
下一篇: 没有了~
请登录后发表评论 登录
全部评论

注册时间:2010-10-10