ITPub博客

首页 > Linux操作系统 > Linux操作系统 > nmon 监控生成的文件过大导致分析不了的解决方法 - split

nmon 监控生成的文件过大导致分析不了的解决方法 - split

原创 Linux操作系统 作者:tolywang 时间:2013-05-08 09:11:42 0 删除 编辑

使用nmon监控运行负载很高且CPU, DISK非常多的系统时,往往会产生非常打的nmon文件, 如果是自动设置收集1天的系统的话,  当然我们可以设置时间段小一些, 让产生的文件不要太大(保持15M以内),   如果文件已经产生,那么如何处理呢, 一般我们采用拆分 split 方式 (虽然 nmon analyzer 工具有一个时间段设置,但是使用了半天,还是要分析整个文件,还是会报错, 可能我设置的有问题) 。 

# split   -l   100000 szxmr336-test_1308010000.nmon

备注:   100000为文件行数;excel 2003好像只能65500行,这里为了减少生成的文件数,可以大一些。

生成xaa、xab, xac 等 3 个文件(一般我们设置文件大小小于15m以内,这样解析快一些),把xaa的头文件分别加到其他文件的头部,在xaa 中查询 zzzz ,将 zzzz以前的行,包括 zzzz 这一行拷贝到其他文件的开头即可。 将所有文件加入后缀 nmon , 每个文件都可以进行nmon分析了,分析出来发现一般是按照时间段来切分的。

来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/35489/viewspace-768005/,如需转载,请注明出处,否则将追究法律责任。

请登录后发表评论 登录
全部评论
Oracle , MySQL, SAP IQ, SAP HANA, PostgreSQL, Tableau 技术讨论,希望在这里一起分享知识,讨论技术,畅谈人生 。

注册时间:2007-12-10

  • 博文量
    5595
  • 访问量
    13341410