weblogic应用超大日志分析及原因分析

  有一个weblogic服务,半小时产生了17G的server日志,正常的话其实只有几兆,直接导致服务不可用。这么大的日志,如何分析呢?最好是借助于linux

[root@gdsDB]# ls -lh

-rw-r--r--. 1 root   root      17G Jun  1 16:34 material_server6.log

计算出日志的总大小

[root@gdsDB]# wc -l server6.log
198482332 material_server6.log

通过more翻页找到一些错误的信息,将信息写到另外的文件中,然后计算其报错数量

[root@gdsDB]# grep ToolkitException server6.log >> ToolkitException.txt

[root@gdsDB ]# wc -l ToolkitException.txt
963356 ToolkitException.txt

每一个ToolkitException报错有200行,所以可以计算出此错误占总行数的比例:

963356*200/198482332=97.07%

   问题找到了,原因是什么呢?try catch写到for循环里面,如果for循环20万次,则要报错20万次。

你可能感兴趣的:(weblogic)