我是一个新手,试图用Python来分析我公司的日志文件 . 它们具有不同的格式,因此在线日志分析器不能很好地工作 .
格式如下:
localtime time-taken x-cs-dns c-ip sc-status s-action sc-bytes
cs-bytes cs-method cs-uri-scheme cs-host cs-uri-port cs-uri-path
cs-uri-query cs-username cs-auth-group s-hierarchy s-supplier-name
rs(Content-Type) cs(Referer) cs(User-Agent) sc-filter-result
cs-categories x-virus-id s-ip
例:
"[27/Feb/2012:06:00:01 +0900]" 65 10.184.17.23 10.184.17.23 200
TCP_NC_MISS 99964 255 GET http://thumbnail.image.example.com 80
/mall/shop/cabinets/duelmaster/image01.jpg - - -
DIRECT thumbnail.image.example.com image/jpeg - "Wget/1.12
(linux-gnu)" OBSERVED "RC_White_list;KC_White_list;Shopping" -
10.0.201.17
我现在要做的主要事情是获取所有cs-host和cs-uri-path字段,将它们连接在一起(在上面的示例中获取 http://thumbnail.image.example.com/mall/shop/cabinets/duelmaster/image01.jpg
),计算唯一实例,并根据它们排序和吐出它们访问次数,查看顶部网址 . 有没有办法让Python像处理单独的对象/列一样处理空白,例如 grab 第11个对象?
另一个复杂因素是我们的日常日志文件是巨大的(~15GB),理想情况下我希望如果可能的话,这需要20分钟 .
Niklas B.的代码运行良好,我可以打印顶级IP,用户等 .
不幸的是,我无法将程序打印或写入外部文件或电子邮件 . 目前我的代码看起来像这样,只有最后一行被写入文件 . 可能是什么问题?
for ip,count in heapq.nlargest(k,sourceip.iteritems(),key = itemgetter(1)):top =“%d%s”%(count,ip)v = open(“C:/ Users /来宾/桌面/日志分析/ urls.txt“,”w“)打印>> v,顶部
1 回答
是:
未经测试 . 另一种可能性是使用
Counter
:顺便说一下,将URL写入文件的代码的问题是您在每次迭代中重新打开文件,因此每次都丢弃文件的内容 . 你应该在循环外打开文件,只在里面写 .