首页 诗词 字典 板报 句子 名言 友答 励志 学校 网站地图
当前位置: 首页 > 教程频道 > 开发语言 > perl python >

运用python logging处理多机多进程写同一个日志文件

2012-11-22 
使用python logging处理多机多进程写同一个日志文件MemoryHandler的性能问题:如果target是StreamHandler的

使用python logging处理多机多进程写同一个日志文件

MemoryHandler的性能问题:

如果target是StreamHandler的子类
上是有严重的IO性能问题
是一个for调用handler,
handler中的处理侧是 io.write(), io.flush()
立马的flush到硬盘中,并有多次flush,io性能很差

运用python logging处理多机多进程写同一个日志文件



logging模块本身是支持多线程写同一个文件的。但对多进程写同一个文件并没有现在成的代码支持。

如tornado的多进程模式与django的fastcgi (flup)多进程模式的场境,写日志都可以应用以下代码:

CS结构

server代码如下, 应该是09 年的项目代码:

运用python logging处理多机多进程写同一个日志文件

运用python logging处理多机多进程写同一个日志文件

热点排行