python-kqueue跟踪文件更改-处理先前事件时丢失事件的机会是什么?

我在做什么

我正在实现一个基于python / kqueue的(FreeBSD)解决方案,以跟踪对特定日志文件的更改,当满足KQ_NOTE_WRITE fflag时,对文件的更改将由我的python脚本中的另一个函数获取并处理.

为什么我要这么做

最终,我将获取最新的日志文件条目,并将其发送到其他地方,作为快速的“肮脏”记帐系统的一部分.

我想知道的

1)由于日志文件可以看到流量高峰期,我想知道是否会有任何“原子性”,即在将最新条目传递给日志文件时,我们是否会“错过”一个新条目?我不认为kqueue是“队列”这一事实,但是历史告诉我,对于这样的假设,我通常最终感觉像傻瓜.

2)是否可以确保为每个事件触发kqueue,还是可以跳过多个事件?我想象的情况是,日志文件几乎同时生成2个单独的条目.

任何智慧/建议,不胜感激.

解决方法:

您的怀疑是正确的.

上一篇:FreeBSD虚拟机 VMware Tools 安装教程


下一篇:Linux-单线:打印除最后3条以外的所有行?