我在做什么
我正在实现一个基于python / kqueue的(FreeBSD)解决方案,以跟踪对特定日志文件的更改,当满足KQ_NOTE_WRITE fflag时,对文件的更改将由我的python脚本中的另一个函数获取并处理.
为什么我要这么做
最终,我将获取最新的日志文件条目,并将其发送到其他地方,作为快速的“肮脏”记帐系统的一部分.
我想知道的
1)由于日志文件可以看到流量高峰期,我想知道是否会有任何“原子性”,即在将最新条目传递给日志文件时,我们是否会“错过”一个新条目?我不认为kqueue是“队列”这一事实,但是历史告诉我,对于这样的假设,我通常最终感觉像傻瓜.
2)是否可以确保为每个事件触发kqueue,还是可以跳过多个事件?我想象的情况是,日志文件几乎同时生成2个单独的条目.
任何智慧/建议,不胜感激.
解决方法:
您的怀疑是正确的.