什么是正确的解决方案,以确保在使用许多线程和进程时文件永远不会被破坏.
线程版本,关心打开错误.
lock = threading.RLock()
with lock:
try:
f = open(file, 'a')
try:
f.write('sth')
finally:
f.close() # try close in any circumstances if open passed
except:
pass # when open failed
对于进程,我猜必须使用multiprocessing.Lock
但如果我想要2个进程,并且第一个进程拥有2个线程(每个进程使用一个文件)
只有理论,但我想知道如何将同步与线程和进程混合.
线程是否从进程“继承”它,所以只需要进程之间的同步?
2.我不确定上面的代码是否需要嵌套尝试,以防写入失败,我们想要关闭打开的文件(如果在锁定释放后它将保持打开状态)
解决方法:
虽然从the docs开始并不完全清楚,但多处理同步原语实际上也会同步线程.
例如,如果您运行此代码:
import multiprocessing
import sys
import threading
import time
lock = multiprocessing.Lock()
def f(i):
with lock:
for _ in range(10):
sys.stderr.write(i)
time.sleep(1)
t1 = threading.Thread(target=f, args=['1'])
t2 = threading.Thread(target=f, args=['2'])
t1.start()
t2.start()
t1.join()
t2.join()
…输出将始终为1111111111222222222或22222222221111111111,而不是两者的混合.
这些锁是在Windows上的Win32内核同步对象,支持它们的POSIX平台上的信号量,以及其他平台上根本没有实现的. (您可以使用import multiprocessing.semaphore对其进行测试,这将在其他平台上引发ImportError,如文档中所述.)
话虽这么说,只要你总是以正确的顺序使用它们,就可以安全地拥有两级锁 – 也就是说,永远不要抓住threading.Lock,除非你能保证你的进程有多处理.锁.
如果你巧妙地这样做,它可以带来性能上的好处. (Windows上和某些POSIX平台上的跨进程锁可能比进程内锁慢几个数量级.)
如果你只是以明显的方式做到这一点(只有使用threadlock:在processlock:blocks里面),它显然不会有助于提高性能,实际上会减慢一点(虽然可能不足以测量),以及它不会增加任何直接的好处.当然,你的读者会知道你的代码是正确的,即使他们不知道多线程锁在线程之间工作,并且在某些情况下调试进程内死锁比调试进程间死锁要容易得多……但我不认为在大多数情况下,这些都是足够复杂的原因.