最近对mongoDB数据库进行性能分析,需要对数据库进行加压。
加压时,最初采用threading模块写了个多线程程序,测试的效果不理想。
单机读数据库每秒请求数只能达到1000次/s.而开发的java程序请求数能达到6000-7000次/s。
证明受限于GIL,python的多线程表现确实不理想。
后来,采用了multiprocessing模块,采用多进程的方式进行加压。
经过测试证明,multiprocessing的性能还是不错,和开发java程序的性能相当。
脚本如下:
#!/usr/bin/env python from pymongo import Connection,MongoClient,MongoReplicaSetClient
import multiprocessing
import time #connection = MongoClient('mongodb://10.120.11.212:27017/')
#connection = Connection(['10.120.11.122','10.120.11.221','10.120.11.212'], 27017)
'''数据库采用了读写分离设置,连接mongoDB的模式要配对'''
connection=MongoReplicaSetClient(
'10.120.11.122:27017,10.120.11.221:27017,10.120.11.212:27017',
replicaSet='rs0',
read_preference=3
# read_preference=3
)
db = connection['cms']
db.authenticate('cms', 'cms') #计时器
def func_time(func):
def _wrapper(*args,**kwargs):
start = time.time()
func(*args,**kwargs)
print func.__name__,'run:',time.time()-start
return _wrapper
#插入测试方法
def insert(num):
posts = db.userinfo
for x in range(num):
post = {"_id" : str(x),
"author": str(x),
"text": "My first blog post!"
}
posts.insert(post)
#查询测试方法
def query(num):
get=db.device
for i in xrange(num):
get.find_one({"scanid":"010000138101010000009aaaaa"}) @func_time
def main(process_num,num):
pool = multiprocessing.Pool(processes=process_num)
for i in xrange(num):
pool.apply_async(query, (num, ))
pool.close()
pool.join()
print "Sub-process(es) done." if __name__ == "__main__":
# query(500,1)
main(800,500)