装饰器:
首先来认识一下python函数,
定义:本质是函数(功能是装饰其它函数),为其它函数添加附件功能
原则:
1、不能修改被装饰的函数的源代码。
2、不能修改被装饰的函数的调用方式。
def test():
print('test')
print(test ) #表示是函数
test() #表示执行foo函数
<function test at 0x00595660>#表示的是函数的内存地址
test#函数test执行结果
简单的装饰器:
def func(args):#test1和test2作为一个函数的地址首先都传到这里
def inner():#inner只是一个内存地址,将test1和test2找到
print("功能已经添加!")#每次都会首先执行这里
args()#args在这了执行,其实就是把test1和test2的内存地址执行,也就等于执行了test1和test2
return inner @func
def test1():
print("test1")
@func
def test2():
print("test2")
test1()
test2()
一个参数(debug执行顺序):
def outer(func):#(1)
def inner(args):#(2)(4)
print("验证")#(5)
return func(args)#(6)
return inner#(3)
@outer#(7)
def f1(args):#
print("f1")#(8)
验证
f1
两个参数:
def outer(func):
def inner(args,kwargs):
print("验证")
return func(args,kwargs)
return inner
@outer
def f1(args,kwargs):
print("f1")
三个参数:
def outer(func):
def inner(args,kwargs):
print("验证")
return func(args,kwargs,kwargs_1)
return inner
@outer
def f1(args,kwargs,kwargs_1):
print("f1")
终极装饰器
#!/usr/bin/env python
import time
user,passwd = "leihaidong","abc123"
def auth(auth_type):
print("auth func",auth_type)
def outer_wrapper(func):
def wrapper(*args,**kwargs):
if auth_type == "local":
username = input("username:")
password = input("password:")
if user == username and passwd ==password:
print("user has passed authentication")
res = func(*args,**kwargs)#frme home
print("after authenticaion")
return res
else:
exit("用户名或密码错误")
elif auth_type == "ldap":
print("ldap登陆")
return wrapper
return outer_wrapper def index():
print("主页") @auth(auth_type="local")#home = wrapper()
def home():
print("欢迎来到登陆用户页")
return "from home" @auth(auth_type="ldap")
def bbs():
print("欢迎来到bbs页") index()
print(home())#wrapper()
bbs()
二、 json和pickle
json:
1、json:用于字符串和python数据类型之间转换
data = {"中国":"北京","海淀":"五道口"}
f = open("test.txt","w",encoding="utf-8")
# f.write(data)#不可以这样直接将data这个字典存入文件
f.write(str(data))#这样才是正确的
f.close()
data = {"中国":"北京","海淀":"五道口"}
f = open("test.txt","r",encoding="utf-8")
ret = f.read()
f.close()
print(ret,type(ret))#如果是这样取出来的话,看似是字典,可它确实是字符串格式,靠,这怎么取出来呢,于是我想到了一个办法
{'海淀': '五道口', '中国': '北京'} <class 'str'>
data = {"中国":"北京","海淀":"五道口"}
f = open("test.txt","r",encoding="utf-8")
ret = eval(f.read())
f.close()
print(ret,type(ret))#这下取出来他变成了字典,这样就好取值了
{'中国': '北京', '海淀': '五道口'} <class 'dict'>
上面的方法太low了,于是我想到了json
json.dumps(序列化,简单点说就是将原来数据类型转换成字符串的格式写入文件)
import json
info = {"name":"haha", "age":33}
with open("test.txt","w")as f:
f.write( json.dumps(info) )#将info这个信息存入文件
json.loads(反序列化,存入文件的类似某种书写格式的文件内容读成原来文件类型)
import json
info = {"name":"haha", "age":33}
with open("test.txt","r")as f:
data = json.loads(f.read())
print(data,type(data))
pickle(功能强大,但只能在python上用)(pickle可以把原来数据类型中的汉字也写进去,但是json不知道行不行):
1、序列化(dumps)
import pickle
info = {"name":"haha", "age":33}
with open("test.txt","wb")as f:#因为它写入的是二进制,所以要用wb
# print( pickle.dumps(info))
f.write(pickle.dumps(info))
2、反序列化(loads)
import pickle
info = {"name":"haha", "age":33}
with open("test.txt","rb")as f:#因为你写入的是二进制,所以读取时候也需要用二进制读出来
data = pickle.loads(f.read())
print(data)
三、生成器和迭代器
1、生成器
来源:如果我有一个很大的列表或者字典,要创建几十万或者几百万的数据,如果使用列表创建方法,但是我每次只用里面几个值,那我的CPU和内存岂不是被这些数据撑死。耗时长不说还降低了效率,还影响其它业务正常使用。
解决办法:那如果我要哪个就创建哪个,这样是不是就省去了很多时间,也提高了效率。生成器(gennerate)
#简单的创建方法,循环十次,每次这个次数相乘
a = [x * x for x in range(10)]#用的是列表的方法[]
print(a,type(a))
b = (x * x for x in range(10))#这里用的是看似tuple的方法()
print(b,type(b))
[0, 1, 4, 9, 16, 25, 36, 49, 64, 81] <class 'list'>#a已经生成了所有的值
<generator object <genexpr> at 0x01F21480> <class 'generator'>#但是生成器只是创建了,但是它里面可还没算出来具体的某个值,只有用的时候才 生成
b = (x * x for x in range(10))#它用next方法读取,但是这样有点low,效率也不高
print(b.__next__())
print(b.__next__())
print(b.__next__())
print(b.__next__())
generrator是一个算法,每次调用下一个元素的时候才生成,知道没有下一个元素就抛出一个异常StopIteration
#用函数推算斐波那契数(后面的数等于它前面两个数的和)
def fib(max):
n, a, b = 0, 0, 1
while n < max:
print(b)
a, b = b, a + b
n = n + 1
return 'done'
fib(10)
注意:
n是次数fib(10)就是10次
a,b = b,a+b
可以把上面写成
t = b,a+b
a = t[0]
b=t[1]
1
1
2
3
5
8
13
21
34
55
#然而并没有卵用,但是这要加上一个字符它就变成了generator
def fib(max):
n, a, b = 0, 0, 1
while n < max:
yield b
a, b = b, a + b
n = n + 1
return 'done'
print(fib(10))
#<generator object fib at 0x01171480>
上面看似是一个函数,但是里面加上了yield就是generator
这里,最难理解的就是generator和函数的执行流程不一样。函数是顺序执行,遇到return
语句或者最后一行函数语句就返回。而变成generator的函数,在每次调用next()
的时候执行,遇到yield
语句返回,再次执行时从上次返回的yield
语句处继续执行。
def fib(max):
n, a, b = 0, 0, 1
while n < max:
yield b
a, b = b, a + b
n = n + 1
data = fib(10)
print(data) print(data.__next__())
print(data.__next__())
print("停止一下")
print(data.__next__())
print(data.__next__())
print(data.__next__())
print(data.__next__())
print(data.__next__()) <generator object fib at 0x01982630>
1
1
停止一下
2
3
5
8
13
还可以用yield实现单线程下并发运算的效果
import time
def consumer(name):
print("%s 准备吃包子啦!" %name)
while True:
baozi = yield print("包子[%s]来了,被[%s]吃了!" %(baozi,name)) def producer(name):
c = consumer('A')
c2 = consumer('B')
c.__next__()
c2.__next__()
print("我要开始准备做包子啦!")
for i in range(10):
time.sleep(1)
print("做了2个包子!")
c.send(i)
c2.send(i) producer("alex")
奥巴马 准备吃包子啦!
A 准备吃包子啦!
B 准备吃包子啦!
老子开始准备做包子啦!
做了1个包子,分两半!
包子[0]来了,被[A]吃了!
包子[0]来了,被[B]吃了!
做了1个包子,分两半!
包子[1]来了,被[A]吃了!
包子[1]来了,被[B]吃了!
做了1个包子,分两半!
包子[2]来了,被[A]吃了!
包子[2]来了,被[B]吃了!
做了1个包子,分两半!
包子[3]来了,被[A]吃了!
包子[3]来了,被[B]吃了!
做了1个包子,分两半!
包子[4]来了,被[A]吃了!
包子[4]来了,被[B]吃了!
做了1个包子,分两半!
包子[5]来了,被[A]吃了!
包子[5]来了,被[B]吃了!
做了1个包子,分两半!
包子[6]来了,被[A]吃了!
包子[6]来了,被[B]吃了!
做了1个包子,分两半!
包子[7]来了,被[A]吃了!
包子[7]来了,被[B]吃了!
做了1个包子,分两半!
包子[8]来了,被[A]吃了!
包子[8]来了,被[B]吃了!
做了1个包子,分两半!
包子[9]来了,被[A]吃了!
包子[9]来了,被[B]吃了!
2、迭代器
可迭代其实基本理解就是可循环的。
一类:dict、tuple、list、str、set
一类:gennerator,就是生成器或者是带有yield的函数
上面两类虽然是可迭代对象,但是不是迭代器
那怎么才能知道一个对象是不是可迭代呢?
from collections import Iterable
print(isinstance([], Iterable))
print(isinstance({}, Iterable))
True
True
#True代表是可迭代对象
小结 凡是可作用于for循环的对象都是Iterable类型; 凡是可作用于next()函数的对象都是Iterator类型,它们表示一个惰性计算的序列; 集合数据类型如list、dict、str等是Iterable但不是Iterator,不过可以通过iter()函数获得一个Iterator对象。
我们看看怎么简单的捕捉迭代器的异常
# 首先获得Iterator对象:
it = iter([1, 2, 3, 4, 5])#it其实就是一个迭代器iter
# 循环:
while True:
try:
# 获得下一个值:
x = next(it)
except StopIteration:
# 遇到StopIteration就退出循环
break
四、内置方法
更多详细:
https://docs.python.org/3/library/functions.html?highlight=built#ascii
五、软件目录规范
1、提高代码的可阅读性
2、提高代码的可维护性
假设你的项目名为foo, 我比较建议的最方便快捷目录结构这样就足够了:
Foo/
|-- bin/
| |-- foo
|
|-- foo/
| |-- tests/
| | |-- __init__.py
| | |-- test_main.py
| |
| |-- __init__.py
| |-- main.py
|
|-- docs/
| |-- conf.py
| |-- abc.rst
|
|-- setup.py
|-- requirements.txt
|-- README
简要解释一下:
-
bin/
: 存放项目的一些可执行文件,当然你可以起名script/
之类的也行。 -
foo/
: 存放项目的所有源代码。(1) 源代码中的所有模块、包都应该放在此目录。不要置于顶层目录。(2) 其子目录tests/
存放单元测试代码; (3) 程序的入口最好命名为main.py
。 -
docs/
: 存放一些文档。 -
setup.py
: 安装、部署、打包的脚本。 -
requirements.txt
: 存放软件依赖的外部Python包列表。 -
README
: 项目说明文件。
除此之外,有一些方案给出了更加多的内容。比如LICENSE.txt
,ChangeLog.txt
文件等,我没有列在这里,因为这些东西主要是项目开源的时候需要用到。如果你想写一个开源软件,目录该如何组织,可以参考这篇文章。
下面,再简单讲一下我对这些目录的理解和个人要求吧。
关于README的内容
这个我觉得是每个项目都应该有的一个文件,目的是能简要描述该项目的信息,让读者快速了解这个项目。
它需要说明以下几个事项:
- 软件定位,软件的基本功能。
- 运行代码的方法: 安装环境、启动命令等。
- 简要的使用说明。
- 代码目录结构说明,更详细点可以说明软件的基本原理。
- 常见问题说明。
关于requirements.txt和setup.py
setup.py
一般来说,用setup.py
来管理代码的打包、安装、部署问题。业界标准的写法是用Python流行的打包工具setuptools来管理这些事情。这种方式普遍应用于开源项目中。不过这里的核心思想不是用标准化的工具来解决这些问题,而是说,一个项目一定要有一个安装部署工具,能快速便捷的在一台新机器上将环境装好、代码部署好和将程序运行起来。
这个我是踩过坑的。
我刚开始接触Python写项目的时候,安装环境、部署代码、运行程序这个过程全是手动完成,遇到过以下问题:
- 安装环境时经常忘了最近又添加了一个新的Python包,结果一到线上运行,程序就出错了。
- Python包的版本依赖问题,有时候我们程序中使用的是一个版本的Python包,但是官方的已经是最新的包了,通过手动安装就可能装错了。
- 如果依赖的包很多的话,一个一个安装这些依赖是很费时的事情。
- 新同学开始写项目的时候,将程序跑起来非常麻烦,因为可能经常忘了要怎么安装各种依赖。
setup.py
可以将这些事情自动化起来,提高效率、减少出错的概率。"复杂的东西自动化,能自动化的东西一定要自动化。"是一个非常好的习惯。
setuptools的文档比较庞大,刚接触的话,可能不太好找到切入点。学习技术的方式就是看他人是怎么用的,可以参考一下Python的一个Web框架,flask是如何写的: setup.py
当然,简单点自己写个安装脚本(deploy.sh
)替代setup.py
也未尝不可。
requirements.txt
这个文件存在的目的是:
- 方便开发者维护软件的包依赖。将开发过程中新增的包添加进这个列表中,避免在
setup.py
安装依赖时漏掉软件包。 - 方便读者明确项目使用了哪些Python包。
这个文件的格式是每一行包含一个包依赖的说明,通常是flask>=0.10
这种格式,要求是这个格式能被pip
识别,这样就可以简单的通过 pip install -r requirements.txt
来把所有Python包依赖都装好了。具体格式说明: 点这里。
关于README的内容
它需要说明以下几个事项:
- 软件定位,软件的基本功能。
- 运行代码的方法: 安装环境、启动命令等。
- 简要的使用说明。
- 代码目录结构说明,更详细点可以说明软件的基本原理。
- 常见问题说明。
关于配置文件的使用方法
注意,在上面的目录结构中,没有将conf.py
放在源码目录下,而是放在docs/
目录下。
很多项目对配置文件的使用做法是:
- 配置文件写在一个或多个python文件中,比如此处的conf.py。
- 项目中哪个模块用到这个配置文件就直接通过
import conf
这种形式来在代码中使用配置。
这种做法我不太赞同:
- 这让单元测试变得困难(因为模块内部依赖了外部配置)
- 另一方面配置文件作为用户控制程序的接口,应当可以由用户*指定该文件的路径。
- 程序组件可复用性太差,因为这种贯穿所有模块的代码硬编码方式,使得大部分模块都依赖
conf.py
这个文件。
所以,我认为配置的使用,更好的方式是,
- 模块的配置都是可以灵活配置的,不受外部配置文件的影响。
- 程序的配置也是可以灵活控制的。
能够佐证这个思想的是,用过nginx和mysql的同学都知道,nginx、mysql这些程序都可以*的指定用户配置。
所以,不应当在代码中直接import conf
来使用配置文件。上面目录结构中的conf.py
,是给出的一个配置样例,不是在写死在程序中直接引用的配置文件。可以通过给main.py
启动参数指定配置路径的方式来让程序读取配置内容。当然,这里的conf.py
你可以换个类似的名字,比如settings.py
。或者你也可以使用其他格式的内容来编写配置文件,比如settings.yaml
之类的。