导航:
1、创建进程的两种方式
2、Process的方法
3、进程间的通讯1,进程队列Queue--先进先出
4、进程间的通讯2,管道通讯 Pipe
5、进程间的数据共享,Manager
6、多进程同步问题
7、进程池Pool
python中多进程可以解决cpython解释器多线程中GIL存在的问题,可以利用CPU的多核资源,实现真的并发效果。操作系统中每个线程有自己的内存空间,数据并不共享。
python中使用multiprocessing包提供的接口给我们创建多进程,multiprocessing与threading的使用方法相似。
1)通过multiprocessing.Process创建
Process(group=None, target=None, name=None, args=(), kwargs={})
- group 线程组,没什么用,默认为空就好
- target 要执行的方法
- name 进程的名字
- args/kwargs 执行target方法要传入的参数

1 def fn(word):
2 # ------子进程的逻辑-----
3 print("父进程", os.getppid())
4 print("子进程", os.getpid())
5 print("传入的参数:", word)
6
7
8 if __name__ == "__main__":
9 p = Process(target=fn, args=("haha",)) # 创建子进程
10 p.start() # 开启子进程
11 print("主进程", os.getpid())
12
13
14 # 输出结果
15 主进程 5916
16 父进程 5916
17 子进程 2936
18 传入的参数: haha
通过Process创建一个子进程
很简单这样就可以创建一个子进程了,可以看第3 4 11行打印的进程id可以知道这是不同的进程。
这里需要说明的是:在所有的进程当中子进程都是由父进程创建出来的,在这个例子中,子进程的的父进程就是主进程,可以看到第3 11行打印的进程id。
在windows下,创建进程一定要放在__main__中,不然会报错
2)通过继承Process类创建子进程

1 from multiprocessing import Process
2 import os
3
4 class MyProcess(Process):
5 def __init__(self, name):
6 super().__init__() # 如果重写了初始化方法,在初始化方法中一定要调用父类的初始化方法
7 self.name = name
8
9 def run(self):
10 # ------子进程的逻辑-----
11 print("父进程", os.getppid())
12 print("子进程", os.getpid())
13 print("子进程的名字", self.name)
14
15
16 if __name__ == "__main__":
17 p = MyProcess("haha") # 创建子进程
18 p.start() # 开启子进程
19 print("主进程", os.getpid())
20
21
22 # 输出结果
23 主进程 740
24 父进程 740
25 子进程 7052
26 子进程的名字 haha
通过继承Process创建子进程
通过继承Process创建子进程需要重写 run 方法,这是子进程逻辑的入口,当开启子进程时会自动调用这个方法
上边这两种方式中,主进程执行完所有的逻辑后会等待子进程结束在一起结束,与fork函数创建的方式不一样
1)is_alive()
is_alive方法判断指定对象进程的存活状态。进程 start 后一直到该进程结束都返回True。进程 start 前 或进程已经结束返回False

1 from multiprocessing import Process
2 import time
3
4 def fn():
5 # ------子进程的逻辑-----
6 time.sleep(1) # 模拟子进程执行需要消耗的时间
7
8
9 if __name__ == "__main__":
10 p = Process(target=fn) # 创建子进程
11 print("p.start前-->", p.is_alive())
12 p.start() # 开启子进程
13 print("p.start后-->", p.is_alive())
14 time.sleep(2) # 模拟主进程执行需要消耗的时间,为了确保子进程先结束
15 print("子进程结束后-->", p.is_alive())
16
17
18 # 输出结果
19 p.start前--> False
20 p.start后--> True
21 子进程结束后--> False
is_alive方法
2)join()
join(timeout=None)方法,堵塞当前环境的进程,直到调此方法的进程结束后再继续往下执行。可设置timeout值,最多堵塞timeout时间(秒)。注意:join方法只能在start()后才可以使用

1 from multiprocessing import Process
2 import time
3
4 def fn():
5 # ------子进程的逻辑-----
6 time.sleep(3) # 模拟子进程执行需要消耗的时间
7 print("子进程中-->", time.ctime())
8
9
10 if __name__ == "__main__":
11 p = Process(target=fn) # 创建子进程
12 p.start() # 开启子进程
13 print("p.join前-->", time.ctime())
14 p.join() # 堵塞当前环境的进程,直到调此方法的进程结束后再继续往下执行
15 print("p.join后-->", time.ctime())
16
17
18 # 输出内容
19 p.join前--> Sat Sep 29 16:03:40 2018
20 子进程中--> Sat Sep 29 16:03:43 2018
21 p.join后--> Sat Sep 29 16:03:43 2018
join方法
这里可以看到第15行语句一直等到第7行执行完才输出

1 from multiprocessing import Process
2 import time
3
4 def fn():
5 # ------子进程的逻辑-----
6 time.sleep(2) # 模拟子进程执行需要消耗的时间
7 print("子进程中-->", time.ctime())
8
9
10 if __name__ == "__main__":
11 p = Process(target=fn) # 创建子进程
12 p.start() # 开启子进程
13 print("p.join前-->", time.ctime())
14 p.join(1) # 设置超时1秒
15 print("p.join后-->", time.ctime())
16
17
18 # 输出内容
19 p.join前--> Sat Sep 29 16:04:02 2018
20 p.join后--> Sat Sep 29 16:04:03 2018
21 子进程中--> Sat Sep 29 16:04:04 2018
join设置timeout值
这里可以看到第15行语句只堵塞了1秒的时间
3)start(),进程准备就绪,等待cpu的执行(调度)
4)run(),继承Process类的子类,需要重写的方法,当进程对象调用 start 方法时自动执行 run 方法,也是进程的入口
5)terminate(),不管进程是否执行完,直接终止进程
6)daemon属性True/False
与线程的setDeamon()一样。将该进程对象设置为守护进程,效果:父进程将不再等待子进程,父进程结束时,子进程一起结束。注意:daemon属性只能在 start() 前设置

1 from multiprocessing import Process
2 import time
3
4 def fn():
5 # ------子进程的逻辑-----
6 time.sleep(2) # 模拟子进程执行需要消耗的时间
7 print("----------")
8
9
10 if __name__ == "__main__":
11 p = Process(target=fn) # 创建子进程
12 p.daemon = True
13 p.start() # 开启子进程
14 print("++++++++++")
15
16
17 # 输出内容
18 ++++++++++
daemon属性
子进程中的第7行语句并没有执行,即:子进程在父进程结束时也跟着结束了
Queue(maxsize=-1),maxsize=-1默认队列长度没有最大值,maxsize=5表示队列长度最大值为5
1)put(obj, block=True, timeout=None)
- obj 添加进队列的值,可以添加任意类型的值
- block 默认为True,当队列满时,继续添加则发生堵塞,直到队列get()值出去;block=False,队列满时继续添加不堵塞,但会抛出queue.Full异常
- timeout 堵塞超时,当队列满时,继续添加发生堵塞,堵塞超时timeout秒,超时则会抛出queue.Full异常

1 >>> from multiprocessing import Process, Queue
2 >>> q = Queue(3) # 创建进程队列,队列最大长度为3
3 >>> q.put("haha") # 往队列添加字符串
4 >>> q.put([]) # 往队列添加列表
5 >>> q.put({}) # 往队列添加字典
6 >>> q.put(5) # 往队列添加数字
7 _ # 满时继续添加,发生堵塞(光标会一直卡在这)
8
9 >>> q.put(5,block=False) # 往队列添加数字,不堵塞添加
10 Traceback (most recent call last):
11 File "<stdin>", line 1, in <module>
12 File "C:\D_Program\Python\Python37\lib\multiprocessing\queues.py", line 83, in put
13 raise Full
14 queue.Full
15
16 >>> q.put(5, timeout=3) # 往队列添加数字,并设置超时3秒
17 Traceback (most recent call last):
18 File "<stdin>", line 1, in <module>
19 File "C:\D_Program\Python\Python37\lib\multiprocessing\queues.py", line 83, in put
20 raise Full
21 queue.Full
put方法简单使用,这里还不涉及进程间的通讯
2)get(block=True, timeout=None) 使用方法与put一样的用法,返回先添加的值

1 >>> q.get()
2 'haha'
3 >>> q.get()
4 []
5 >>> q.get()
6 {}
7 >>> q.get()
8 _ # 为空时继续取值,发生堵塞(光标会一直卡在这)
9
10 >>> q.get(timeout=3)
11 Traceback (most recent call last):
12 File "<stdin>", line 1, in <module>
13 File "C:\D_Program\Python\Python37\lib\multiprocessing\queues.py", line 105, in get
14 raise Empty
15 _queue.Empty
get方法简单使用,这里还不涉及进程间的通讯
3)qsize() 返回当前队列的长度

1 >>> from multiprocessing import Queue
2 >>> q = Queue(3)
3 >>> q.put("haha")
4 >>> q.qsize()
5 1
6 >>> q.put(100)
7 >>> q.qsize()
8 2
9 >>> q.get()
10 'haha'
11 >>> q.qsize()
12 1
qsize返回当前队列长度,这里还不涉及进程间的通讯
4)put_nowait(obj) 相当于put(obj, block=False)
5)get_nowait() 相当于get(block=False)
6)empty() 判断队列是否为空,True:空,False:不为空
7)full() 判断队列是否已满,True:已满,False:未满
8)close() 关闭队列,关闭后,将不能添加或取出值
9)通过队列实现多个进程间的通讯

1 from multiprocessing import Process, Queue
2 import time
3
4 def write_queue(q):
5 for i in range(5):
6 q.put(i) # 往队列添加值
7 print("put %d" % i)
8
9
10 def read_queue(q):
11 time.sleep(1) # 确保write_queue中队列已经有值
12 while not q.empty():
13 s = q.get() # 取出队列的值
14 print("get %s" % s)
15
16
17 if __name__ == "__main__":
18 q = Queue(5)
19 p1 = Process(target=write_queue, args=(q,)) # 创建子进程
20 p2 = Process(target=read_queue, args=(q,)) # 创建子进程
21 p1.start() # 开启子进程
22 p2.start() # 开启子进程
23
24
25 # 输出结果
26 put 0
27 put 1
28 put 2
29 put 3
30 put 4
31 get 0
32 get 1
33 get 2
34 get 3
35 get 4
通过队列的多进程间通信,target

1 from multiprocessing import Process, Queue
2 import time
3
4 class WriteProcess(Process):
5 def __init__(self, q):
6 super().__init__()
7 self.q = q
8
9 def run(self):
10 print("子进程WriteProcess-->")
11 for i in range(5):
12 self.q.put(i)
13 print("put %d" % i)
14
15
16 class ReadProcess(Process):
17 def __init__(self, q):
18 super().__init__()
19 self.q = q
20
21 def run(self):
22 time.sleep(1) # 确保write_queue中队列已经有值
23 print("子进程ReadProcess-->")
24 while not self.q.empty():
25 s = self.q.get()
26 print("get %s" % s)
27
28
29 if __name__ == "__main__":
30 q = Queue(5)
31 p1 = WriteProcess(q) # 创建子进程
32 p2 = ReadProcess(q) # 创建子进程
33 p1.start() # 开启子进程
34 p2.start() # 开启子进程
35
36
37 # 输出结果
38 子进程WriteProcess-->
39 put 0
40 put 1
41 put 2
42 put 3
43 put 4
44 子进程ReadProcess-->
45 get 0
46 get 1
47 get 2
48 get 3
49 get 4
通过队列的多进程间通讯--run方法
4、进程间的通讯2,管道通讯 Pipe
1)Pipe(duplex=True)
Pipe是一个函数,返回元组(Connection(), Connection()). 即返回管道的两端。默认duplex=True为全双工模式,duplex=Fasle中第一个Connection只能接收信息,第二个Connection只能发送消息
2)Connection常用方法
- send(obj) 将对象obj发送到管道另一端,发送的数据必须是可序列化的对象。
- recv() 从管道的另一端接收send()发送的数据。没有数据可接收,将发生堵塞。
- send_bytes(buffer, offset=-1, size=-1) 发送字节缓冲区,buffer是支持支持字节缓冲的任意对象,offset为buffer的字节偏移量(可以当初下标),size为要发送的字节数。
- recv_bytes(maxlength=-1) 接收send_bytes()发送的一次数据,maxlength指定接收长度,超出这个长度则抛出将引发IOError异常,没有数据可接收,将发生堵塞。
- poll([timeout]) 返回 True/False,判断管道内是否有数据可以接收,True:数据可接收。timeout为堵塞的时间秒,timeout=None时一直堵塞,直到有数据可以接收
- close() 关闭链接,关闭链接后将不能继续使用管道,当不再使用管道时可将其关闭

1 from multiprocessing import Process, Pipe
2 import time
3
4 class MyProcess1(Process):
5 def __init__(self, con):
6 super().__init__()
7 self.con = con
8
9 def run(self):
10 self.con.send("12345")
11 print("MyProcess1--send-->", "12345")
12 msg = self.con.recv_bytes().decode(encoding="utf-8")
13 print("MyProcess1--recv_bytes-->", msg)
14
15
16 class MyProcess2(Process):
17 def __init__(self, con):
18 super().__init__()
19 self.con = con
20
21 def run(self):
22 msg = self.con.recv()
23 print("MyProcess2--recv-->", msg)
24 self.con.send_bytes("哈哈".encode("UTF-8"))
25 print("MyProcess2--send_bytes-->", "哈哈")
26
27
28 if __name__ == "__main__":
29 con1, con2 = Pipe()
30 p1 = MyProcess1(con1) # 创建子进程
31 p2 = MyProcess2(con2) # 创建子进程
32 p1.start() # 开启子进程
33 p2.start() # 开启子进程
34
35
36 # 输出结果
37 MyProcess1--send--> 12345
38 MyProcess2--recv--> 12345
39 MyProcess2--send_bytes--> 哈哈
40 MyProcess1--recv_bytes--> 哈哈
多进程间的管道通讯
Manager提供多进程间的数据共享,Manager内的主要方法有 dict(mapping_or_sequence), list(sequence), Value(typecode, value), Array(typecode, sequence)

1 from multiprocessing import Process, Manager
2
3 def fn(dic, li, a):
4 dic['count'] -= 1
5 print("子进程-->a", a.value) # a 为Value对象,通过a.value将值取出、修改
6 print("子进程-->li", li)
7
8
9 if __name__ == '__main__':
10 with Manager() as manager:
11 dic = manager.dict({'count': 1000}) # 字典
12 li = manager.list([1, 2, 3, 4]) # 列表
13 a = manager.Value("int", 100) # 传值
14 p = Process(target=fn, args=(dic, li, a))
15 p.start()
16 p.join()
17 print("主进程-->dic", dic) # 打印子进程修改后的内容
18
19
20 # 输出结果
21 子进程-->a 100
22 子进程-->li [1, 2, 3, 4]
23 主进程-->dic {'count': 0}
多进程数据共享Manager
当多个进程同时访问同一个资源时就得涉及到同步的问题,如:向控制台打印数据,必须要确保同一时刻只能有一个进程在打印数据,否则将会出现乱序的效果;多进程同时对一个文件进行读写等

1 from multiprocessing import Process, Lock
2 import time
3
4 def fn(lock):
5 # ------子进程的逻辑-----
6 # lock.acquire() # 未加锁
7 for i in range(3):
8 print("12", end="")
9 time.sleep(0.005) # 为了看到效果,添加的延迟
10 print("34")
11 # lock.release()
12
13
14 if __name__ == "__main__":
15 lock = Lock()
16 for i in range(3):
17 p = Process(target=fn, args=(lock,)) # 创建子进程
18 p.start() # 开启子进程
19
20
21 # 输出结果
22 121234
23 1234
24 1234
25 121234
26 1234
27 34
28 1234
29 34
30 1234
未加锁

1 from multiprocessing import Process, Lock
2 import time
3
4 def fn(lock):
5 # ------子进程的逻辑-----
6 lock.acquire() # 加锁
7 for i in range(3):
8 print("12", end="")
9 time.sleep(0.005) # 为了看到效果,添加的延迟
10 print("34")
11 lock.release() # 释放锁
12
13
14 if __name__ == "__main__":
15 lock = Lock()
16 for i in range(3):
17 p = Process(target=fn, args=(lock,)) # 创建子进程
18 p.start() # 开启子进程
19
20
21 # 输出结果
22 1234
23 1234
24 1234
25 1234
26 1234
27 1234
28 1234
29 1234
30 1234
加锁后
当任务不多时可以可以自己手动创建进程,但任务量大且任务量多的时候手动创建进程的工作量就会比较大,而多次创建进程消耗较大的资源,这个时候进程池就是一种比较好的解决方法。
在程序一开始就创建好进程池指定进程的数量,当任务来临的时候就从进程池里拿出一个进程,任务完成后进程不会被销毁,而是继续回到进程池等等下一个任务。
当任务数量大于进程数时,将按照任务添加的先后顺序执行任务,未执行的任务将在任务列表中等待。进程池中的进程用法跟上边的一致。
Pool()创建进程池的时候可以指定进程池里的进程数量,不指定的将默认为cpu的核心数。
主要方法介绍
apply_async(func, args=(), kwds={}, callback=None, error_callback=None) func:任务执行的方法入口;callback:任务执行完毕后执行的回调函数,回调函数执行在父进程里边,即调用apply_async的进程;error:任务执行出错后执行的回调函数
apply(func, args=(), kwds={})
close() 关闭进程池,关闭后将不能再继续添加任务
join() 等所有进程结束后再退出

1 from multiprocessing import Process, Pool
2 import time
3 import os
4
5 def fn(i):
6 # ------子进程的逻辑-----
7 print("进程pid--> %5d,参数--> %2d" % (os.getpid(), i))
8 time.sleep(0.01)
9
10
11 if __name__ == "__main__":
12 pool = Pool(4)
13 for i in range(12):
14 # pool.apply(fn, (i,)) # 同步方式
15 pool.apply_async(fn, (i,)) # 异步方式
16 pool.close()
17 pool.join()
18
19
20 # 输出结果
21 进程pid--> 1176,参数--> 0
22 进程pid--> 1556,参数--> 1
23 进程pid--> 8864,参数--> 2
24 进程pid--> 1176,参数--> 3
25 进程pid--> 1556,参数--> 4
26 进程pid--> 9552,参数--> 5
27 进程pid--> 8864,参数--> 6
28 进程pid--> 1556,参数--> 7
29 进程pid--> 1176,参数--> 8
30 进程pid--> 9552,参数--> 9
31 进程pid--> 8864,参数--> 10
32 进程pid--> 1176,参数--> 11
进程池apply_async()异步方式

1 from multiprocessing import Process, Pool
2 import time
3 import os
4
5 def fn(i):
6 # ------子进程的逻辑-----
7 print("进程pid--> %5d,参数--> %2d" % (os.getpid(), i))
8 time.sleep(1)
9
10
11 if __name__ == "__main__":
12 pool = Pool(4)
13 for i in range(12):
14 pool.apply(fn, (i,)) # 同步方式
15 # pool.apply_async(fn, (i,)) # 异步方式
16 pool.close()
17 pool.join()
18
19
20 # 输出结果
21 进程pid--> 15056,参数--> 0
22 进程pid--> 14380,参数--> 1
23 进程pid--> 2312,参数--> 2
24 进程pid--> 14360,参数--> 3
25 进程pid--> 15056,参数--> 4
26 进程pid--> 14380,参数--> 5
27 进程pid--> 2312,参数--> 6
28 进程pid--> 14360,参数--> 7
进程池apply()同步方式

1 from multiprocessing import Process, Pool
2 import time
3 import os
4
5 def fn(i):
6 # ------子进程的逻辑-----
7 time.sleep(1)
8 print("子进程pid--> %5d,参数--> %2d" % (os.getpid(), i))
9 if i == 2:
10 raise ValueError("出错")
11 return i
12
13
14 def fc(args):
15 print("callback--> pid:%5d, type(args)%s, args:%s" % (os.getpid(), type(args), args))
16
17
18 def fce(args):
19 print("error_callback--> pid:%5d, type(args)%s, args:%s" % (os.getpid(), type(args), args))
20
21
22 if __name__ == "__main__":
23 print("主进程pid:%d", os.getpid())
24 pool = Pool(2)
25 for i in range(4):
26 # pool.apply(fn, (i,)) # 同步方式
27 pool.apply_async(fn, (i,), callback=fc, error_callback=fce) # 异步方式
28 pool.close()
29 pool.join()
30
31
32 # 输出结果进程
33 主进程pid:%d 7944
34 子进程pid--> 9368,参数--> 0
35 callback--> pid: 7944, type(args)<class 'int'>, args:0
36 子进程pid--> 13724,参数--> 1
37 callback--> pid: 7944, type(args)<class 'int'>, args:1
38 子进程pid--> 9368,参数--> 2
39 error_callback--> pid: 7944, type(args)<class 'ValueError'>, args:出错
40 子进程pid--> 13724,参数--> 3
41 callback--> pid: 7944, type(args)<class 'int'>, args:3
多进程回调函数的使用

1 from multiprocessing import Process, Pool, Manager
2 import time
3 import os
4
5 def fn(i, li):
6 # ------子进程的逻辑-----
7 li[i] = i + 10
8 print("子进程中-->", li[i])
9
10
11 if __name__ == "__main__":
12 with Manager() as manager:
13 pool = Pool(2)
14 li = manager.list([1, 2, 3, 4]) # 列表
15 for i in range(4):
16 pool.apply_async(fn, (i, li)) # 异步方式
17 pool.close()
18 pool.join()
19 print("主进程-->", li)
20
21
22 # 输出结果
23 子进程中--> 10
24 子进程中--> 12
25 子进程中--> 11
26 子进程中--> 13
27 主进程--> [10, 11, 12, 13]
进程池间的通讯
在这里要说一下同步方式和异步方式的区别,同步方式即一个一个任务的执行,即使进程池有多个进程也会等上一个任务做完才执行下一个任务,达不到并发效果,一般不用 apply()
注意点:① close()必须在join()前边;② 主进程默认不会等待进程池中的进程,必须要在主进程中添加close,join;③ 进程池间的通讯与进程的用法一致