python-并发编程之多进程

multiprocessing模块

创建进程的类

Process([group [, target [, name [, args [, kwargs]]]]]),由该类实例化得到的对象,表示一个子进程中的任务(尚未启动)

强调:
1. 需要使用关键字的方式来指定参数
2. args指定的为传给target函数的位置参数,是一个元组形式,必须有逗号

1 group参数未使用,值始终为None
2 
3 target表示调用对象,即子进程要执行的任务
4 
5 args表示调用对象的位置参数元组,args=(1,2,'egon',)
6 
7 kwargs表示调用对象的字典,kwargs={'name':'egon','age':18}
8 
9 name为子进程的名称
View Code

方法介绍

1 p.start():启动进程,并调用该子进程中的p.run() 
 2 p.run():进程启动时运行的方法,正是它去调用target指定的函数,我们自定义类的类中一定要实现该方法  
 3 
 4 p.terminate():强制终止进程p,不会进行任何清理操作,如果p创建了子进程,该子进程就成了僵尸进程,使用该方法需要特别小心这种情况。如果p还保存了一个锁那么也将不会被释放,进而导致死锁
 5 p.is_alive():如果p仍然运行,返回True
 6 
 7 p.join([timeout]):主线程等待p终止(强调:是主线程处于等的状态,而p是处于运行的状态)。timeout是可选的超时时间,需要强调的是,p.join只能join住start开启的进程,而不能join住run开启的进程  
View Code

属性介绍

1 p.daemon:默认值为False,如果设为True,代表p为后台运行的守护进程,当p的父进程终止时,p也随之终止,并且设定为True后,p不能创建自己的新进程,必须在p.start()之前设置
2 
3 p.name:进程的名称
4 
5 p.pid:进程的pid
6 
7 p.exitcode:进程在运行时为None、如果为–N,表示被信号N结束(了解即可)
8 
9 p.authkey:进程的身份验证键,默认是由os.urandom()随机生成的32字符的字符串。这个键的用途是为涉及网络连接的底层进程间通信提供安全性,这类连接只有在具有相同的身份验证键时才能成功(了解即可)
View Code

注意:Process类,在windows中Process()必须放到#if __name__=='__main__'下

在windows中Process()必须放到#if __name__=='__main__'下

开启子进程的两种方式

开启进程的两种方式:

方法一:
from multiprocessing import Process
import time
def task(name):
    print('%s是好人'%name)
    time.sleep(2)
    print('你说的啥')
if __name__ == '__main__':
    p = Process(target=task,args=('tom',))
    p.start()
    print('你是坏人')
# 方法二:
from multiprocessing import Process
import time

class Myprocess(Process):
    def __init__(self,name):    #定义自己的方法
        super().__init__()  #继承父类的方法
        self.name = name
    def run(self):  #这个函数的函数名必须是run,不能是其他的,如果是其他的不会被执行该方法下面的东西
        time.sleep(3)
        print('%s is running'%self.name)
        time.sleep(3)
if __name__ == '__main__':
    p = Myprocess('alex')
    p.start()       #p.run()    #默认是调用的run方法
    print('')
View Code

将socket通信变成并发形式

服务端
from socket import *
from multiprocessing import Process


def server(ip,port):
    server = socket(AF_INET, SOCK_STREAM)
    server.bind((ip,port))
    server.listen(5)
    while True:
        conn,addr = server.accept()
        p = Process(target=communicate,args=(conn,))
        p.start()
    server.close()
def communicate(conn):
    while True:
        try:
            data = conn.recv(1024)
            if not data:break
            conn.send(data.upper())
        except ConnectionResetError:
            break
    conn.close()
if __name__ == '__main__':
    server('127.0.0.1',8090)


客户端
from socket import *
client = socket(AF_INET,SOCK_STREAM)
client.connect(('127.0.0.1',8090))
while True:
    msg = input('>>')
    if not msg :continue
    client.send(msg.encode('utf-8'))
    date = client.recv(1024)
    print(date.decode('utf-8'))
client.close()
View Code

虽然上面方法可以实现socket通信的并发,但是每来一个客户端,都在服务端开启一个进程,如果并发来一万个客户端,要开启一万个进程吗,你自己尝试着在你自己的机器上开一万个试试.(解决方法就是使用进程池)

process对象的join方法

join:主进程等待子进程结束

process对象的其他方法或属性

from multiprocessing import Process
import time,random
def task():
    print('孙子运行了')
    time.sleep(3)
def piao(name):
    print('%s is piaoing' %name)
    time.sleep(random.randint(1,3))
    print('%s is done' %name)
    p = Process(target=task)
    p.start()
if __name__ == '__main__':
    p1 = Process(target=piao,args=('alex',),name = '***')
    p1.start()
    p1.join()
    print(p1.name)  #-->查看进程的名称
    print(p1.pid)       #查看进程的pid
    # p.terminate() -->强制终止进程p,不会进行任何清理操作,如果p创建了子进程,该子进程就成了僵尸进程,用该方法需要特别小心这种情况。如果p保存了一个锁那么也将不会被释放,进而导致死锁
    print('')
View Code
#进程对象的其他方法一:terminate,is_alive
from multiprocessing import Process
import time
import random

class Piao(Process):
    def __init__(self,name):
        self.name=name
        super().__init__()

    def run(self):
        print('%s is piaoing' %self.name)
        time.sleep(random.randrange(1,5))
        print('%s is piao end' %self.name)


p1=Piao('egon1')
p1.start()

p1.terminate()#关闭进程,不会立即关闭,所以is_alive立刻查看的结果可能还是存活
print(p1.is_alive()) #结果为True

print('开始')
print(p1.is_alive()) #结果为False
View Code

方法总结:

    p.name  #-->查看进程的名称
    p.pid      #查看进程的pid
    p.terminate() -->强制终止进程p,不会进行任何清理操作,如果p创建了子进程,该子进程就成了僵尸进程,用该方法需要特别小心这种情况。如果p保存了一个锁那么也将不会被释放,进而导致死锁
    p.join() -->主进程等子进程执行完之后再结束 - --> 等的时间就是执行时间最长的
    p.is_alive()查看子进程是否还存活

进程池

提交/调用任务的方式有两种:
同步调用:提交/调用一个任务,然后就在原地等着,等到该任务执行完毕拿到结果,再执行下一行代码
异步调用:提交/调用一个任务,不在原地等着,直接执行下一行代码
这里引入进程池的概念,是为了限制并发数很多时服务器被卡死,所以就用一个池子来限制并发的数量,所有连接数都会被接收,但不会立即去执行,而是先执行进程池中的
比如进程池规定一次可以并发四个任务,也就是一次可以同时处理四个任务,当这四个任务中的任何一个被处理完后,进程池中就会立马填补一个然后再进行处理
当任务数很少时还是不使用进程池比较好

对上面描述的一个例题1
时间是3秒多一些
from multiprocessing import Process,Pool该模块中的方法比较麻烦,所以使用下面的模块实现
from concurrent.futures import  ProcessPoolExecutor
import time,random,os
def piao(name,n):
    print('%s is piaoing %s' %(name,os.getpid()))
    time.sleep(1)
    return n**2
if __name__ == '__main__':
    p = ProcessPoolExecutor(4)  #规定每次可以并发四个任务
    objs = []
    start = time.time()
    for i in range(10):     #这里有10个任务.
        # res = p.submit(piao,'alex %s'%i,i).result() #同步调用
        # print(res)
        obj = p.submit(piao,'alex %s'%i,i)  #异步调用   #发出指令要开启子进程
        objs.append(obj)
    for obj in objs:
        print(obj.result())     #result是取子进程中的结果

    stop = time.time()
    print(stop-start)
    #关门+等
    # pool.close()
    # pool.join()
    p.shutdown(wait=True)   #   关门+等
    print('',os.getpid())


p.submit()是发出开启子进程的指令,obj.result()是取子进程中产生的结果
p.shutdown(wait=True) #任务数是一定的,不会再增加,也就是关门,并等待子进程结束后再执行主程序

from multiprocessing import Process
import time,random,os

def piao(name,n):
    print('%s is piaoing %s' %(name,os.getpid()))
    time.sleep(1)
    return n**2
if __name__ == '__main__':
    start=time.time()
    p_l=[]
    for i in range(10):
        p=Process(target=piao,args=('xx',1))
        p_l.append(p)
        p.start()

    for p in p_l:
        p.join()

    stop=time.time()
    print(stop-start)
2

例题1和例题2中在连接数比较少时使用2会更好,原因是2中的是所有任务一起去执行,而1中是每四个任务一起执行,要分三次,

每次使用一秒,总共要三秒多,但2中是一起执行的,是 使用了一秒多.要根据不同的环境选择不同的方法使用

多进程是实现并发的手段之一,但需要注意的问题是:
1.很明显需要并发执行的任务通常要远大于核数
2.一个操作系统不可能无限开启进程,通常有几个核就开几个进程
3.进程开启过多,效率反而会下降(开启进程是需要占用操作系统资源的,而且开启多余核数目的进程也无法做到并行)
当被操作对象数目不大时,可以直接利用multiprocessing中的Process动态动态生成多个进程,十几个还好,如果是上百个,上千个,手动的去限制进程数量却又太过繁琐,此时使用程序池是最好的

对于远程过程调用高级应用程序而言,应该使用进程池,pool可以提供指定数量的进程,供用户调用,当有新的请求提交到pool中时,如果池还没有满,就会创建一个新的
进程来执行该请求,但如果池中的进程数已经达到规定最大值,那么该请求就会等待,直到翅中有进程结束,就重用进程池中的进程
 

原文地址:https://www.cnblogs.com/dwenwen/p/7930397.html