第十六章-进程和线程

对于操作系统来说, 一个任务就是一个进程(Process)

进程内的这些“子任务”称为线程(Thread)

真正的并行执行多任务只能在多核CPU上实现

多任务的实现有3种方式:

  多进程模式;

  多线程模式;

  多进程+多线程模式

Python既支持多进程, 又支持多线程

1 多进程

  Unix/Linux操作系统提供了一个fork()系统调用,它非常特殊。普通的函数调用,调用一次,返回一次,但是fork()调用一次,返回两次, 因为操作系统自动把当前进程(称为父进程)复制了一份(称为子进程),然后,分别在父进程和子进程内返回。

  子进程永远返回0, 而父进程返回子进程的ID, 进程只需要调用getppid()就可以拿到父进程的ID

  在python中可以通过导入os模块来完成一些系统的调用

  os.getpid()可以返回当前进程的pid

  os.fork()可以调用fork系统调用, 只不过只是支持linux系列的系统

1.1  multiprocessing

  由于在windows上无法使用fork(), 所以在python中提供了模块multiprocessing来形成子进程

  导入multiprocessing模块的方法是使用from multiprocessing import导入

  利用process函数来创建一个子进程

  第一个参数可以是用target用于传递一个函数, 用于生成进程之后调用该方法

  第二个参数是args传递的剩余参数

  使用start()方法来启动子进程

  join()方法表示父进程要等待子进程执行完毕之后才能继续往下执行, 通常用于进程间的同步

  具体的使用实例如下

from multiprocessing import Process
import os

def run_proc(name):
    print('Run child process %s (%s)...' % (name, os.getpid()))

if __name__=='__main__':
    print('Parent process %s.' % os.getpid())
    p = Process(target=run_proc, args=('test',))
    print('Child process will start.')
    p.start()
    p.join()
    print('Child process end.')

1.2 Pool

  要创建大量的进程就需要使用进程池

  同样是multiprocessing模块下的, 但是使用的函数是Pool

  具体是Pool()可以传入一个值用于设定子进程同时执行的数量, 返回一个进程池

  Pool默认的大小是CPU的内核数量

  进程池可以调用apply_async()函数来创建子进程, 同样第一个参数可以绑定一个方法, 第二个参数args

  对Pool对象调用join()方法会等待所有子进程执行完毕,调用join()之前必须先调用close(),调用close()之后就不能继续添加新的Process

  具体创建代码

from multiprocessing import Pool
import os, time, random

def long_time_task(name):
    print('Run task %s (%s)...' % (name, os.getpid()))
    start = time.time()
    time.sleep(random.random() * 3)
    end = time.time()
    print('Task %s runs %0.2f seconds.' % (name, (end - start)))

if __name__=='__main__':
    print('Parent process %s.' % os.getpid())
    p = Pool(4)
    for i in range(5):
        p.apply_async(long_time_task, args=(i,))
    print('Waiting for all subprocesses done...')
    p.close()
    p.join()
    print('All subprocesses done.')

1.3 子进程

  如果不仅要创建执行子进程, 还需要控制进程的输入和输出, 那就需要使用subprocess模块

  具体代码如下

import subprocess

print('$ nslookup www.python.org')
r = subprocess.call(['nslookup', 'www.python.org'])
print('Exit code:', r)

1.4 进程间的通信

  进程之间还需要通信, python通过Queue和Pipes来交换数据

  下面是创建两个进程, 一个是往Queue里写入数据, 一个是从Queue里读数据    

  具体代码如下

from multiprocessing import Process, Queue
import os, time, random

# 写数据进程执行的代码:
def write(q):
    print('Process to write: %s' % os.getpid())
    for value in ['A', 'B', 'C']:
        print('Put %s to queue...' % value)
        q.put(value)
        time.sleep(random.random())

# 读数据进程执行的代码:
def read(q):
    print('Process to read: %s' % os.getpid())
    while True:
        value = q.get(True)
        print('Get %s from queue.' % value)

if __name__=='__main__':
    # 父进程创建Queue,并传给各个子进程:
    q = Queue()
    pw = Process(target=write, args=(q,))
    pr = Process(target=read, args=(q,))
    # 启动子进程pw,写入:
    pw.start()
    # 启动子进程pr,读取:
    pr.start()
    # 等待pw结束:
    pw.join()
    # pr进程里是死循环,无法等待其结束,只能强行终止:
    pr.terminate()

2 多线程

  一个进程至少有一个线程

  线程是操作系统直接支持的执行单元    

  在python中提供两个模块进程线程的操作, 一个是_thread, 一个是threading

  其中_thread是低级模块, threading是高级模块, 对_thread进程了封装, 一般只使用threading就行

  启动一个线程就是把一个函数传入并创建Thread实例, 然后调用start()开始执行

  由于任何进程默认就会启动一个线程,我们把该线程称为主线程, 主线程又可以启动新的线程

  Python的threading模块有个current_thread()函数,它永远返回当前线程的实例

  主线程实例的名字叫MainThread,子线程的名字在创建时指定,我们用LoopThread命名子线程

  名字仅仅在打印时用来显示,完全没有其他意义,如果不起名字Python就自动给线程命名为Thread-1,Thread-2……

  具体代码如下

import time, threading

# 新线程执行的代码:
def loop():
    print('thread %s is running...' % threading.current_thread().name)
    n = 0
    while n < 5:
        n = n + 1
        print('thread %s >>> %s' % (threading.current_thread().name, n))
        time.sleep(1)
    print('thread %s ended.' % threading.current_thread().name)

print('thread %s is running...' % threading.current_thread().name)
t = threading.Thread(target=loop, name='LoopThread')
t.start()
t.join()
print('thread %s ended.' % threading.current_thread().name)

2.1 Lock

  多线程和多进程的区别

  多进程中, 同一个变量, 各自有一份拷贝, 互相不影响

  多线程中, 所有变量都是有所有线程共享, 任何一个变量都可以被任何一个线程修改, 所以一定要注意同时修改一个变量的情况

  因此可以使用锁来实现对并发修改的控制

balance = 0
lock = threading.Lock()

def run_thread(n):
    for i in range(100000):
        # 先要获取锁:
        lock.acquire()
        try:
            # 放心地改吧:
            change_it(n)
        finally:
            # 改完了一定要释放锁:
            lock.release()

2.2 多核CPU

  一般地, 一个死循环线程会100%占用一个CPU, 如果有两个死循环线程的话, 就会监控到占用200%的CPU

  但是在Python中, 由于GIL的限制, 一个进行当前的线程只能有一个

3 ThreadLocal

  在多线程环境下, 每个线程都有自己的数据, 且这些数据都是局部变量

  但是大多时候, 一个进程的多个线程可能需要共用有个数据, 这个时候如果不断传递参数就显得臃肿, 创建一个全局变量通过键值对来保存尽管可以解决这一问题, 但是代码不够美观

  因此可以在多线程中, 使用threading.local()创建一个ThreadLocal对象来当做那个全局变量

import threading

# 创建全局ThreadLocal对象:
local_school = threading.local()


def process_thread(name):
    # 绑定ThreadLocal的student:
    local_school.student = name
    process_student()


def process_student():
    # 获取当前线程关联的student:
    std = local_school.student
    print('Hello, %s (in %s)' % (std, threading.current_thread().name))


t1 = threading.Thread(target=process_thread, args=('Alice',), name='Thread-A')
t2 = threading.Thread(target=process_thread, args=('Bob',), name='Thread-B')
t1.start()
t2.start()
t1.join()
t2.join()

4 进程和线程

  一般的多任务, 通常会设计 Master-Worker 模式来处理

  Master用于分配任务, Worker用于执行任务, 一般多任务环境下有一个Master多个Worker

  稳定性上:

  多进程: 稳定性好, 一个子进程崩溃了不会影响主进程, 一般Master进程很低可能崩溃, Apache就是使用的多线程

  多线程: 稳定性不如多进程, 一个子线程崩溃程序就会挂掉

  资源开销上:

  多进程: 进程开销大, 一个操作系统能够同时运行的进程是有限的

  多线程: 线程开销小, 因此一般地处理速度也较快, IIS就是使用的多线程

  关于线程切换

  无论是多线程还是多进程, 一旦数据过量, 效率就会降低

  因此进程或者线程的切换, 都是需要时间的, 如果数量过多, 切换花费的时间就更多了

  关于计算密集型和IO密集型

  计算密集型主要消耗CPU资源, 因此任务切换的越频繁, 效率就越低, 一般计算密集型同时进行的数量相当于CPU核心数

  相对的IO密集型就有所不同, 由于IO操作(网络, 磁盘IO等)比较浪费时间, 此时python就很有优势

  关于异步IO

  如果是同步IO的话, 那么在IO没有执行完毕之前程序是无法继续往下执行的

  异步IO可以使得程序在不用等待IO操作完成程序可以继续往下执行

  现代操作系统对IO操作的支持已经做了巨大的改进, 利用异步IO可以使得单线程模型执行多任务, 这也就是事件驱动模型

  常见的异步IO的web服务器是Nginx, 单核CPU采用单线程进行, 多核CPU一般运行与CPU核心相同数量的进程数

  在Python中, 单线程的异步编程模型就是协程

5 分布式进程

  一般在Python中, 线程和进程一般会选择进程来编写代码

  同时multiprocessing模块不但支持多进程, 还支持多进程分布到多台机器当中

  共享消息队列的多线程的使用方法如下

import random, queue
from multiprocessing.managers import BaseManager

# 创建两个队列, 发送任务的队列 和 接受消息队列
task_queue = queue.Queue()
result_queue = queue.Queue()


# 从BaseManager继承的QueueManager:
class QueueManager(BaseManager):
    pass


# 把两个Queue都注册到网络上, callable参数关联了Queue对象:
QueueManager.register('get_task_queue', callable=lambda: task_queue)
QueueManager.register('get_result_queue', callable=lambda: result_queue)
# 绑定端口5000, 设置验证码'abc':
manager = QueueManager(address=('', 5000), authkey=b'abc')
# 启动Queue:
manager.start()
# 获得通过网络访问的Queue对象:
task = manager.get_task_queue()
result = manager.get_result_queue()
# 放几个任务进去:
for i in range(10):
    n = random.randint(0, 10000)
    print('Put task %d...' % n)
    task.put(n)
# 从result队列读取结果:
print('Try get results...')
for i in range(10):
    r = result.get(timeout=10)
    print('Result: %s' % r)
# 关闭:
manager.shutdown()
print('master exit.')

  获取消息队列的任务并执行的多进程如下

import time, sys, queue
from multiprocessing.managers import BaseManager


# 创建类似的QueueManager:
class QueueManager(BaseManager):
    pass


# 由于这个QueueManager只从网络上获取Queue,所以注册时只提供名字:
QueueManager.register('get_task_queue')
QueueManager.register('get_result_queue')

# 连接到服务器,也就是运行task_master.py的机器:
server_addr = '127.0.0.1'
print('Connect to server %s...' % server_addr)
# 端口和验证码注意保持与task_master.py设置的完全一致:
m = QueueManager(address=(server_addr, 5000), authkey=b'abc')
# 从网络连接:
m.connect()
# 获取Queue的对象:
task = m.get_task_queue()
result = m.get_result_queue()
# 从task队列取任务,并把结果写入result队列:
for i in range(10):
    try:
        n = task.get(timeout=1)
        print('run task %d * %d...' % (n, n))
        r = '%d * %d = %d' % (n, n, n * n)
        time.sleep(1)
        result.put(r)
    except Queue.Empty:
        print('task queue is empty.')
# 处理结束:
print('worker exit.')

  

原文地址:https://www.cnblogs.com/weihuchao/p/6758632.html