01.协程
https://www.cnblogs.com/xiaonq/p/7905347.html#i4
1.1 什么是协程
1)协程微线程,纤程,本质是一个单线程 2)协程能在单线程处理高并发,因为遇到IO自动切换 线程遇到I/O操作会等待、阻塞,协程遇到I/O会自动切换(剩下的只有CPU操作) 线程的状态保存在CPU的寄存器和栈里而协程拥有自己的空间,所以无需上下文切换的开销,所以快 3)为甚么协程能够遇到I/O自动切换 greenlet是C语言写的一个模块,遇到IO手动切换 协程有一个gevent模块(封装了greenlet模块),遇到I/O自动切换 4)协程拥有自己的空间,所以无需上下文切换的开销 #1.2 协程优缺点
1.2 协程优缺点
协程缺点
1、无法利用多核资源:协程的本质是个单线程,它不能同时将 单个CPU 的多个核用上,协程需要和进程配合才能运行在多CPU上
2、协程如果阻塞掉,整个程序都阻塞
协程最大的优点
1、不仅是处理高并发(单线程下处理高并发)
2、特别节省资源(协程本质是一个单线程,当然节省资源)
500日活,用php写需要两百多态机器,但是golang只需要二十多太机器
1.3 协程遇到I/O切换,那活只谁干的?
简单说法
1、协程遇到I/O后自动切换,但是会保持一个socket连接,交给系统内核去处理工作
2、epoll()就工作内核中,他维护了一个链表,来存放所有的socket连接
3、当内核处理完成后就会回调一个函数,以socket文件描述符为key,结果为value存放到字典中
4、此时这个列表还是在内核中,需要将这个字典拷贝到用户空间(用户进程中)
本质
1.epoll()中内核则维护一个链表,epoll_wait直接检查链表是不是空就知道是否有文件描述符准备好了。 2.在内核实现中epoll是根据每个sockfd上面的与设备驱动程序建立起来的回调函数实现的。 3.某个sockfd上的事件发生时,与它对应的回调函数就会被调用,来把这个sockfd加入链表,其他处于“空闲的”状态的则不会。 4.epoll上面链表中获取文件描述,这里使用内存映射(mmap)技术,避免了复制大量文件描述符带来的开销 内存映射(mmap):内存映射文件,是由一个文件到一块内存的映射,将不必再对文件执行I/O操作
1.4 Python中协程的模块
1、greenlet:遇到I/O手动切换,是一个C模块 2、gevent:对greenlet封装,遇到I/O自动切换(借助C语言库greenlet) 3、asyncio:和gevent一样,也是实现协程的一个模块(python自己实现)
- https://www.cnblogs.com/xiaonq/p/12870204.html
02.进程,线程,协程爬取页面
特点:
1.进程:启用进程非常浪费资源 2.线程:线程多,并且在阻塞过程中无法执行其他任务 3.协程:gevent只用起一个线程,当请求发出去后gevent就不管,永远就只有一个线程工作,谁先回来先处理
2.1 for循环
第四:性能最差 import requests url_list = [ 'https://www.baidu.com', 'http://dig.chouti.com/', ] for url in url_list: result = requests.get(url) print(result.text)
2.2 进程池
缺点:启用进程非常浪费资源
2.2.1 multiprocessing.Pool
# -*- coding: utf-8 -*- import requests from multiprocessing import Pool def fetch_request(url): result = requests.get(url) print(result.text) def call(arg): print('-->exec done:',"测试进程池执行后回调功能") url_list = [ 'https://www.baidu.com', 'https://www.google.com/', #google页面会卡住,知道页面超时后这个进程才结束 'http://dig.chouti.com/', #chouti页面内容会直接返回,不会等待Google页面的返回 ] if __name__ ` '__main__': pool = Pool(10) # 创建线程池 for url in url_list: #用法1 callback作用是指定只有当Foo运行结束后就执行callback调用的函数,父进程调用的callback函数 pool.apply_async(func=fetch_request, args=(url,),callback=call) print('end') pool.close() #关闭pool pool.join() #进程池中进程执行完毕后再关闭,如果注释,那么程序直接关闭。
2.2.2 ProcessPoolExecutor
import requests from concurrent.futures import ProcessPoolExecutor def fetch_request(url): result = requests.get(url) print(result.text) url_list = [ 'https://www.baidu.com', 'https://www.google.com/', #google页面会卡住,知道页面超时后这个进程才结束 'http://dig.chouti.com/', #chouti页面内容会直接返回,不会等待Google页面的返回 ] if __name__ ` '__main__': pool = ProcessPoolExecutor(10) # 创建线程池 for url in url_list: pool.submit(fetch_request,url) # 去线程池中获取一个进程,进程去执行fetch_request方法 pool.shutdown(wait=True)
2.3 线程池
缺点: 创建一个新线程将消耗大量的计算资源,并且在阻塞过程中无法执行其他任务。
例: 比如线程池中10个线程同时去10个url获取数据,当数据还没来时这些线程全部都在等待,不做事。
import requests from concurrent.futures import ThreadPoolExecutor def fetch_request(url): result = requests.get(url) print(result.text) url_list = [ 'https://www.baidu.com', 'https://www.google.com/', #google页面会卡住,知道页面超时后这个进程才结束 'http://dig.chouti.com/', #chouti页面内容会直接返回,不会等待Google页面的返回 ] pool = ThreadPoolExecutor(10) # 创建一个线程池,最多开10个线程 for url in url_list: pool.submit(fetch_request,url) # 去线程池中获取一个线程,线程去执行fetch_request方法 pool.shutdown(True) # 主线程自己关闭,让子线程自己拿任务执行
2.4 协程
特点 :gevent只用起一个线程,当请求发出去后gevent就不管,永远就只有一个线程工作,谁先回来先处理 import gevent import gevent from gevent import monkey monkey.patch_all(select=False) # 注意,这个导包顺序不要变 import requests # 这些请求谁先回来就先处理谁 def fetch_async(method, url, req_kwargs): response = requests.request(method=method, url=url, `req_kwargs) print(response.url, response.content) # ##### 发送请求 ##### gevent.joinall([ gevent.spawn(fetch_async, method='get', url='https://www.baidu.com/', req_kwargs={}), gevent.spawn(fetch_async, method='get', url='https://www.google.com/', req_kwargs={}), gevent.spawn(fetch_async, method='get', url='https://github.com/', req_kwargs={}), ])