您现在的位置是:亿华云 > IT科技类资讯
快来学学Python异步IO,轻松管理10k+并发连接
亿华云2025-10-04 03:56:57【IT科技类资讯】4人已围观
简介异步操作在计算机软硬件体系中是一个普遍概念,根源在于参与协作的各实体处理速度上有明显差异。软件开发中遇到的多数情况是CPU与IO的速度不匹配,所以异步IO存在于各种编程框架中,客户端比如浏览器,服务端
异步操作在计算机软硬件体系中是快学一个普遍概念,根源在于参与协作的步I并各实体处理速度上有明显差异。软件开发中遇到的松管多数情况是CPU与IO的速度不匹配,所以异步IO存在于各种编程框架中,理k连接客户端比如浏览器,快学服务端比如node.js。步I并本文主要分析Python异步IO。松管
Python 3.4标准库有一个新模块asyncio,理k连接用来支持异步IO,快学不过目前API状态是步I并provisional,意味着不保证向后兼容性,松管甚至可能从标准库中移除(可能性极低)。理k连接如果关注PEP和Python-Dev会发现该模块酝酿了很长时间,快学可能后续有API和实现上的步I并调整,但毋庸置疑asyncio非常实用且功能强大,松管值得学习和深究。
示例
asyncio主要应对TCP/UDP socket通信,从容管理大量连接,而无需创建大量线程,提高系统运行效率。此处将官方文档的一个示例做简单改造,实现一个HTTP长连接benchmark工具,用于诊断WEB服务器长连接处理能力。
功能概述:
每隔10毫秒创建10个连接,直到目标连接数(比如10k),同时每个连接都会规律性的亿华云向服务器发送HEAD请求,以维持HTTP keepavlie。
代码如下:
import argparse import asyncio import functools import logging import random import urllib.parse loop = asyncio.get_event_loop() @asyncio.coroutine def print_http_headers(no, url, keepalive): url = urllib.parse.urlsplit(url) wait_for = functools.partial(asyncio.wait_for, timeout=3, loop=loop) query = (HEAD { url.path} HTTP/1.1\r\n Host: { url.hostname}\r\n \r\n).format(url=url).encode(utf-8) rd, wr = yield from wait_for(asyncio.open_connection(url.hostname, 80)) while True: wr.write(query) while True: line = yield from wait_for(rd.readline()) if not line: # end of connection wr.close() return no line = line.decode(utf-8).rstrip() if not line: # end of header break logging.debug((%d) HTTP header> %s % (no, line)) yield from asyncio.sleep(random.randint(1, keepalive//2)) @asyncio.coroutine def do_requests(args): conn_pool = set() waiter = asyncio.Future() def _on_complete(fut): conn_pool.remove(fut) exc, res = fut.exception(), fut.result() if exc is not None: logging.info(conn#{ } exception.format(exc)) else: logging.info(conn#{ } result.format(res)) if not conn_pool: waiter.set_result(event loop is done) for i in range(args.connections): fut = asyncio.async(print_http_headers(i, args.url, args.keepalive)) fut.add_done_callback(_on_complete) conn_pool.add(fut) if i % 10 == 0: yield from asyncio.sleep(0.01) logging.info((yield from waiter)) def main(): parser = argparse.ArgumentParser(description=asyncli) parser.add_argument(url, help=page address) parser.add_argument(-c, --connections, type=int, default=1, help=number of connections simultaneously) parser.add_argument(-k, --keepalive, type=int, default=60, help=HTTP keepalive timeout) args = parser.parse_args() logging.basicConfig(level=logging.INFO, format=%(asctime)s %(message)s) loop.run_until_complete(do_requests(args)) loop.close() if __name__ == __main__: main()测试与分析
硬件:CPU 2.3GHz / 2 cores,RAM 2GB
软件:CentOS 6.5(kernel 2.6.32), Python 3.3 (pip install asyncio), nginx 1.4.7
参数设置:ulimit -n 10240;nginx worker的连接数改为10240
启动WEB服务器,只需一个worker进程:
# ../sbin/nginx # ps ax | grep nginx 2007 ? Ss 0:00 nginx: master process ../sbin/nginx 2008 ? S 0:00 nginx: worker process启动benchmark工具, 发起10k个连接,目标URL是nginx的默认测试页面:
$ python asyncli.py http://10.211.55.8/ -c 10000nginx日志统计平均每秒请求数:
# tail -1000000 access.log | awk { print $4 } | sort | uniq -c | awk { cnt+=1; sum+=$1 } END { printf "avg = %d\n", sum/cnt } avg = 548top部分输出:
VIRT RES SHR S %CPU %MEM TIME+ COMMAND 657m 115m 3860 R 60.2 6.2 4:30.02 python 54208 10m 848 R 7.0 0.6 0:30.79 nginx总结:
1. Python实现简洁明了。不到80行代码,只用到标准库,逻辑直观,想象下C/C++标准库实现这些功能,顿觉“人生苦短,我用Python”。
2. Python运行效率不理想。当连接建立后,客户端和服务端的数据收发逻辑差不多,看上面top输出,Python的CPU和RAM占用基本都是nginx的10倍,意味着效率相差100倍(CPU x RAM),侧面说明了Python与C的效率差距。这个对比虽然有些极端,毕竟nginx不仅用C且为CPU/RAM占用做了深度优化,但相似任务效率相差两个数量级,除非是BUG,说明架构设计的高防服务器出发点就是不同的,Python优先可读易用而性能次之,nginx就是一个高度优化的WEB服务器,开发一个module都比较麻烦,要复用它的异步框架,简直难上加难。开发效率与运行效率的权衡,永远都存在。
3. 单线程异步IO v.s. 多线程同步IO。上面的例子是单线程异步IO,其实不写demo就知道多线程同步IO效率低得多,每个线程一个连接?10k个线程,仅线程栈就占用600+MB(64KB * 10000)内存,加上线程上下文切换和GIL,基本就是噩梦。
ayncio核心概念
以下是学习asyncio时需要理解的四个核心概念,更多细节请看<参考资料>
1. event loop。单线程实现异步的关键就在于这个高层事件循环,它是同步执行的。源码库
2. future。异步IO有很多异步任务构成,而每个异步任务都由一个future控制。
3. coroutine。每个异步任务具体的执行逻辑由一个coroutine来体现。
4. generator(yield & yield from) 。在asyncio中大量使用,是不可忽视的语法细节。
参考资料
1. asyncio – Asynchronous I/O, event loop, coroutines and tasks, https://docs.python.org/3/library/asyncio.html
2. PEP 3156, Asynchronous IO Support Rebooted: the "asyncio” Module, http://legacy.python.org/dev/peps/pep-3156/
3. PEP 380, Syntax for Delegating to a Subgenerator, http://legacy.python.org/dev/peps/pep-0380/
4. PEP 342, Coroutines via Enhanced Generators, http://legacy.python.org/dev/peps/pep-0342/
5. PEP 255, Simple Generators, http://legacy.python.org/dev/peps/pep-0255/
6. asyncio source code, http://hg.python.org/cpython/file/3.4/Lib/asyncio/
很赞哦!(3993)
相关文章
- 审核通过的域名将显示在域名竞拍页面,并进入正式拍卖期,买家可以在拍卖周期内出价,加价幅度与拍卖保证金说明,点此查看。
- 超过8000不安全Redis暴露在云端
- 如何在 Vue 项目中,通过点击 DOM 自动定位VSCode中的代码行?
- 2021年11月29日过期删除域名预定推荐
- 在众多公司中,如果我们必须选择一家可信的公司,那当然是信得过的。
- Golang 语言怎么高效拼接字符串?
- MySQL中,当update修改数据与原数据相同时会再次执行吗?
- 为什么MongoDB使用B-Tree,MySQL使用B+Tree ?
- 4、企业无形资产:通用网站已成为企业网络知识产权的重要组成部分,属于企业的无形资产,也有助于提升企业的品牌形象和技术领先形象。它是企业品牌资产不可或缺的一部分。
- 为什么MongoDB使用B-Tree,MySQL使用B+Tree ?