免责声明:我是aiohttp的初学者
我正在尝试aiohttp异步处理获取请求,但事实证明,它比gevent的池版本要慢得多。
GEVENT版本
import gevent
from gevent import monkey
monkey.patch_all()
from gevent.pool import Pool
import requests
import time
def pooling_task(url):
requests.get(url)
def pooling_main():
start = time.time()
pool = Pool(10)
urls = [
"http://google.com",
"http://yahoo.com",
"http://linkedin.com",
"http://shutterfly.com",
"http://mypublisher.com",
"http://facebook.com"
]
for url in urls:
pool.apply_async(pooling_task, args=(url,))
pool.join()
end = time.time()
print("POOL TIME {}".format(end-start))
if __name__ == '__main__':
print("POOLING VERSION")
pooling_main()
输出-储存时间6.299163818359375
以下是aiohttp版本
import aiohttp
import asyncio
import time
import uvloop
asyncio.set_event_loop_policy(uvloop.EventLoopPolicy())
async def fetch(session, url):
async with session.get(url) as response:
return await response.text()
async def main():
urls = [
"http://google.com",
"http://yahoo.com",
"http://linkedin.com",
"http://shutterfly.com",
"http://mypublisher.com",
"http://facebook.com"]
async with aiohttp.ClientSession() as session:
for url in urls:
await fetch(session, url)
if __name__ == "__main__":
start = time.time()
loop = asyncio.get_event_loop()
loop.run_until_complete(main())
end = time.time()
print("Time taken {}".format(end - start))
输出-花费时间15.399710178375244
我真的不明白为什么aiohttp这么慢。
至于gevent版本,requests.get仍然是一个阻塞调用,但不是aiohttp。
我期望aiohttp版本会更快。
最佳答案
for url in urls:
await fetch(session, url)
await
这里的意思是你不会在上一个完成之前开始下载下一个 url。要使所有下载并发,您应该使用类似 asyncio.gather 的东西。像这样修改你的代码:
async with aiohttp.ClientSession() as session:
await asyncio.gather(*[
fetch(session, url)
for url
in urls
])
你会看到巨大的加速。
关于python - 为什么 aiohttp 比 gevent 慢得多?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/52697135/