最近開始整理python的資料,部落客建立了一個qq群,希望給大家提供一個交流的平台 78486745 。
前言:python由于
GIL
(全局鎖)的存在,不能發揮多核的優勢,其性能一直飽受诟病。然而在IO密集型的網絡程式設計裡,異步處理比同步處理能提升成百上千倍的效率,彌補了python性能方面的短闆,如微服務架構
japronto
,每秒請求數可達百萬級。
python還有一個優勢是庫(第三方庫)極為豐富,運用十分友善。
asyncio
是python3.4版本引入到标準庫,python2x沒有加這個庫,到了python3.5又加入了async/await特性。
在學習
asyncio
之前,我們先來理清楚同步/異步的概念:
- 同步是指完成事務的邏輯,先執行第一個事務,如果阻塞了,會一直等待,直到這個事務完成,再執行第二個事務,順序執行。
- 異步是和同步相對的,異步是指在處理調用這個事務的之後,不會等待這個事務的處理結果,直接處理第二個事務去了,通過狀态、通知、回調來通知調用者處理結果。
一、asyncio
下面通過舉例來對比同步代碼和異步代碼編寫方面的差異,其次看下兩者性能上的差距,我們使用
sleep(1)
模拟耗時1秒的io操作。
同步代碼:
import time
def hello():
time.sleep(1)
def run():
for i in range(5):
hello()
print('Hello World:%s' % time.time()) # 任何偉大的代碼都是從Hello World 開始的!
if __name__ == '__main__':
run()
輸出:(間隔約是1s)
Hello World:1527595175.4728756
Hello World:1527595176.473001
Hello World:1527595177.473494
Hello World:1527595178.4739306
Hello World:1527595179.474482
異步代碼:
import time
import asyncio
# 定義異步函數
async def hello():
asyncio.sleep(1)
print('Hello World:%s' % time.time())
def run():
for i in range(5):
loop.run_until_complete(hello())
loop = asyncio.get_event_loop()
if __name__ =='__main__':
run()
輸出:
Hello World:1527595104.8338501
Hello World:1527595104.8338501
Hello World:1527595104.8338501
Hello World:1527595104.8338501
Hello World:1527595104.8338501
async def
用來定義異步函數,其内部有異步操作。每個線程有一個事件循環,主線程調用
asyncio.get_event_loop()
時會建立事件循環,你需要把異步的任務丢給這個循環的
run_until_complete()
方法,事件循環會安排協同程式的執行。
二、aiohttp
如果需要并發http請求怎麼辦呢,通常是用
requests
,但
requests
是同步的庫,如果想異步的話需要引入
aiohttp
。這裡引入一個類,
from aiohttp import ClientSession
,首先要建立一個
session
對象,然後用
session
對象去打開網頁。
session
可以進行多項操作,比如
post
,
get
,
put
,
head
等。
基本用法:
async with ClientSession() as session:
async with session.get(url) as response:
aiohttp異步實作的例子:
import asyncio
from aiohttp import ClientSession
tasks = []
url = "https://www.baidu.com/{}"
async def hello(url):
async with ClientSession() as session:
async with session.get(url) as response:
response = await response.read()
print(response)
if __name__ == '__main__':
loop = asyncio.get_event_loop()
loop.run_until_complete(hello(url))
首先
async def
關鍵字定義了這是個異步函數,
await
關鍵字加在需要等待的操作前面,
response.read()
等待
request
響應,是個耗IO操作。然後使用
ClientSession
類發起http請求。
多連結異步通路
如果我們需要請求多個URL該怎麼辦呢,同步的做法通路多個URL隻需要加個for循環就可以了。但異步的實作方式并沒那麼容易,在之前的基礎上需要将
hello()
包裝在
asyncio
的
Future
對象中,然後将
Future
對象清單作為任務傳遞給事件循環。
import time
import asyncio
from aiohttp import ClientSession
tasks = []
url = "https://www.baidu.com/{}"
async def hello(url):
async with ClientSession() as session:
async with session.get(url) as response:
response = await response.read()
# print(response)
print('Hello World:%s' % time.time())
def run():
for i in range(5):
task = asyncio.ensure_future(hello(url.format(i)))
tasks.append(task)
if __name__ == '__main__':
loop = asyncio.get_event_loop()
run()
loop.run_until_complete(asyncio.wait(tasks))
輸出:
Hello World:1527754874.8915546
Hello World:1527754874.899039
Hello World:1527754874.90004
Hello World:1527754874.9095392
Hello World:1527754874.9190395
收集http響應
好了,上面介紹了通路不同連結的異步實作方式,但是我們隻是發出了請求,如果要把響應一一收集到一個清單中,最後儲存到本地或者列印出來要怎麼實作呢,可通過
asyncio.gather(*tasks)
将響應全部收集起來,具體通過下面執行個體來示範。
import time
import asyncio
from aiohttp import ClientSession
tasks = []
url = "https://www.baidu.com/{}"
async def hello(url):
async with ClientSession() as session:
async with session.get(url) as response:
# print(response)
print('Hello World:%s' % time.time())
return await response.read()
def run():
for i in range(5):
task = asyncio.ensure_future(hello(url.format(i)))
tasks.append(task)
result = loop.run_until_complete(asyncio.gather(*tasks))
print(result)
if __name__ == '__main__':
loop = asyncio.get_event_loop()
run()
輸出:
Hello World:1527765369.0785167
Hello World:1527765369.0845182
Hello World:1527765369.0910277
Hello World:1527765369.0920424
Hello World:1527765369.097017
[b'<!DOCTYPE html>\r\n<!--STATUS OK-->\r\n<html>\r\n<head>\r\n......
異常解決
假如你的并發達到2000個,程式會報錯:
ValueError: too many file descriptors in select()
。報錯的原因字面上看是 Python 調取的 select 對打開的檔案有最大數量的限制,這個其實是作業系統的限制,linux打開檔案的最大數預設是1024,windows預設是509,超過了這個值,程式就開始報錯。這裡我們有三種方法解決這個問題:
- 限制并發數量。(一次不要塞那麼多任務,或者限制最大并發數量)
- 使用回調的方式。
- 修改作業系統打開檔案數的最大限制,在系統裡有個配置檔案可以修改預設值,具體步驟不再說明了。
不修改系統預設配置的話,個人推薦限制并發數的方法,設定并發數為500,處理速度更快。
#coding:utf-8
import time,asyncio,aiohttp
url = 'https://www.baidu.com/'
async def hello(url,semaphore):
async with semaphore:
async with aiohttp.ClientSession() as session:
async with session.get(url) as response:
return await response.read()
async def run():
semaphore = asyncio.Semaphore(500) # 限制并發量為500
to_get = [hello(url.format(),semaphore) for _ in range(1000)] #總共1000任務
await asyncio.wait(to_get)
if __name__ == '__main__':
# now=lambda :time.time()
loop = asyncio.get_event_loop()
loop.run_until_complete(run())
loop.close()
【搜尋圓方圓,獲得“python教程”,“python下載下傳”,“python入門”類相關資訊。】