在此Python 腳本中,多個'cat | zgrep' 指令在遠端伺服器上依序執行,並單獨收集它們的輸出以進行處理。然而,為了提高效率,我們的目標是並行執行這些命令。
與使用多處理或執行緒相反,您可以使用下列方法並行執行子程序:
#!/usr/bin/env python
from subprocess import Popen
# create a list of subprocesses
processes = [Popen("echo {i:d}; sleep 2; echo {i:d}".format(i=i), shell=True) for i in range(5)]
# collect statuses of subprocesses
exitcodes = [p.wait() for p in processes]
此程式碼同時啟動五個 shell 指令並收集它們的退出代碼。請注意,在此上下文中不需要 & 字符,因為 Popen 預設不等待命令完成。您必須明確呼叫 .wait() 來檢索其狀態。
雖然順序收集子程序的輸出很方便,但如果需要,您也可以使用執行緒進行並行收集。考慮以下範例:
#!/usr/bin/env python
from multiprocessing.dummy import Pool # thread pool
from subprocess import Popen, PIPE, STDOUT
# create a list of subprocesses with output handling
processes = [Popen("echo {i:d}; sleep 2; echo {i:d}".format(i=i), shell=True,
stdin=PIPE, stdout=PIPE, stderr=STDOUT, close_fds=True)
for i in range(5)]
# collect outputs in parallel
def get_lines(process):
return process.communicate()[0].splitlines()
outputs = Pool(len(processes)).map(get_lines, processes)
此程式碼並行執行子程序並使用執行緒同時收集其輸出。
對於 Python 3.8 及更高版本,asyncio 提供了一種並發執行子程序的優雅方式。這是一個例子:
#!/usr/bin/env python3
import asyncio
import sys
from subprocess import PIPE, STDOUT
async def get_lines(shell_command):
p = await asyncio.create_subprocess_shell(
shell_command, stdin=PIPE, stdout=PIPE, stderr=STDOUT
)
return (await p.communicate())[0].splitlines()
async def main():
# create a list of coroutines for subprocess execution
coros = [get_lines(f'"{sys.executable}" -c "print({i:d}); import time; time.sleep({i:d})"') for i in range(5)]
# get subprocess outputs in parallel
print(await asyncio.gather(*coros))
if __name__ == "__main__":
asyncio.run(main())
此程式碼示範如何在單一執行緒中同時執行子程序。
透過實作這些方法,您可以透過執行多個子進程來顯著提高腳本的效率'貓| zgrep' 在遠端伺服器上並行命令。
免責聲明: 提供的所有資源部分來自互聯網,如果有侵犯您的版權或其他權益,請說明詳細緣由並提供版權或權益證明然後發到郵箱:[email protected] 我們會在第一時間內為您處理。
Copyright© 2022 湘ICP备2022001581号-3