Неблокирующее чтение в подпроцессе.Труба в python


Я использую модуль подпроцесс чтобы запустить подпроцесс и подключиться к его выходному потоку (stdout). Я хочу иметь возможность выполнять неблокирующие чтения на своем stdout. Есть ли способ сделать .readline не блокирует или проверяет, есть ли данные в потоке, прежде чем я вызову .readline? Я бы хотел, чтобы это было портативным или, по крайней мере, работало под Windows и Linux.

вот как я это делаю сейчас (это блокировка на .readline если данные недоступны):

p = subprocess.Popen('myprogram.exe', stdout = subprocess.PIPE)
output_str = p.stdout.readline()
26 431

26 ответов:

fcntl,select,asyncproc не поможет в этом случае.

надежный способ читать поток без блокировки независимо от операционной системы-использовать Queue.get_nowait():

import sys
from subprocess import PIPE, Popen
from threading  import Thread

try:
    from queue import Queue, Empty
except ImportError:
    from Queue import Queue, Empty  # python 2.x

ON_POSIX = 'posix' in sys.builtin_module_names

def enqueue_output(out, queue):
    for line in iter(out.readline, b''):
        queue.put(line)
    out.close()

p = Popen(['myprogram.exe'], stdout=PIPE, bufsize=1, close_fds=ON_POSIX)
q = Queue()
t = Thread(target=enqueue_output, args=(p.stdout, q))
t.daemon = True # thread dies with the program
t.start()

# ... do other things here

# read line without blocking
try:  line = q.get_nowait() # or q.get(timeout=.1)
except Empty:
    print('no output yet')
else: # got line
    # ... do something with line

у меня часто была подобная проблема; программы Python, которые я пишу, часто должны иметь возможность выполнять некоторые основные функции, одновременно принимая пользовательский ввод из командной строки (stdin). Простое помещение функции обработки пользовательского ввода в другой поток не решает проблему, потому что readline() блокирует и не имеет тайм-аута. Если основная функциональность завершена, и больше нет необходимости ждать дальнейшего ввода пользователя, я обычно хочу, чтобы моя программа вышла, но это не может, потому что readline() все еще блокируется в другом потоке, ожидая строки. Решение, которое я нашел для этой проблемы, - сделать stdin неблокирующим файлом с помощью модуля fcntl:

import fcntl
import os
import sys

# make stdin a non-blocking file
fd = sys.stdin.fileno()
fl = fcntl.fcntl(fd, fcntl.F_GETFL)
fcntl.fcntl(fd, fcntl.F_SETFL, fl | os.O_NONBLOCK)

# user input handling thread
while mainThreadIsRunning:
      try: input = sys.stdin.readline()
      except: continue
      handleInput(input)

на мой взгляд, это немного чище, чем использование модулей select или signal для решения этой проблемы, но опять же это работает только на UNIX...

в Python 3.4 вводит новые временный API для асинхронного ввода-вывода -- asyncio модуль.

подход похож на twisted - основанный ответ @Bryan Ward -- определить протокол и его методы вызываются, как только данные готовы:

#!/usr/bin/env python3
import asyncio
import os

class SubprocessProtocol(asyncio.SubprocessProtocol):
    def pipe_data_received(self, fd, data):
        if fd == 1: # got stdout data (bytes)
            print(data)

    def connection_lost(self, exc):
        loop.stop() # end loop.run_forever()

if os.name == 'nt':
    loop = asyncio.ProactorEventLoop() # for subprocess' pipes on Windows
    asyncio.set_event_loop(loop)
else:
    loop = asyncio.get_event_loop()
try:
    loop.run_until_complete(loop.subprocess_exec(SubprocessProtocol, 
        "myprogram.exe", "arg1", "arg2"))
    loop.run_forever()
finally:
    loop.close()

посмотреть "подпроцесс" в документах.

есть интерфейс высокого уровня asyncio.create_subprocess_exec() возвращает Process объекты что позволяет читать строку асинхронно с помощью StreamReader.readline() coroutineasync/await Python 3.5+ синтаксис):

#!/usr/bin/env python3.5
import asyncio
import locale
import sys
from asyncio.subprocess import PIPE
from contextlib import closing

async def readline_and_kill(*args):
    # start child process
    process = await asyncio.create_subprocess_exec(*args, stdout=PIPE)

    # read line (sequence of bytes ending with b'\n') asynchronously
    async for line in process.stdout:
        print("got line:", line.decode(locale.getpreferredencoding(False)))
        break
    process.kill()
    return await process.wait() # wait for the child process to exit


if sys.platform == "win32":
    loop = asyncio.ProactorEventLoop()
    asyncio.set_event_loop(loop)
else:
    loop = asyncio.get_event_loop()

with closing(loop):
    sys.exit(loop.run_until_complete(readline_and_kill(
        "myprogram.exe", "arg1", "arg2")))

readline_and_kill() выполняет следующие задачи:

  • запустить подпроцесс, перенаправить его stdout в трубу
  • читать строку из подпроцесса' stdout асинхронно
  • убить подпроцесс
  • подождите, пока он выйдет

каждый шаг может быть ограничен таймаутом секунды, если необходимо.

попробовать asyncproc модуль. Например:

import os
from asyncproc import Process
myProc = Process("myprogram.app")

while True:
    # check to see if process has ended
    poll = myProc.wait(os.WNOHANG)
    if poll != None:
        break
    # print any new output
    out = myProc.read()
    if out != "":
        print out

модуль заботится обо всех потоках, как предложил С. Лотт.

вы можете сделать это очень легко в витая. В зависимости от существующей базы кода, это может быть не так просто в использовании, но если вы создаете скрученное приложение, то такие вещи становятся почти тривиальными. Вы создаете ProcessProtocol класс, и переопределить outReceived() метод. Скрученный (в зависимости от используемого реактора) обычно просто большой select() цикл с обратными вызовами, установленными для обработки данных из разных файловых дескрипторов (часто сетевых сокетов). Так что outReceived() способ просто установка обратного вызова для обработки данных, поступающих из STDOUT. Простой пример, демонстрирующий это поведение следующим образом:

from twisted.internet import protocol, reactor

class MyProcessProtocol(protocol.ProcessProtocol):

    def outReceived(self, data):
        print data

proc = MyProcessProtocol()
reactor.spawnProcess(proc, './myprogram', ['./myprogram', 'arg1', 'arg2', 'arg3'])
reactor.run()

The витая документации имеет некоторую хорошую информацию об этом.

если вы строите все свое приложение вокруг Twisted, это делает асинхронную связь с другими процессами, локальными или удаленными, действительно элегантными, как это. С другой стороны, если ваша программа не построена поверх Twisted, это на самом деле не происходит чтобы быть полезным. Надеюсь, это может быть полезно для других читателей, даже если это не применимо для вашего конкретного приложения.

использовать select & read (1).

import subprocess     #no new requirements
def readAllSoFar(proc, retVal=''): 
  while (select.select([proc.stdout],[],[],0)[0]!=[]):   
    retVal+=proc.stdout.read(1)
  return retVal
p = subprocess.Popen(['/bin/ls'], stdout=subprocess.PIPE)
while not p.poll():
  print (readAllSoFar(p))

для readline ()-like:

lines = ['']
while not p.poll():
  lines = readAllSoFar(p, lines[-1]).split('\n')
  for a in range(len(lines)-1):
    print a
lines = readAllSoFar(p, lines[-1]).split('\n')
for a in range(len(lines)-1):
  print a

одним из решений является создание другого процесса для выполнения чтения процесса или создание потока процесса с таймаутом.

вот потоковая версия функции тайм-аута:

http://code.activestate.com/recipes/473878/

однако, вам нужно прочитать stdout по мере его поступления? Другим решением может быть сброс выходных данных в файл и ожидание завершения процесса с помощью p.wait ().

f = open('myprogram_output.txt','w')
p = subprocess.Popen('myprogram.exe', stdout=f)
p.wait()
f.close()


str = open('myprogram_output.txt','r').read()

отказ от ответственности: это работает только для Торнадо

вы можете сделать это, установив fd, чтобы быть неблокирующим, а затем использовать ioloop для регистрации обратных вызовов. Я упаковал это в яйцо под названием tornado_subprocess и вы можете установить его через PyPI:

easy_install tornado_subprocess

Теперь вы можете сделать что-то вроде этого:

import tornado_subprocess
import tornado.ioloop

    def print_res( status, stdout, stderr ) :
    print status, stdout, stderr
    if status == 0:
        print "OK:"
        print stdout
    else:
        print "ERROR:"
        print stderr

t = tornado_subprocess.Subprocess( print_res, timeout=30, args=[ "cat", "/etc/passwd" ] )
t.start()
tornado.ioloop.IOLoop.instance().start()

вы также можете использовать его с RequestHandler

class MyHandler(tornado.web.RequestHandler):
    def on_done(self, status, stdout, stderr):
        self.write( stdout )
        self.finish()

    @tornado.web.asynchronous
    def get(self):
        t = tornado_subprocess.Subprocess( self.on_done, timeout=30, args=[ "cat", "/etc/passwd" ] )
        t.start()

существующие решения не работают для меня (подробности ниже). Что, наконец, сработало, так это реализовать readline с помощью read(1) (на основе ответ). Последний не блокирует:

from subprocess import Popen, PIPE
from threading import Thread
def process_output(myprocess): #output-consuming thread
    nextline = None
    buf = ''
    while True:
        #--- extract line using read(1)
        out = myprocess.stdout.read(1)
        if out == '' and myprocess.poll() != None: break
        if out != '':
            buf += out
            if out == '\n':
                nextline = buf
                buf = ''
        if not nextline: continue
        line = nextline
        nextline = None

        #--- do whatever you want with line here
        print 'Line is:', line
    myprocess.stdout.close()

myprocess = Popen('myprogram.exe', stdout=PIPE) #output-producing process
p1 = Thread(target=process_output, args=(dcmpid,)) #output-consuming thread
p1.daemon = True
p1.start()

#--- do whatever here and then kill process and thread if needed
if myprocess.poll() == None: #kill process; will automatically stop thread
    myprocess.kill()
    myprocess.wait()
if p1 and p1.is_alive(): #wait for thread to finish
    p1.join()

почему существующие решения не работают:

  1. решения, которые требуют readline (в том числе на основе очереди) всегда блокируются. Это трудно (невозможно?) чтобы убить поток, который выполняет readline. Он только убивается, когда процесс, который его создал, заканчивается, но не тогда, когда процесс производства продукции убит.
  2. смешение низкого уровня вызова fcntl с высокого уровня с readline вызовы могут не работать должным образом, как anonnn указал.
  3. С помощью select.poll () является аккуратным, но не работает в Windows в соответствии с документами python.
  4. использование сторонних библиотек кажется перебор для этой задачи и добавляет дополнительные зависимости.

эта версия неблокирующего чтения не требуют специальных модулей и будет работать из коробки на большинстве дистрибутивов Linux.

import os
import sys
import time
import fcntl
import subprocess

def async_read(fd):
    # set non-blocking flag while preserving old flags
    fl = fcntl.fcntl(fd, fcntl.F_GETFL)
    fcntl.fcntl(fd, fcntl.F_SETFL, fl | os.O_NONBLOCK)
    # read char until EOF hit
    while True:
        try:
            ch = os.read(fd.fileno(), 1)
            # EOF
            if not ch: break                                                                                                                                                              
            sys.stdout.write(ch)
        except OSError:
            # waiting for data be available on fd
            pass

def shell(args, async=True):
    # merge stderr and stdout
    proc = subprocess.Popen(args, shell=False, stdout=subprocess.PIPE, stderr=subprocess.STDOUT)
    if async: async_read(proc.stdout)
    sout, serr = proc.communicate()
    return (sout, serr)

if __name__ == '__main__':
    cmd = 'ping 8.8.8.8'
    sout, serr = shell(cmd.split())

Я добавляю эту проблему, чтобы прочитать какой-то подпроцесс.К popen поток stdout. Вот мое неблокирующее решение для чтения:

import fcntl

def non_block_read(output):
    fd = output.fileno()
    fl = fcntl.fcntl(fd, fcntl.F_GETFL)
    fcntl.fcntl(fd, fcntl.F_SETFL, fl | os.O_NONBLOCK)
    try:
        return output.read()
    except:
        return ""

# Use example
from subprocess import *
sb = Popen("echo test && sleep 1000", shell=True, stdout=PIPE)
sb.kill()

# sb.stdout.read() # <-- This will block
non_block_read(sb.stdout)
'test\n'

вот мой код, используемый для улавливания каждого вывода из подпроцесса ASAP, включая частичные строки. Он качает одновременно и stdout и stderr в почти правильном порядке.

протестировано и корректно работало на Python 2.7 linux & windows.

#!/usr/bin/python
#
# Runner with stdout/stderr catcher
#
from sys import argv
from subprocess import Popen, PIPE
import os, io
from threading import Thread
import Queue
def __main__():
    if (len(argv) > 1) and (argv[-1] == "-sub-"):
        import time, sys
        print "Application runned!"
        time.sleep(2)
        print "Slept 2 second"
        time.sleep(1)
        print "Slept 1 additional second",
        time.sleep(2)
        sys.stderr.write("Stderr output after 5 seconds")
        print "Eol on stdin"
        sys.stderr.write("Eol on stderr\n")
        time.sleep(1)
        print "Wow, we have end of work!",
    else:
        os.environ["PYTHONUNBUFFERED"]="1"
        try:
            p = Popen( argv + ["-sub-"],
                       bufsize=0, # line-buffered
                       stdin=PIPE, stdout=PIPE, stderr=PIPE )
        except WindowsError, W:
            if W.winerror==193:
                p = Popen( argv + ["-sub-"],
                           shell=True, # Try to run via shell
                           bufsize=0, # line-buffered
                           stdin=PIPE, stdout=PIPE, stderr=PIPE )
            else:
                raise
        inp = Queue.Queue()
        sout = io.open(p.stdout.fileno(), 'rb', closefd=False)
        serr = io.open(p.stderr.fileno(), 'rb', closefd=False)
        def Pump(stream, category):
            queue = Queue.Queue()
            def rdr():
                while True:
                    buf = stream.read1(8192)
                    if len(buf)>0:
                        queue.put( buf )
                    else:
                        queue.put( None )
                        return
            def clct():
                active = True
                while active:
                    r = queue.get()
                    try:
                        while True:
                            r1 = queue.get(timeout=0.005)
                            if r1 is None:
                                active = False
                                break
                            else:
                                r += r1
                    except Queue.Empty:
                        pass
                    inp.put( (category, r) )
            for tgt in [rdr, clct]:
                th = Thread(target=tgt)
                th.setDaemon(True)
                th.start()
        Pump(sout, 'stdout')
        Pump(serr, 'stderr')

        while p.poll() is None:
            # App still working
            try:
                chan,line = inp.get(timeout = 1.0)
                if chan=='stdout':
                    print "STDOUT>>", line, "<?<"
                elif chan=='stderr':
                    print " ERROR==", line, "=?="
            except Queue.Empty:
                pass
        print "Finish"

if __name__ == '__main__':
    __main__()

добавление этого ответа здесь, поскольку он обеспечивает возможность установки неблокирующих каналов в Windows и Unix.

все ctypes подробности спасибо @трехтонках это.

существует немного измененная версия, которая будет использоваться как в системах Unix, так и в Windows.

  • совместимость с Python3 (требуется только незначительное изменение).
  • включает версию posix и определяет исключение для использования любой.

таким образом, вы можете использовать ту же функцию и исключение для кода Unix и Windows.

# pipe_non_blocking.py (module)
"""
Example use:

    p = subprocess.Popen(
            command,
            stdout=subprocess.PIPE,
            )

    pipe_non_blocking_set(p.stdout.fileno())

    try:
        data = os.read(p.stdout.fileno(), 1)
    except PortableBlockingIOError as ex:
        if not pipe_non_blocking_is_error_blocking(ex):
            raise ex
"""


__all__ = (
    "pipe_non_blocking_set",
    "pipe_non_blocking_is_error_blocking",
    "PortableBlockingIOError",
    )

import os


if os.name == "nt":
    def pipe_non_blocking_set(fd):
        # Constant could define globally but avoid polluting the name-space
        # thanks to: https://stackoverflow.com/questions/34504970
        import msvcrt

        from ctypes import windll, byref, wintypes, WinError, POINTER
        from ctypes.wintypes import HANDLE, DWORD, BOOL

        LPDWORD = POINTER(DWORD)

        PIPE_NOWAIT = wintypes.DWORD(0x00000001)

        def pipe_no_wait(pipefd):
            SetNamedPipeHandleState = windll.kernel32.SetNamedPipeHandleState
            SetNamedPipeHandleState.argtypes = [HANDLE, LPDWORD, LPDWORD, LPDWORD]
            SetNamedPipeHandleState.restype = BOOL

            h = msvcrt.get_osfhandle(pipefd)

            res = windll.kernel32.SetNamedPipeHandleState(h, byref(PIPE_NOWAIT), None, None)
            if res == 0:
                print(WinError())
                return False
            return True

        return pipe_no_wait(fd)

    def pipe_non_blocking_is_error_blocking(ex):
        if not isinstance(ex, PortableBlockingIOError):
            return False
        from ctypes import GetLastError
        ERROR_NO_DATA = 232

        return (GetLastError() == ERROR_NO_DATA)

    PortableBlockingIOError = OSError
else:
    def pipe_non_blocking_set(fd):
        import fcntl
        fl = fcntl.fcntl(fd, fcntl.F_GETFL)
        fcntl.fcntl(fd, fcntl.F_SETFL, fl | os.O_NONBLOCK)
        return True

    def pipe_non_blocking_is_error_blocking(ex):
        if not isinstance(ex, PortableBlockingIOError):
            return False
        return True

    PortableBlockingIOError = BlockingIOError

чтобы избежать чтения неполных данных, я закончил тем, что написал свой собственный генератор readline (который возвращает байтовую строку для каждой строки).

свой генератор, так что вы можете например...

def non_blocking_readlines(f, chunk=1024):
    """
    Iterate over lines, yielding b'' when nothings left
    or when new data is not yet available.

    stdout_iter = iter(non_blocking_readlines(process.stdout))

    line = next(stdout_iter)  # will be a line or b''.
    """
    import os

    from .pipe_non_blocking import (
            pipe_non_blocking_set,
            pipe_non_blocking_is_error_blocking,
            PortableBlockingIOError,
            )

    fd = f.fileno()
    pipe_non_blocking_set(fd)

    blocks = []

    while True:
        try:
            data = os.read(fd, chunk)
            if not data:
                # case were reading finishes with no trailing newline
                yield b''.join(blocks)
                blocks.clear()
        except PortableBlockingIOError as ex:
            if not pipe_non_blocking_is_error_blocking(ex):
                raise ex

            yield b''
            continue

        while True:
            n = data.find(b'\n')
            if n == -1:
                break

            yield b''.join(blocks) + data[:n + 1]
            data = data[n + 1:]
            blocks.clear()
        blocks.append(data)

The выберите модуль поможет вам определить, где в следующий полезного сигнала.

тем не менее, вы почти всегда счастливее с отдельными потоками. Один блокирует чтение stdin,другой делает то, что вы не хотите блокировать.

Я создал библиотеку на основе решение Дж. Ф. Себастьяна. Вы можете использовать его.

https://github.com/cenkalti/what

работая с ответом Дж. Ф. Себастьяна и несколькими другими источниками, я собрал простой менеджер подпроцессов. Он обеспечивает запрос неблокирующего чтения, а также запуск нескольких процессов параллельно. Он не использует какой-либо специфический для ОС вызов (что я знаю) и, следовательно, должен работать в любом месте.

он доступен из pypi, так что просто pip install shelljob. Обратитесь к страница проекта для примеров и подробная документация.

EDIT: эта реализация по-прежнему блокируется. Применение Дж. Ф. Себастьян ответ.

Я пробовал лучшие ответы, но дополнительный риск и обслуживание кода потока было тревожным.

просмотр модуль ввода-вывода (и будучи ограниченным до 2.6), я нашел BufferedReader. Это мое безрезьбовое, неблокирующее решение.

import io
from subprocess import PIPE, Popen

p = Popen(['myprogram.exe'], stdout=PIPE)

SLEEP_DELAY = 0.001

# Create an io.BufferedReader on the file descriptor for stdout
with io.open(p.stdout.fileno(), 'rb', closefd=False) as buffer:
  while p.poll() == None:
      time.sleep(SLEEP_DELAY)
      while '\n' in bufferedStdout.peek(bufferedStdout.buffer_size):
          line = buffer.readline()
          # do stuff with the line

  # Handle any remaining output after the process has ended
  while buffer.peek():
    line = buffer.readline()
    # do stuff with the line

Я недавно наткнулся на такую же проблему Мне нужно прочитать одну строку за раз из потока ( хвост запустить в подпроцессе ) в неблокирующем режиме Я хотел избежать следующих проблем: не записывать процессор, не читать поток на один байт (например, readline) и т. д.

вот моя реализация https://gist.github.com/grubberr/5501e1a9760c3eab5e0a он не поддерживает windows (опрос), не обрабатывает EOF, но это работает для меня хорошо

зачем беспокоить поток и очередь? в отличие от readline(), BufferedReader.read1 () не блокирует ожидание \r\n, он возвращается как можно скорее, если есть какой-либо выход.

#!/usr/bin/python
from subprocess import Popen, PIPE, STDOUT
import io

def __main__():
    try:
        p = Popen( ["ping", "-n", "3", "127.0.0.1"], stdin=PIPE, stdout=PIPE, stderr=STDOUT )
    except: print("Popen failed"); quit()
    sout = io.open(p.stdout.fileno(), 'rb', closefd=False)
    while True:
        buf = sout.read1(1024)
        if len(buf) == 0: break
        print buf,

if __name__ == '__main__':
    __main__()

в моем случае мне нужен модуль регистрации, который улавливает вывод из фоновых приложений и увеличивает его(добавление временных меток, цветов и т. д.).

Я закончил с фоновым потоком, который делает фактический ввод/вывод следующего кода только для платформ POSIX. Я раздел несущественные части.

Если кто-то собирается использовать этого зверя для длительных запусков, рассмотрите возможность управления открытыми дескрипторами. В моем случае это не было большой проблемой.

# -*- python -*-
import fcntl
import threading
import sys, os, errno
import subprocess

class Logger(threading.Thread):
    def __init__(self, *modules):
        threading.Thread.__init__(self)
        try:
            from select import epoll, EPOLLIN
            self.__poll = epoll()
            self.__evt = EPOLLIN
            self.__to = -1
        except:
            from select import poll, POLLIN
            print 'epoll is not available'
            self.__poll = poll()
            self.__evt = POLLIN
            self.__to = 100
        self.__fds = {}
        self.daemon = True
        self.start()

    def run(self):
        while True:
            events = self.__poll.poll(self.__to)
            for fd, ev in events:
                if (ev&self.__evt) != self.__evt:
                    continue
                try:
                    self.__fds[fd].run()
                except Exception, e:
                    print e

    def add(self, fd, log):
        assert not self.__fds.has_key(fd)
        self.__fds[fd] = log
        self.__poll.register(fd, self.__evt)

class log:
    logger = Logger()

    def __init__(self, name):
        self.__name = name
        self.__piped = False

    def fileno(self):
        if self.__piped:
            return self.write
        self.read, self.write = os.pipe()
        fl = fcntl.fcntl(self.read, fcntl.F_GETFL)
        fcntl.fcntl(self.read, fcntl.F_SETFL, fl | os.O_NONBLOCK)
        self.fdRead = os.fdopen(self.read)
        self.logger.add(self.read, self)
        self.__piped = True
        return self.write

    def __run(self, line):
        self.chat(line, nl=False)

    def run(self):
        while True:
            try: line = self.fdRead.readline()
            except IOError, exc:
                if exc.errno == errno.EAGAIN:
                    return
                raise
            self.__run(line)

    def chat(self, line, nl=True):
        if nl: nl = '\n'
        else: nl = ''
        sys.stdout.write('[%s] %s%s' % (self.__name, line, nl))

def system(command, param=[], cwd=None, env=None, input=None, output=None):
    args = [command] + param
    p = subprocess.Popen(args, cwd=cwd, stdout=output, stderr=output, stdin=input, env=env, bufsize=0)
    p.wait()

ls = log('ls')
ls.chat('go')
system("ls", ['-l', '/'], output=ls)

date = log('date')
date.chat('go')
system("date", output=date)

Это пример для запуска интерактивной команды в подпроцессе, и stdout является интерактивным с помощью псевдо-терминала. Вы можете обратиться к: https://stackoverflow.com/a/43012138/3555925

#!/usr/bin/env python
# -*- coding: utf-8 -*-

import os
import sys
import select
import termios
import tty
import pty
from subprocess import Popen

command = 'bash'
# command = 'docker run -it --rm centos /bin/bash'.split()

# save original tty setting then set it to raw mode
old_tty = termios.tcgetattr(sys.stdin)
tty.setraw(sys.stdin.fileno())

# open pseudo-terminal to interact with subprocess
master_fd, slave_fd = pty.openpty()

# use os.setsid() make it run in a new process group, or bash job control will not be enabled
p = Popen(command,
          preexec_fn=os.setsid,
          stdin=slave_fd,
          stdout=slave_fd,
          stderr=slave_fd,
          universal_newlines=True)

while p.poll() is None:
    r, w, e = select.select([sys.stdin, master_fd], [], [])
    if sys.stdin in r:
        d = os.read(sys.stdin.fileno(), 10240)
        os.write(master_fd, d)
    elif master_fd in r:
        o = os.read(master_fd, 10240)
        if o:
            os.write(sys.stdout.fileno(), o)

# restore tty settings back
termios.tcsetattr(sys.stdin, termios.TCSADRAIN, old_tty)

моя проблема немного отличается, поскольку я хотел собрать как stdout, так и stderr из запущенного процесса, но в конечном итоге то же самое, поскольку я хотел отобразить вывод в виджете в качестве его сгенерированного.

Я не хотел прибегать ко многим предложенным обходным путям с использованием очередей или дополнительных потоков, поскольку они не должны быть необходимы для выполнения такой общей задачи, как запуск другого скрипта и сбор его вывода.

после прочтения предложенных решений и документов python Я решил свою проблему с реализацией ниже. Да это работает только для POSIX, как я использую select вызов функции.

Я согласен, что документы сбивают с толку, и реализация неудобна для такой общей задачи сценариев. Я считаю, что более старые версии python имеют разные значения по умолчанию для Popen и разные объяснения, так что возникает много путаницы. Это, кажется, хорошо работает как для Python 2.7.12 и 3.5.2.

ключ должен был установить bufsize=1 для линии буферизация и затем universal_newlines=True для обработки в виде текстового файла вместо двоичного, который, кажется, становится по умолчанию при установке bufsize=1.

class workerThread(QThread):
   def __init__(self, cmd):
      QThread.__init__(self)
      self.cmd = cmd
      self.result = None           ## return code
      self.error = None            ## flag indicates an error
      self.errorstr = ""           ## info message about the error

   def __del__(self):
      self.wait()
      DEBUG("Thread removed")

   def run(self):
      cmd_list = self.cmd.split(" ")   
      try:
         cmd = subprocess.Popen(cmd_list, bufsize=1, stdin=None
                                        , universal_newlines=True
                                        , stderr=subprocess.PIPE
                                        , stdout=subprocess.PIPE)
      except OSError:
         self.error = 1
         self.errorstr = "Failed to execute " + self.cmd
         ERROR(self.errorstr)
      finally:
         VERBOSE("task started...")
      import select
      while True:
         try:
            r,w,x = select.select([cmd.stdout, cmd.stderr],[],[])
            if cmd.stderr in r:
               line = cmd.stderr.readline()
               if line != "":
                  line = line.strip()
                  self.emit(SIGNAL("update_error(QString)"), line)
            if cmd.stdout in r:
               line = cmd.stdout.readline()
               if line == "":
                  break
               line = line.strip()
               self.emit(SIGNAL("update_output(QString)"), line)
         except IOError:
            pass
      cmd.wait()
      self.result = cmd.returncode
      if self.result < 0:
         self.error = 1
         self.errorstr = "Task terminated by signal " + str(self.result)
         ERROR(self.errorstr)
         return
      if self.result:
         self.error = 1
         self.errorstr = "exit code " + str(self.result)
         ERROR(self.errorstr)
         return
      return

ERROR, DEBUG и VERBOSE-это просто макросы, которые выводят вывод на терминал.

это решение является IMHO 99,99% эффективным, поскольку он по-прежнему использует блокировку readline функция, поэтому мы предполагаем, что подпроцесс хорош и выводит полные строки.

Я приветствую обратную связь для улучшения решения, поскольку я все еще новичок Питон.

Это решение использует select модуль для "чтения любых доступных данных" из потока ввода-вывода. Эта функция блокирует первоначально до тех пор, пока данные не будут доступны, но затем считывает только те данные, которые доступны, и не блокирует дальше.

учитывая тот факт, что он использует select модуль, это работает только на Unix.

код полностью совместим с PEP8.

import select


def read_available(input_stream, max_bytes=None):
    """
    Blocks until any data is available, then all available data is then read and returned.
    This function returns an empty string when end of stream is reached.

    Args:
        input_stream: The stream to read from.
        max_bytes (int|None): The maximum number of bytes to read. This function may return fewer bytes than this.

    Returns:
        str
    """
    # Prepare local variables
    input_streams = [input_stream]
    empty_list = []
    read_buffer = ""

    # Initially block for input using 'select'
    if len(select.select(input_streams, empty_list, empty_list)[0]) > 0:

        # Poll read-readiness using 'select'
        def select_func():
            return len(select.select(input_streams, empty_list, empty_list, 0)[0]) > 0

        # Create while function based on parameters
        if max_bytes is not None:
            def while_func():
                return (len(read_buffer) < max_bytes) and select_func()
        else:
            while_func = select_func

        while True:
            # Read single byte at a time
            read_data = input_stream.read(1)
            if len(read_data) == 0:
                # End of stream
                break
            # Append byte to string buffer
            read_buffer += read_data
            # Check if more data is available
            if not while_func():
                break

    # Return read buffer
    return read_buffer

Я тоже столкнулся с проблемой, описанной Джесс и решил его с помощью "select" как Брэдли,Энди и другие сделали, но в режиме блокировки, чтобы избежать занятого цикла. Он использует фиктивную трубу в качестве поддельного stdin. Выберите блоки и дождитесь готовности stdin или трубы. При нажатии клавиши stdin разблокирует select, и значение ключа можно получить с помощью read (1). Когда другой поток записывает в трубу, то труба разблокирует select и его может быть принято как признак того, что потребность в stdin закончилась. Вот некоторые ссылки на код:

import sys
import os
from select import select

# -------------------------------------------------------------------------    
# Set the pipe (fake stdin) to simulate a final key stroke
# which will unblock the select statement
readEnd, writeEnd = os.pipe()
readFile = os.fdopen(readEnd)
writeFile = os.fdopen(writeEnd, "w")

# -------------------------------------------------------------------------
def getKey():

    # Wait for stdin or pipe (fake stdin) to be ready
    dr,dw,de = select([sys.__stdin__, readFile], [], [])

    # If stdin is the one ready then read it and return value
    if sys.__stdin__ in dr:
        return sys.__stdin__.read(1)   # For Windows use ----> getch() from module msvcrt

    # Must finish
    else:
        return None

# -------------------------------------------------------------------------
def breakStdinRead():
    writeFile.write(' ')
    writeFile.flush()

# -------------------------------------------------------------------------
# MAIN CODE

# Get key stroke
key = getKey()

# Keyboard input
if key:
    # ... do your stuff with the key value

# Faked keystroke
else:
    # ... use of stdin finished

# -------------------------------------------------------------------------
# OTHER THREAD CODE

breakStdinRead()

у меня есть проблема исходного вопрошающего, но я не хотел вызывать потоки. Я смешал решение Джесси с прямым чтением () из канала и моим собственным буфером-обработчиком для чтения строк (однако мой подпроцесс-ping - всегда писал полные строки

def set_up_ping(ip, w):
# run the sub-process
# watch the resultant pipe
p = subprocess.Popen(['/bin/ping', ip], stdout=subprocess.PIPE)
# make stdout a non-blocking file
fl = fcntl.fcntl(p.stdout, fcntl.F_GETFL)
fcntl.fcntl(p.stdout, fcntl.F_SETFL, fl | os.O_NONBLOCK)
stdout_gid = gobject.io_add_watch(p.stdout, gobject.IO_IN, w)
return stdout_gid # for shutting down

наблюдатель

def watch(f, *other):
print 'reading',f.read()
return True

и главное программа устанавливает пинг, а затем вызывает GObject mail loop.

def main():
set_up_ping('192.168.1.8', watch)
# discard gid as unused here
gobject.MainLoop().run()

любая другая работа прикреплена к обратным вызовам в gobject.

вот модуль, который поддерживает неблокирующие чтения и фоновые записи в python:

https://pypi.python.org/pypi/python-nonblock

обеспечивает функция,

nonblock_read, который будет считывать данные из потока, если они доступны, в противном случае возвращает пустую строку (или нет, если поток закрыт с другой стороны и все возможные данные были прочитаны)

вы также можете рассмотреть python-subprocess2 модуль

https://pypi.python.org/pypi/python-subprocess2

который добавляет к модулю подпроцесса. Итак, объект, возвращенный из " подпроцесса.Popen " добавляется дополнительный метод runInBackground. Это запускает поток и возвращает объект, который будет автоматически заполняться по мере записи материала в stdout/stderr, не блокируя ваш основной поток.

наслаждайтесь!