博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
python之进程
阅读量:6368 次
发布时间:2019-06-23

本文共 8410 字,大约阅读时间需要 28 分钟。

1,什么是进程呢?

进程(Process)是计算机中的关于某数据集合上的一次运算,是系统进行资源分配和调度的基本单位,是操作系统结构的基础。进程是程序的实体。

动态性:进程的实质是程序在多道程序系统中的一次执行过程,进程是动态产生,动态消亡的。并发性:任何进程都可以同其他进程一起并发执行独立性:进程是一个能独立运行的基本单位,同时也是系统分配资源和调度的独立单位;异步性:由于进程间的相互制约,使进程具有执行的间断性,即进程按各自独立的、不可预知的速度向前推进结构特征:进程由程序、数据和进程控制块三部分组成。多个不同的进程可以包含相同的程序:一个程序在不同的数据集里就构成不同的进程,能得到不同的结果;但是执行过程中,程序不能发生改变。
进程的特征
程序是指令和数据的有序集合,其本身没有任何运行的含义,是一个静态的概念。而进程是程序在处理机上的一次执行过程,它是一个动态的概念。程序可以作为一种软件资料长期存在,而进程是有一定生命期的。程序是永久的,进程是暂时的。
程序与进程的区别

同一个程序执行两次,就会在操作系统中出现两个进程,可以同时运行一个软件,分别做不同的事情也不会混乱。

2,进程调度

要想多个进程交替运行,操作系统必须对这些进程进行调度,需要进程调度算法。

(1)先来先服务调度算法

(2)短作业优先调度算法

(3)时间片轮转发

(4)多级反馈队列:设置多个就绪队列,为各个队列赋予不同优先级。优先级逐个降低,当一个程序在时间片仍未执行完,便加入到下一对列,直到执行完。每当有新进程进来,优先执行。

3,进程的并行与并发

并行:并行是指两者同时执行,例:比赛,两个人都在不停的往前跑(资源够用。比如三个线程,四核的cpu)

并发:并发是指在资源有限的情况下,两者交替轮流使用资源。(单核cpu)A走一段hou

,让B走一段,B用完后在给A,交替使用。

区别:

并行:是从微观上,就是在一个精确的时间片刻,有不同的程序在执行,要求必须有多个处理器。

并发:是从宏观上,在一个时间段可以看出同时执行的,比如一个服务器同时处理多个session

4,同步异步阻塞非阻塞

操作系统调度算法控制时,程序会进入几个状态:就绪,运行,阻塞。

(1)同步与异步

同步:完成一个任务需要依赖另一个任务,只等别依赖的任务完成后,才能执行自己的。

异步:不需要等待依赖任务完后成,只需通知被依赖的任务执行。

(2)阻塞非阻塞

阻塞:程序停止不在执行

5,进程的创建与结束

multiprocess模块

(1)

Process([group [, target [, name [, args [, kwargs]]]]]),由该类实例化得到的对象,表示一个子进程中的任务(尚未启动)强调:1. 需要使用关键字的方式来指定参数2. args指定的为传给target函数的位置参数,是一个元组形式,必须有逗号参数介绍:1 group参数未使用,值始终为None2 target表示调用对象,即子进程要执行的任务3 args表示调用对象的位置参数元组,args=(1,2,'egon',)4 kwargs表示调用对象的字典,kwargs={
'name':'egon','age':18}5 name为子进程的名称
View Code
1 p.start():启动进程,并调用该子进程中的p.run() 2 p.run():进程启动时运行的方法,正是它去调用target指定的函数,我们自定义类的类中一定要实现该方法  3 p.terminate():强制终止进程p,不会进行任何清理操作,如果p创建了子进程,该子进程就成了僵尸进程,使用该方法需要特别小心这种情况。如果p还保存了一个锁那么也将不会被释放,进而导致死锁4 p.is_alive():如果p仍然运行,返回True5 p.join([timeout]):主线程等待p终止(强调:是主线程处于等的状态,而p是处于运行的状态)。timeout是可选的超时时间,需要强调的是,p.join只能join住start开启的进程,而不能join住run开启的进程
方法
1 p.daemon:默认值为False,如果设为True,代表p为后台运行的守护进程,当p的父进程终止时,p也随之终止,并且设定为True后,p不能创建自己的新进程,必须在p.start()之前设置2 p.name:进程的名称3 p.pid:进程的pid4 p.exitcode:进程在运行时为None、如果为–N,表示被信号N结束(了解即可)5 p.authkey:进程的身份验证键,默认是由os.urandom()随机生成的32字符的字符串。这个键的用途是为涉及网络连接的底层进程间通信提供安全性,这类连接只有在具有相同的身份验证键时才能成功(了解即可)
属性
在Windows操作系统中由于没有fork(linux操作系统中创建进程的机制),在创建子进程的时候会自动 import 启动它的这个文件,而在 import 的时候又执行了整个文件。因此如果将process()直接写在文件中就会无限递归创建子进程报错。所以必须把创建子进程的部分使用if __name__ ==‘__main__’ 判断保护起来,import 的时候  ,就不会递归运行了。
注意事项
# from  multiprocessing import Process# import os# def func(i):#     print('%d:子进程%d干的事,父进程:%d'%(i,os.getpid(),os.getppid()))## if __name__=='__main__':#     p_lst=[]#     for i in range(10):#         p=Process(target=func,args=(i,))#         p.start()#         p_lst.append(p)#     # p.join()                         #等子进程执行完,才执行下面的#     for p in p_lst:p.join()#     print('---主进程---')

多进程同时运行,子进程的执行顺序不是根据启动顺序决定的。

(2)通过继承Process类开启进程。

import osfrom multiprocessing import Processclass MyProcess(Process):    def __init__(self,name):        super().__init__()        self.name=name    def run(self):                                 #必须有run方法        print(os.getpid())        print('%s 正在和女主播聊天' %self.name)p1=MyProcess('wupeiqi')p2=MyProcess('yuanhao')p3=MyProcess('nezha')p1.start() #start会自动调用runp2.start()# p2.run()p3.start()p1.join()p2.join()p3.join()print('主线程')

注:进程之间的数据不是共享的(数据的隔离问题)

from multiprocessing import Processdef work():    global n    n=0    print('子进程内: ',n)if __name__ == '__main__':    n = 100    p=Process(target=work)    p.start()    print('主进程内: ',n)

5,守护进程

子进程会随主进程的结束而结束。

主进程创建守护进程

       其一:守护进程会在主进程代码执行结束后终止

       其二:守护进程内无法再开子进程,否则抛异常。

 

# start  开启一个进程# join   用join可以让主进程等待子进程结束# 守护进程# 守护进程会随着主进程的代码执行结束而结束# 正常的子进程没有执行完的时候主进程要一直等着import timefrom multiprocessing import Processdef func():    print('--'*10)    time.sleep(15)    print('--'*10)def cal_time():    while True:        time.sleep(1)        print('过去了1秒')if __name__ == '__main__':    p = Process(target=cal_time)    p.daemon = True     # 一定在开启进程之前设置    p.start()    p2 = Process(target=func)  # 15s    p2.start()    for i in range(100):    # 10s        time.sleep(0.1)        print('*'*i)    p2.join()# 守护进程的进程的作用:    # 会随着主进程的代码执行结束而结束,不会等待其他子进程# 守护进程 要在start之前设置# 守护进程中 不能再开启子进程
View Code

6,锁

  当多个进程使用同一份数据资源的时候,就会引发数据安全或顺序混乱问题

from multiprocessing import Lock

import timeimport jsonimport randomfrom multiprocessing import Lockfrom multiprocessing import Processdef search(i):    with open('ticket') as f:        print(i,json.load(f)['count'])def get(i):    with open('ticket') as f :        ticket_num=json.load(f)['count']    time.sleep(random.random())    if ticket_num>0:        with open('ticket','w') as f:            json.dump({
'count':ticket_num-1},f) print('%s买到票了'%i) else: print('%s没买到票'%i)def task(i,lock): search(i) lock.acquire() #锁,钥匙 get(i) lock.release() #还钥匙if __name__=='__main__': lock=Lock() for i in range(20): p=Process(target=task,args=(i,lock)) p.start()
抢票的例子
#加锁可以保证多个进程修改同一块数据时,同一时间只能有一个任务可以进行修改,即串行的修改,没错,速度是慢了,但牺牲了速度却保证了数据安全。虽然可以用文件共享数据实现进程间通信,但问题是:1.效率低(共享数据基于文件,而文件是硬盘上的数据)2.需要自己加锁处理#因此我们最好找寻一种解决方案能够兼顾:1、效率高(多个进程共享一块内存的数据)2、帮我们处理好锁问题。这就是mutiprocessing模块为我们提供的基于消息的IPC通信机制:队列和管道。队列和管道都是将数据存放于内存中队列又是基于(管道+锁)实现的,可以让我们从复杂的锁问题中解脱出来,我们应该尽量避免使用共享数据,尽可能使用消息传递和队列,避免处理复杂的同步和锁问题,而且在进程数目增多时,往往可以获得更好的可获展性。

7,信号量(from multiprocessing import Semaphore)

信号量基于内部的计数器,可以有多个锁钥匙。

import randomimport timefrom multiprocessing import Processfrom multiprocessing import Semaphoredef sing(i,sem):    sem.acquire()    print('%s :进去 ktv '%i)    time.sleep(random.randint(2,8))    print('%s : 离开 ktv'%i)    sem.release()if __name__=='__main__':    sem=Semaphore(5)          #钥匙数,参数可以设置    for i in range(20):        Process(target=sing,args=(i,sem)).start()
例子

8,事件(from multiprocessing import Event)

python线程的事件用于主线程控制其他线程的执行,事件主要提供了三个方法 set、wait、clear。    事件处理的机制:全局定义了一个“Flag”,如果“Flag”值为 False,那么当程序执行 event.wait 方法时就会阻塞,如果“Flag”值为True,那么event.wait 方法时便不再阻塞。clear:将“Flag”设置为Falseset:将“Flag”设置为True
介绍
# import time# import random# from multiprocessing import Process# from multiprocessing import Event## def traffic_light(e):#     while True:#         if e.is_set():         # e.is_set()是否阻塞 True就是绿灯 False就是红灯#             time.sleep(3)#             print('红灯亮')#             e.clear()        #         else:#             time.sleep(3)#             print('绿灯亮')#             e.set()# def car(i,e):#     e.wait()#     print('%s车通过'%i)## if __name__=='__main__':#     e=Event()#     tra=Process(target=traffic_light,args=(e,))#     tra.start()#     for i in range(100):#         if i%6 == 0:#             time.sleep(random.randint(1,3))#         car_pro=Process(target=car,args=(i,e))#         car_pro.start()
例子

9,队列(from multiprocessing import Queue)

创建共享的进程队列,Queue是多进程安全的队列,可以使用Queue实现多进程之间的数据传递。

Queue([maxsize]) 创建共享的进程队列。maxsize是队列中允许的最大项数。如果省略此参数,则无大小限制。底层队列使用管道和锁定实现。另外,还需要运行支持线程以便队列中的数据传输到底层管道中。 Queue的实例q具有以下方法:q.get( [ block [ ,timeout ] ] ) 返回q中的一个项目。如果q为空,此方法将阻塞,直到队列中有项目可用为止。block用于控制阻塞行为,默认为True. 如果设置为False,将引发Queue.Empty异常(定义在Queue模块中)。timeout是可选超时时间,用在阻塞模式中。如果在制定的时间间隔内没有项目变为可用,将引发Queue.Empty异常。q.get_nowait( ) 同q.get(False)方法。q.put(item [, block [,timeout ] ] ) 将item放入队列。如果队列已满,此方法将阻塞至有空间可用为止。block控制阻塞行为,默认为True。如果设置为False,将引发Queue.Empty异常(定义在Queue库模块中)。timeout指定在阻塞模式中等待可用空间的时间长短。超时后将引发Queue.Full异常。q.qsize() 返回队列中目前项目的正确数量。此函数的结果并不可靠,因为在返回结果和在稍后程序中使用结果之间,队列中可能添加或删除了项目。在某些系统上,此方法可能引发NotImplementedError异常。q.empty() 如果调用此方法时 q为空,返回True。如果其他进程或线程正在往队列中添加项目,结果是不可靠的。也就是说,在返回和使用结果之间,队列中可能已经加入新的项目。q.full() 如果q已满,返回为True. 由于线程的存在,结果也可能是不可靠的(参考q.empty()方法)。
方法介绍
#1.进程之间通信 可以使用multiprocessing 的 Queue模块#2.队列有两种创建方式 第一种不传参数 这个队列就没有长度限制 ;传参数,创建一个有最大长度限制的队列#3.提供两个重要方法;put get#4.qsizefrom multiprocessing import Processfrom multiprocessing import Queue# def q_put(q):#     q.put('hello')## def q_get(q):#     print(q.get())## if __name__ =='__main__':#     q = Queue()#     p = Process(target=q_put,args=(q,))#     p.start()#     p1 = Process(target=q_get, args=(q,))#     p1.start()
View Code

生产者消费者模型

# 通过队列实现了 主进程与子进程的通信   子进程与子进程之间的通信# 生产者消费者模型# 我要生产一个数据 然后 给一个函数 让这个函数依赖这个数据进行运算  拿到结果  —— 同步过程# 做包子 和 吃包子import timedef producer(q):  # 生产者    for i in  range(100):        q.put('包子%s'%i)def consumer(q): #  消费者    for i in range(100):        time.sleep(1)        print(q.get())if __name__ == '__main__':    q = Queue(10)   # 托盘    p = Process(target=producer,args=(q,))    p.start()    c1 = Process(target=consumer, args=(q,))    c2 = Process(target=consumer, args=(q,))    c1.start()    c2.start()# 首先 对于内存空间来说 每次只有很少的数据会在内存中# 对于生产与消费之间的不平衡来说    # 增加消费者或者增加生产者来调节效率
View Code

 

转载于:https://www.cnblogs.com/glf1160/p/8406014.html

你可能感兴趣的文章
地图点聚合优化方案
查看>>
Google Chrome 快捷方式
查看>>
备考PMP心得体会
查看>>
vue proxy匹配规则
查看>>
线上应用故障排查之一:高CPU占用
查看>>
Extend Volume 操作 - 每天5分钟玩转 OpenStack(56)
查看>>
IronPython教程
查看>>
squid via检测转发循环
查看>>
计算分页
查看>>
iptables 做nat路由器脚本
查看>>
数据结构(C语言版)第三章:栈和队列
查看>>
Stopping and/or Restarting an embedded Jetty in...
查看>>
Oracle存储过程中的数据集输入参数
查看>>
vsftp 配置
查看>>
VCSA中配置时间和时区,实测至6.5适用
查看>>
高并发IM系统架构优化实践
查看>>
产品经理教你玩转阿里云负载均衡SLB系列(一):快速入门--什么是负载均衡
查看>>
有关linux--进程组、会话、守护进程详解
查看>>
我的友情链接
查看>>
monkeyrunner运行Python脚本来检查apk渠道和验证是否可以调用微信
查看>>