⑴ 调度算法的调度算法
在操作系统中调度是指一种资源分配,因而调度算法是指:根据系统的资源分配策略所规定的资源分配算法。对于不同的的系统和系统目标,通常采用不同的调度算法,例如,在批处理系统中,为了照顾为数众多的段作业,应采用短作业优先的调度算法;又如在分时系统中,为了保证系统具有合理的响应时间,应当采用轮转法进行调度。目前存在的多种调度算法中,有的算法适用于作业调度,有的算法适用于进程调度;但也有些调度算法既可以用于作业调度,也可以用于进程调度。
通常将作业或进程归入各种就绪或阻塞队列。
调度算法要求:高资源利用率、高吞吐量、用户满意等原则。
进程调度所采用的算法是与整个系统的设计目标相一致的:
1.批处理系统:增加系统吞吐量和提高系统资源的利用率;
2.分时系统:保证每个分时用户能容忍的响应时间。
3.实时系统:保证对随机发生的外部事件做出实时响应。
⑵ 什么是实时调度它与非实时调度有什么区别
答:实时调度是为了完成实时处理任务而分配计算机处理器的调度方法。
实时处理任务要求计算机在用户允许的时限范围内给出计算机响应信号。实时处理任务可分为
硬实时任务(hardrea[—timetask)和软实时任务(softreal—timetask)。硬实时任务要求计算
机系统必须在用户给定的时限内处理完毕,软实时任务允许计算机系统在用户给定的时限左右
处理完毕。
针对硬实时任务和软实时任务,计算机系统可以有不同的实时调度算法。这些算法采用基于优
先级的抢先式调度策略,具体地说,大致有如下几类:
(1)静态表驱动模式。该模式用于周期性实时调度,它在任务到达之前对各任务抢占处理机的
时间进行分析,并根据分析结果进行调度。
(2)静态优先级驱动的抢先式调度模式。该模式也进行静态分析。分析结果不是用于调度,只是
用于给各任务指定优先级。系统根据各任务的优先级进行抢先式调度。
(3)基于计划的动态模式。该模式在新任务到达后,将以前调度过的任务与新到达的任务一起统
一计划,分配CPU时间。
(4)动态尽力而为模式。该模式不进行任何关于资源利用率的分析,只检查各任务的时限是否能
得到满足。
代表性的实时调度算法有两种。即时限式调度法(deadlinescheling)和频率单调调度法
(ratemonotonicscheling)。
实时调度与非实时调度的主要区别是:
(1)实时调度所调度的任务有完成时限,而非实时调度没有。从而,实时调度算法的正确与否不
仅与算法的逻辑有关,也与调度算法调度的时限有关。
(2)实时调度要求较快的进程或线程切换时间,而非实时调度的进程或线程的切换时间较长。
(3)非实时调度强调资源利用率(批处理系统)或用户共享处理机(分时系统),实时调度则主要强
调在规定时限范围内完成对相应设备的控制。
(4)实时调度为抢先式调度,而非实时调度则很少采用抢先式调度
⑶ 求进程调度算法
第一部分: 实时调度算法介绍
对于什么是实时系统,POSIX 1003.b作了这样的定义:指系统能够在限定的响应时间内提供所需水平的服务。而一个由Donald Gillies提出的更加为大家接受的定义是:一个实时系统是指计算的正确性不仅取决于程序的逻辑正确性,也取决于结果产生的时间,如果系统的时间约束条件得不到满足,将会发生系统出错。
实时系统根据其对于实时性要求的不同,可以分为软实时和硬实时两种类型。硬实时系统指系统要有确保的最坏情况下的服务时间,即对于事件的响应时间的截止期限是无论如何都必须得到满足。比如航天中的宇宙飞船的控制等就是现实中这样的系统。其他的所有有实时特性的系统都可以称之为软实时系统。如果明确地来说,软实时系统就是那些从统计的角度来说,一个任务(在下面的论述中,我们将对任务和进程不作区分)能够得到有确保的处理时间,到达系统的事件也能够在截止期限到来之前得到处理,但违反截止期限并不会带来致命的错误,像实时多媒体系统就是一种软实时系统。
一个计算机系统为了提供对于实时性的支持,它的操作系统必须对于CPU和其他资源进行有效的调度和管理。在多任务实时系统中,资源的调度和管理更加复杂。本文下面将先从分类的角度对各种实时任务调度算法进行讨论,然后研究普通的 linux操作系统的进程调度以及各种实时Linux系统为了支持实时特性对普通Linux系统所做的改进。最后分析了将Linux操作系统应用于实时领域中时所出现的一些问题,并总结了各种实时Linux是如何解决这些问题的。
1. 实时CPU调度算法分类
各种实时操作系统的实时调度算法可以分为如下三种类别[Wang99][Gopalan01]:基于优先级的调度算法(Priority-driven scheling-PD)、基于CPU使用比例的共享式的调度算法(Share-driven scheling-SD)、以及基于时间的进程调度算法(Time-driven scheling-TD),下面对这三种调度算法逐一进行介绍。
1.1. 基于优先级的调度算法
基于优先级的调度算法给每个进程分配一个优先级,在每次进程调度时,调度器总是调度那个具有最高优先级的任务来执行。根据不同的优先级分配方法,基于优先级的调度算法可以分为如下两种类型[Krishna01][Wang99]:
静态优先级调度算法:
这种调度算法给那些系统中得到运行的所有进程都静态地分配一个优先级。静态优先级的分配可以根据应用的属性来进行,比如任务的周期,用户优先级,或者其它的预先确定的策略。RM(Rate-Monotonic)调度算法是一种典型的静态优先级调度算法,它根据任务的执行周期的长短来决定调度优先级,那些具有小的执行周期的任务具有较高的优先级。
动态优先级调度算法:
这种调度算法根据任务的资源需求来动态地分配任务的优先级,其目的就是在资源分配和调度时有更大的灵活性。非实时系统中就有很多这种调度算法,比如短作业优先的调度算法。在实时调度算法中, EDF算法是使用最多的一种动态优先级调度算法,该算法给就绪队列中的各个任务根据它们的截止期限(Deadline)来分配优先级,具有最近的截止期限的任务具有最高的优先级。
1.2. 基于比例共享调度算法
虽然基于优先级的调度算法简单而有效,但这种调度算法提供的是一种硬实时的调度,在很多情况下并不适合使用这种调度算法:比如象实时多媒体会议系统这样的软实时应用。对于这种软实时应用,使用一种比例共享式的资源调度算法(SD算法)更为适合。
比例共享调度算法指基于CPU使用比例的共享式的调度算法,其基本思想就是按照一定的权重(比例)对一组需要调度的任务进行调度,让它们的执行时间与它们的权重完全成正比。
我们可以通过两种方法来实现比例共享调度算法[Nieh01]:第一种方法是调节各个就绪进程出现在调度队列队首的频率,并调度队首的进程执行;第二种做法就是逐次调度就绪队列中的各个进程投入运行,但根据分配的权重调节分配个每个进程的运行时间片。
比例共享调度算法可以分为以下几个类别:轮转法、公平共享、公平队列、彩票调度法(Lottery)等。
比例共享调度算法的一个问题就是它没有定义任何优先级的概念;所有的任务都根据它们申请的比例共享CPU资源,当系统处于过载状态时,所有的任务的执行都会按比例地变慢。所以为了保证系统中实时进程能够获得一定的CPU处理时间,一般采用一种动态调节进程权重的方法。
1.3. 基于时间的进程调度算法
对于那些具有稳定、已知输入的简单系统,可以使用时间驱动(Time-driven:TD)的调度算法,它能够为数据处理提供很好的预测性。这种调度算法本质上是一种设计时就确定下来的离线的静态调度方法。在系统的设计阶段,在明确系统中所有的处理情况下,对于各个任务的开始、切换、以及结束时间等就事先做出明确的安排和设计。这种调度算法适合于那些很小的嵌入式系统、自控系统、传感器等应用环境。
这种调度算法的优点是任务的执行有很好的可预测性,但最大的缺点是缺乏灵活性,并且会出现有任务需要被执行而CPU却保持空闲的情况。
2. 通用Linux系统中的CPU调度
通用Linux系统支持实时和非实时两种进程,实时进程相对于普通进程具有绝对的优先级。对应地,实时进程采用SCHED_FIFO或者SCHED_RR调度策略,普通的进程采用SCHED_OTHER调度策略。
在调度算法的实现上,Linux中的每个任务有四个与调度相关的参数,它们是rt_priority、policy、priority(nice)、counter。调度程序根据这四个参数进行进程调度。
在SCHED_OTHER 调度策略中,调度器总是选择那个priority+counter值最大的进程来调度执行。从逻辑上分析,SCHED_OTHER调度策略存在着调度周期(epoch),在每一个调度周期中,一个进程的priority和counter值的大小影响了当前时刻应该调度哪一个进程来执行,其中 priority是一个固定不变的值,在进程创建时就已经确定,它代表了该进程的优先级,也代表这该进程在每一个调度周期中能够得到的时间片的多少; counter是一个动态变化的值,它反映了一个进程在当前的调度周期中还剩下的时间片。在每一个调度周期的开始,priority的值被赋给 counter,然后每次该进程被调度执行时,counter值都减少。当counter值为零时,该进程用完自己在本调度周期中的时间片,不再参与本调度周期的进程调度。当所有进程的时间片都用完时,一个调度周期结束,然后周而复始。另外可以看出Linux系统中的调度周期不是静态的,它是一个动态变化的量,比如处于可运行状态的进程的多少和它们priority值都可以影响一个epoch的长短。值得注意的一点是,在2.4以上的内核中, priority被nice所取代,但二者作用类似。
可见SCHED_OTHER调度策略本质上是一种比例共享的调度策略,它的这种设计方法能够保证进程调度时的公平性--一个低优先级的进程在每一个epoch中也会得到自己应得的那些CPU执行时间,另外它也提供了不同进程的优先级区分,具有高priority值的进程能够获得更多的执行时间。
对于实时进程来说,它们使用的是基于实时优先级rt_priority的优先级调度策略,但根据不同的调度策略,同一实时优先级的进程之间的调度方法有所不同:
SCHED_FIFO:不同的进程根据静态优先级进行排队,然后在同一优先级的队列中,谁先准备好运行就先调度谁,并且正在运行的进程不会被终止直到以下情况发生:1.被有更高优先级的进程所强占CPU;2.自己因为资源请求而阻塞;3.自己主动放弃CPU(调用sched_yield);
SCHED_RR:这种调度策略跟上面的SCHED_FIFO一模一样,除了它给每个进程分配一个时间片,时间片到了正在执行的进程就放弃执行;时间片的长度可以通过sched_rr_get_interval调用得到;
由于Linux系统本身是一个面向桌面的系统,所以将它应用于实时应用中时存在如下的一些问题:
Linux系统中的调度单位为10ms,所以它不能够提供精确的定时;
当一个进程调用系统调用进入内核态运行时,它是不可被抢占的;
Linux内核实现中使用了大量的封中断操作会造成中断的丢失;
由于使用虚拟内存技术,当发生页出错时,需要从硬盘中读取交换数据,但硬盘读写由于存储位置的随机性会导致随机的读写时间,这在某些情况下会影响一些实时任务的截止期限;
虽然Linux进程调度也支持实时优先级,但缺乏有效的实时任务的调度机制和调度算法;它的网络子系统的协议处理和其它设备的中断处理都没有与它对应的进程的调度关联起来,并且它们自身也没有明确的调度机制;
3. 各种实时Linux系统
3.1. RT-Linux和RTAI
RT -Linux是新墨西哥科技大学(New Mexico Institute of Technology)的研究成果[RTLinuxWeb][Barabanov97]。它的基本思想是,为了在Linux系统中提供对于硬实时的支持,它实现了一个微内核的小的实时操作系统(我们也称之为RT-Linux的实时子系统),而将普通Linux系统作为一个该操作系统中的一个低优先级的任务来运行。另外普通Linux系统中的任务可以通过FIFO和实时任务进行通信。RT-Linux的框架如图 1所示:
图 1 RT-Linux结构
RT -Linux的关键技术是通过软件来模拟硬件的中断控制器。当Linux系统要封锁CPU的中断时时,RT-Linux中的实时子系统会截取到这个请求,把它记录下来,而实际上并不真正封锁硬件中断,这样就避免了由于封中断所造成的系统在一段时间没有响应的情况,从而提高了实时性。当有硬件中断到来时, RT-Linux截取该中断,并判断是否有实时子系统中的中断例程来处理还是传递给普通的Linux内核进行处理。另外,普通Linux系统中的最小定时精度由系统中的实时时钟的频率决定,一般Linux系统将该时钟设置为每秒来100个时钟中断,所以Linux系统中一般的定时精度为 10ms,即时钟周期是10ms,而RT-Linux通过将系统的实时时钟设置为单次触发状态,可以提供十几个微秒级的调度粒度。
RT-Linux实时子系统中的任务调度可以采用RM、EDF等优先级驱动的算法,也可以采用其他调度算法。
RT -Linux对于那些在重负荷下工作的专有系统来说,确实是一个不错的选择,但他仅仅提供了对于CPU资源的调度;并且实时系统和普通Linux系统关系不是十分密切,这样的话,开发人员不能充分利用Linux系统中已经实现的功能,如协议栈等。所以RT-Linux适合与工业控制等实时任务功能简单,并且有硬实时要求的环境中,但如果要应用与多媒体处理中还需要做大量的工作。
意大利的RTAI( Real-Time Application Interface )源于RT-Linux,它在设计思想上和RT-Linux完全相同。它当初设计目的是为了解决RT-Linux难于在不同Linux版本之间难于移植的问题,为此,RTAI在 Linux 上定义了一个实时硬件抽象层,实时任务通过这个抽象层提供的接口和Linux系统进行交互,这样在给Linux内核中增加实时支持时可以尽可能少地修改 Linux的内核源代码。
3.2. Kurt-Linux
Kurt -Linux由Kansas大学开发,它可以提供微秒级的实时精度[KurtWeb] [Srinivasan]。不同于RT-Linux单独实现一个实时内核的做法,Kurt -Linux是在通用Linux系统的基础上实现的,它也是第一个可以使用普通Linux系统调用的基于Linux的实时系统。
Kurt-Linux将系统分为三种状态:正常态、实时态和混合态,在正常态时它采用普通的Linux的调度策略,在实时态只运行实时任务,在混合态实时和非实时任务都可以执行;实时态可以用于对于实时性要求比较严格的情况。
为了提高Linux系统的实时特性,必须提高系统所支持的时钟精度。但如果仅仅简单地提高时钟频率,会引起调度负载的增加,从而严重降低系统的性能。为了解决这个矛盾, Kurt-Linux采用UTIME所使用的提高Linux系统中的时钟精度的方法[UTIMEWeb]:它将时钟芯片设置为单次触发状态(One shot mode),即每次给时钟芯片设置一个超时时间,然后到该超时事件发生时在时钟中断处理程序中再次根据需要给时钟芯片设置一个超时时间。它的基本思想是一个精确的定时意味着我们需要时钟中断在我们需要的一个比较精确的时间发生,但并非一定需要系统时钟频率达到此精度。它利用CPU的时钟计数器TSC (Time Stamp Counter)来提供精度可达CPU主频的时间精度。
对于实时任务的调度,Kurt-Linux采用基于时间(TD)的静态的实时CPU调度算法。实时任务在设计阶段就需要明确地说明它们实时事件要发生的时间。这种调度算法对于那些循环执行的任务能够取得较好的调度效果。
Kurt -Linux相对于RT-Linux的一个优点就是可以使用Linux系统自身的系统调用,它本来被设计用于提供对硬实时的支持,但由于它在实现上只是简单的将Linux调度器用一个简单的时间驱动的调度器所取代,所以它的实时进程的调度很容易受到其它非实时任务的影响,从而在有的情况下会发生实时任务的截止期限不能满足的情况,所以也被称作严格实时系统(Firm Real-time)。目前基于Kurt-Linux的应用有:ARTS(ATM Reference Traffic System)、多媒体播放软件等。另外Kurt-Linux所采用的这种方法需要频繁地对时钟芯片进行编程设置。
3.3. RED-Linux
RED -Linux是加州大学Irvine分校开发的实时Linux系统[REDWeb][ Wang99],它将对实时调度的支持和Linux很好地实现在同一个操作系统内核中。它同时支持三种类型的调度算法,即:Time-Driven、 Priority-Dirven、Share-Driven。
为了提高系统的调度粒度,RED-Linux从RT-Linux那儿借鉴了软件模拟中断管理器的机制,并且提高了时钟中断频率。当有硬件中断到来时,RED-Linux的中断模拟程序仅仅是简单地将到来的中断放到一个队列中进行排队,并不执行真正的中断处理程序。
另外为了解决Linux进程在内核态不能被抢占的问题, RED-Linux在Linux内核的很多函数中插入了抢占点原语,使得进程在内核态时,也可以在一定程度上被抢占。通过这种方法提高了内核的实时特性。
RED-Linux的设计目标就是提供一个可以支持各种调度算法的通用的调度框架,该系统给每个任务增加了如下几项属性,并将它们作为进程调度的依据:
Priority:作业的优先级;
Start-Time:作业的开始时间;
Finish-Time:作业的结束时间;
Budget:作业在运行期间所要使用的资源的多少;
通过调整这些属性的取值及调度程序按照什么样的优先顺序来使用这些属性值,几乎可以实现所有的调度算法。这样的话,可以将三种不同的调度算法无缝、统一地结合到了一起。
⑷ 计算机实时操作系统的特点是
1、在规定的时间内完成对该事件的处理,并控制所有实时任务协调一致地运行。虽然,多道批处理系统和分时系统已能获得较为令人满意的资源利用率和响应时间,从而使计算机的应用范围日益扩大,但它们仍然不能满足以下某些应用领域的需要。
2、实时控制系统,当把计算机用于生产过程的控制,以形成以计算机为中心的控制系统时,系统要求能实时采集现场数据,并对所采集的数据进行及时处理,进而自动地控制相应的执行机构,使某些(个)参数(如温度、压力、方位等)能按预定的规律变化,以保证产品的质量和提高产量。
3、也可将计算机用于对武器的控制,如火炮的自动控制系统、飞机的自动驾驶系统,以及导弹的制导系统等;实时信息处理系统,该系统由一台或多台主机通过通信线路连接到成百上千个远程终端上,计算机接收从远程终端上发来的服务请求。
根据用户提出的请求对信息进行检索和处理,并在很短的时间内为用户做出正确的响应。如:网上订票,网上购物等。
(4)实时调度算法怎么保证实时性扩展阅读
在系统构架方面,主要分为三层、设备接入层、数据平台层以及基础应用层。其中设备接入层主要负责的是系统与其他设备之间的数据交换及命令出口。
数据平台层是系统数据集成与处理的核心,用于处理和存储实时的和历史的,结构化和非结构化数据。基础应用层是针对物联网应用常用的基础物可视功能,提供2D/3D图形组态工具、可自定义格式的报表工具、执行用户自定义逻辑的脚本系统,以及常用的图表展示工具。
⑸ 实时调度的单处理器实时调度
问题描述:假设一任务集S={t1,t2,t3,...,tn},周期分别是T1,T2,...,Tn,执行时间为c1,c2,...,cn,deadline为D1,D2,...,Dn,Di=Ti。任务ti可以被抢占。
CPU利用率用U=sum(ci/Ti)来表示。对于单处理器,U<=1是S可调度的前提条件,否则S不可调度。 任务按单调速率优先级分配(RMPA)的调度算法,称为单调速率调度(RMS)。RMPA是指任务的优先级按任务周期T来分配。它根据任务的执行周期的长短来决定调度优先级,那些具有小的执行周期的任务具有较高的优先级,周期长的任务优先级低。
不考虑n=1的情况。RMS是单处理器下的最优静态调度算法。1973年Liu和Layland发表的这篇文章的前半部分首次提出了RM调度算法在静态调度中的最优性. 它的一个特点是可通过对系统资源利用率的计算来进行任务可调度性分析, 算法简单、有效, 便于实现。不仅如此, 他们还把系统的利用系数(utilization factor)和系统可调度性联系起来, 推导出用RM调度所能达到的最小系统利用率公式. 同时, 这篇论文中透露出来的证明思想和方法也被人们所效仿. 下面就让我们来看看这篇文章中关于RM调度算法的重要结论。
任何一个结论都有一个模型假设, 让我们先列出这里的假设:
(A1) 所有的任务请求都是周期性的,必须在限定的时限内完成;
(A2) 任务的作业必须在该任务的下一个作业发生之前完成, 这样避免了考虑队列问题; 在这里, 我们对任务和作业不作特别的区分, 因为一个任务请求就是一个作业。
(A3) 任务之间都是独立的,每个任务的请求不依赖于其他任务请求的开始或完成;
(A4) 每个任务的运行时间是不变的,这里任务的运行时间是指处理器在无中断情况下用于处理该任务的时间;
(A5) 所有的非周期性任务都在特殊的情况下运行,比如系统初始化或系统非正常紧急处理程序。
(A6) 其它一些假设, 比如, 单处理器, 可抢占调度, 任务切换的时间忽略不计等等。 (1) 任务T i (P i, Ci, D i) 模型: 周期为P i,计算时间为Ci, 时限D i 为周期终点。任务在周期起点释放, 高优先级任务可抢占低优先级任务的执行。
(2) 优先级分配方法: 静态固定分配。优先级与周期成反比, 周期越短优先级越高。
(3) 可调度性分析: 如果任务集满足下式, 则该任务集可调度。
定理1:n个独立的周期任务可以被RMPA调度,如果U<=n(2^(1/n)-1)。
一个任务的响应时间(response time)是指一个任务请求到这个任务实际完成的时间跨度. 在静态调度中, 任务的临界时刻(critical instant)这个概念被首先提出来. 它被定义为一个特定的时刻, 如果在这个时刻任务请求到来, 那么会导致这个任务的响应时间最大(A critical instant of a task is the time atwhich the release of a task will proce the largestresponse time). 由此得出
定理1: 一个任务的临界时刻就是比这个任务优先级高的所有任务同时发出请求的时刻.
(Lemma: For any task, the critical instant occurs if thattask is simultaneously released with all higher prioritytasks .)
证明: 由于一个任务的响应时间是它自己的负载时间加上被其它优先级高的任务所打断的时间. 由于自己的负载时间是固定的, 我们考虑在什么时候任一高优先级的任务会有最长的打断时间. 显然, 只有当这一高优先级的任务与该任务同时请求处理时, 才能可能产生最大的打断时间.
如果有任务1和任务2,且任务1的优先级比任务2高,那么任务2的响应时间会被任务1延迟。
当任务1的请求到来的更早,那么任务2的响应时间就更长了。
定理1的价值在于它找到了一个用于证明一个调度算法能否调度任一任务集的充分必要条件。那就是所有任务同时请求执行的情况下,每个任务仍能满足各自的期限, 那么这个任务集就可以被这个调度算法调度.
有了这个推论, 我们就可以证明RM调度的最优性了.
定理2: 如果一个任务集能够被静态调度, 那么RMS算法就能够调度这个任务集. 从这个意义上说, RMS是最优的静态调度算法.
这个定理的证明方法就是有名的交换法. 证明思路如下:
假设一个任务集S采用其他静态优先级算法可以调度,那么总有这样两个优先级相邻的任务i和j, 有Ti>Tj,而Pi≤Pj.把Ti和Tj的优先级Pi和Pj互换,明显可以看出这时S仍然可以调度, 因为在所有任务同时请求的情况下, 交换这两个任务不会影响其它任务的完成时间, 同时这两个任务都可以在各自期限内完成. 按照这样的方法,其他任何静态优先级调度最终都可以转换成RM调度.
RMS已被证明是静态最优调度算法, 开销小, 灵活性好, 是实时调度的基础性理论。即使系统瞬时过载, 也完全可预测哪些任务丢失时限。缺点是处理机利用率较低, 最坏的情况下,当n→∞时, 不超过ln2 (≈ 70%)。另外, RMS是充分但非必要条件。而在一般情况下,对于随机的任务集大约只有88%. 70%或者88%的处理器利用率对于许多实时应用来说是一个严重的限制,动态调度算法如最早截止期最先(earliest deadline first,EDF)或者最少空闲时间最先(least laxity first,LLF)已经被证明是最优的,并且能够实现100% 的处理器利用率. 最早截止时间优先算法(EDF)也称为截止时间驱动调度算法(DDS),是一种动态调度算法。EDF指在调度时,任务的优先级根据任务的截止时间动态分配。截止时间越短,优先级越高。EDF有如下定理:
定理2:如果一个任务集按EDF算法调度,当且仅当U<=1。
EDF的特点
(1) 任务模型: 与RMS 调度相同。
(2) 优先级分配方法: 动态分配, 距要求时限所剩时间越短优先级越高。
(3) 可调度性分析: 如果任务集满足下式, 则该任务集可调度。
EDF 调度算法已被证明是动态最优调度, 而且是充要条件。处理机利用率最大可达100% 。但瞬时过载时, 系统行为不可预测, 可能发生多米诺骨牌现象, 一个任务丢失时会引起一连串的任务接连丢失。另外, 它的在线调度开销比RMS大。 最短空闲时间优先算法(LLF)也是一种动态调度算法。LLF指在调度时刻,任务的优先级根据任务的空闲时间动态分配。空闲时间越短,优先级越高。空闲时间=deadline-任务剩余执行时间。LLF可调度条件和EDF相同。
理论上,EDF和LLF算法都是单处理器下的最优调度算法。但是由于EDF和LLF在每个调度时刻都要计算任务的deadline或者空闲时间,并根据计算结果改变任务优先级,因此开销大、不易实现,其应用受到一定限制。
⑹ 进程调度的实时系统
最简单最直观的进程调度策略是基于优先级的调度,多数实时系统采用基于优先级的调度,每个进程根据它重要程度的不同被赋予不同的优先级,调度器在每次调度时,总选择优先级最高的进程开始执行.
首先要考虑的问题是如何分配优先级,对于进程优先级的分配可以采用静态和动态两种方式,静态优先级调度算法:这种调度算法给那些系统中得到运行的所有进程都静态地分配一个优先级.静态优先级的分配可以根据应用的属性来进行,比如进程的周期,用户优先级,或者其它的预先确定的策略.单调率算法(RM)调度算法是一种典型的静态优先级调度算法,它根据进程的执行周期的长短来决定调度优先级,那些具有小的执行周期的进程具有较高的优先级.动态优先级调度算法:这种调度算法根据进程的资源需求来动态地分配进程的优先级,其目的就是在资源分配和调度时有更大的灵活性.在实时系统中,最早期限优先算法(EDF)算法是使用最多的一种动态优先级调度算法,该算法给就绪队列中的各个进程根据它们的截止期限(Deadline)来分配优先级,具有最近的截止期限的进程具有最高的优先级.
分配好优先级之后下一个要考虑的问题是何时让高优先级进程掌握CPU的使用权,这取决于操作系统的内核,有不可抢占式和可抢占式两种.
不可抢占式内核要求每个进程自我放弃CPU的所有权,各个进程彼此合作共享一个CPU.异步事件还是由中断服务来处理.中断服务可以使一个高优先级的进程由挂起状态变为就绪状态.但中断服务以后控制权还是回到原来被中断了的那个进程,直到该进程主动放弃CPU的使用权时,那个高优先级的进程才能获得CPU的使用权.这就出现了响应时间的问题,高优先级的进程已经进入了就绪状态但不能执行,这样进程的响应时间变得不再确定这与实时系统的要求不符,因此一般的实时操作系统都要求是可抢占式的内核,当一个运行着的进程使一个比它优先级高的进程进入了就绪态,当前进程的CPU使用权就被剥夺了,或者说被挂起了,那个高优先级的进程立刻得到了CPU的控制权,如果是中断服务子程序使一个高优先级的进程进入就绪态,中断完成时,中断了的进程被挂起,优先级高的那个进程开始运行.在这种内核设置下,多个进程可能处于并发的状态,这就出现了多个进程共享资源的情况,因此我们需要设置信号量来保证临界资源的正确使用,任何一个想使用临界资源的进程在进入临界区之前必须拥有使用临界资源的信号量,否则不可以执行临界区代码.
这样基于优先级的可抢占式进程调度策略就基本架构完成,但此时仍然有系统崩溃的危险,假设系统中有3个进程,分别为p1,p2和p3. p1的优先权高于p2,而p2的优先权高于p3.恰在此时p1和p2 因某种原因被阻塞,这时候系统调度p3执行.p3执行一段时间后,p1被唤醒.由于采取的是PBP的调度策略,因此p1抢占 p3的CPU, p1执行.p1执行一段时间后要进入临界区,但此时p3占有此临界资源的信号量.因此p1被阻塞,处于等待状态,等待p3 释放此信号量.经过这么一段时间后,p2此时此刻处于就绪状态.因此系统调度p2执行.如果p3在p2的执行期间一直没有能够被调度执行的话,那p1和p3将一直等到p2执行完后才能执行,p1更要等到p3释放它所把持的信号量才能执行;而这段时间完全有可能超出p1的Deadline,使得p1崩溃.我们看到在这个过程中,由于临界资源的使用问题使得优先级低的进程先于优先级高的进程先执行,这就出现了优先级反转的问题,从而造成了系统崩溃,对于这个问题可以采用优先级继承的办法来进行解决.在优先级继承方案中,当高优先级进程在等待低优先级的进程占有的信号量时,让低优先级进程继承高优先级进程的优先级,即把低优先级进程的优先权提高到高优先级进程的优先级;当低优先级进程释放高优先级进程等待的信号量时,立即把其优先权降低到原来的优先权.采用这种方法可以有效地解决上面所述的优先权反转的问题.当高优先级进程p1想要进入临界区时,由于低优先级进程p3占有这个临界资源的信号量,导致p1被阻塞.这时候,系统把p3的优先权升到p1的优先权,此时优先权处于p1和p3之间的进程p2,即使处于就绪状态也不可以被调度执行,因为此时p3的优先权已经高于p2,所以p3此时被调度执行.当p3释放p1需要的信号量时,系统立即把p3的优先权降到原来的高度,来保证p1和p2正常有序执行,有许多实时系统是采用这种方法来防止优先级反转的,如VXWORKS. 对于那些具有稳定,已知输入的简单系统,可以使用时间驱动的调度算法,它能够为数据处理提供很好的预测性.这种调度算法本质上是一种设计时就确定下来的离线的静态调度方法.在系统的设计阶段,在明确系统中所有的处理情况下,对于各个进程的开始,切换,以及结束时间等就事先做出明确的安排和设计.这种调度算法适合于那些很小的嵌入式系统,自控系统,传感器等应用环境.这种调度算法的优点是进程的执行有很好的可预测性,但最大的缺点是缺乏灵活性,并且会出现有进程需要被执行而 CPU 却保持空闲的情况.
对于不同要求下的实时系统可以采用不同的进程调度策略来进行设计,也可以将这些方法进行综合之后得到更适合的调度策略.
⑺ vxworks操作系统如何实现实时性
对你这个话题感兴趣,搜了一下,一起学习:
摘 要: 本文分析了适用于测控领域的4种实时操作系统,并对比了它们实时性能的重要指标,归纳了实时性设计和实现中的若干问题。
引言
20世纪70年代以来嵌入式系统的硬件和软件技术的飞速进步,使得嵌入式应用得到了蓬勃发展,在这些应用中实时操作系统起着决定性的作用。
在复杂测控应用中,必须使用对实时性要求非常高的实时操作系统。例如在工业控制、交通管理、机器人、航空航天、武器装备等领域,系统事件的响应如果不能准时或超时,就可能导致巨大的损失和灾难。因而,选择操作系统时,对实时性的仔细考虑至关重要。本文从实时性的角度细致的分析对比了适用于此类有苛刻实时性要求的4种操作系统——VxWorks、mC/OS-II、RT-Linux、QNX,为系统选型提供一定参考。
实时性能主要实现技术
实时操作系统的实时性是第一要求,需要调度一切可利用的资源完成实时任务。根据响应时间在微秒、毫秒和秒级的不同,可分为强实时、准实时和弱实时三种。强实时系统必须是对即时的事件作出反应,绝对不能错过事件处理时限。例如测控领域就是要求强或接近强实时系统。在机顶盒、PDA、信息家电等应用领域,系统负荷较重的时候,允许发生错过时限的情况而且不会造成太大的危害,准和弱实时系统就可满足应用。一个强实时的操作系统通常使用以下技术:
● 占先式内核
当系统时间响应很重要时,要使用占先式内核。当前最高优先级的任务一旦就绪,总能立即得到CPU的控制权,而CPU的控制权是可知的。使用占先式内核使得任务级响应时间得以最优化。
● 调度策略分析
任务调度策略是直接影响实时性能的因素。强实时系统和准实时系统的实现区别主要在选择调度算法上。选择基于优先级调度的算法足以满足准实时系统的要求,而且可以提供高速的响应和大的系统吞吐率。当两个或两个以上任务有同样优先级,通常用时间片轮转法进行调度。对硬实时系统而言,需要使用的算法就应该是调度方式简单,反应速度快的实时调度算法了。尽管调度算法多种多样,但大多由单一比率调度算法(RMS)和最早期限优先算法(EDF)变化而来。前者主要用于静态周期任务的调度,后者主要用于动态调度,在不同的系统状态下两种算法各有优劣。在商业产品中采用的实际策略常常是各种因素的折中。
● 任务优先级分配
每个任务都有其优先级。任务越重要,赋予的优先级应越高。应用程序执行过程中诸任务优先级不变,则称之为静态优先级。在静态优先级系统中,诸任务以及它们的时间约束在程序编译时是已知的。反之,应用程序执行过程中,任务的优先级是可变的,则称之为动态优先级。
● 时间的可确定性
强实时操作系统的函数调用与服务的执行时间应具有可确定性。系统服务的执行时间不依赖于应用程序任务的多少。系统完成某个确定任务的时间是可预测的。
实时性能重要指标
衡量实时操作系统实时性能的重要指标有:
● 任务切换时间
当多任务内核决定运行另外的任务时,它把正在运行任务的当前状态(即CPU寄存器中的全部内容)保存到任务自己的栈区之中。然后把下一个将要运行的任务的当前状态从该任务的栈中重新装入CPU的寄存器,并开始下一个任务的运行。这个过程就称为任务切换。做任务切换所需要的时间取决于CPU有多少寄存器要入栈。CPU的寄存器越多,额外负荷就越重。
● 中断响应时间(可屏蔽中断)
计算机接收到中断信号到操作系统作出响应,并完成切换转入中断服务程序的时间。对于占先式内核,要先调用一个特定的函数,该函数通知内核即将进行中断服务,使得内核可以跟踪中断的嵌套。占先式内核的中断响应时间由下式给出:
中断响应时间=关中断的最长时间
+保护CPU内部寄存器的时间
+进入中断服务函数的执行时间
+开始执行中断服务例程(ISR)的第
一条指令时间
中断响应时间是系统在最坏情况下响应中断的时间,某系统100次中有99次在50ms之内响应中断,只有一次响应中断的时间是250ms,只能认为中断响应时间是250ms。
表2列出了部分体现实时性能重要指标的典型值,它们的测试平台和测试方法不完全相同,影响了数据的可比性,但我们仍可作为参考。
另外,还有系统响应时间(系统发出处理要求到系统给出应答信号的时间)、最长关中断时间、非屏蔽中断响应时间等辅助的衡量指标。
若干问题
虽然当今的实时操作系统已日臻完善,但仍有一些问题存在并干扰着强实时的实现。我们应充分的重视,并通过合理的安排程序减少它们的危害。
● 优先级反转
这是实时系统中出现得最多的问题。优先级反转是指一个任务等待比它优先级低的任务释放资源而被阻塞,如果这时有中等优先级的就绪任务,阻塞会进一步恶化。它严重影响了实时任务的完成。
为防止发生优先级反转,一些商业内核(如VxWorks)使用了优先级继承技术,当优先级反转发生时,优先级较低的任务被暂时地提高它的优先级,使得该任务能尽快执行,释放出优先级较高的任务所需要的资源。但它也不能完全避免优先级反转,只能称其减轻了优先级反转的程度,减轻了优先级反转对实时任务完成的影响。
优先权极限是另一种解决方案,系统把每一个临界资源与1个极限优先权相联系,这个极限优先权等于系统此时最高优先权加1。当这个任务退出临界区后,系统立即把它的优先权恢复正常,从而保证系统不会出现优先权反转的情况。采用这种方案的另一个有利之处,是仅仅通过改变某个临界资源的优先级就可以使多个任务共享这个临界资源。
● 任务执行时间的抖动
各种实时内核都有将任务延时若干个时钟节拍的功能。优先级的不同、延时请求发生的时间、发出延时请求的任务自身的运行延迟,都会造成被延时任务执行时间不同程度的提前或滞后,称之为任务执行时间的抖动。可能的解决方案有:
a. 增加微处理器的时钟频和时钟节拍的频率;b. 重新安排任务的优先级;c. 避免使用浮点运算等。
强实时系统中,我们必须综合考虑,充分利用各种手段,尽量减少任务执行时间的抖动。
● 任务划分
程序在CPU中是以任务的方式在运行,所以我们要将系统的处理框图转化为多任务流程图,对处理进行任务划分。任务划分存在这样一对矛盾:如果任务太多,必然增加系统任务切换的开销;如果任务太少,系统的并行度就降低了,实时性就比较差。在任务划分时要遵循H.Gomma原则:
a. I/O原则:不同的外设执行不同任务;
b. 优先级原则:不同优先级处理不同的任务;
c. 大量运算:归为一个任务;
d. 功能耦合:归为一个任务;
e. 偶然耦合:归为一个任务;
f. 频率组合:对于周期时间,不同任务处理不同的频率。
如果我们在具体分析一个系统的时候发生原则冲突的话,则要为每一个原则针对具体的系统设定“权重”,必要的时候可以通过计算“权重”来最终确定如何去划分任务。
总结
VxWorks、mC/OS-II、RT-Linux、QNX都是优秀的强实时操作系统,各有特色:VxWorks的衡量指标值最好;mC/OS-II最短小精悍;RT-Linux支持调度策略的改写;QNX支持分布式应用。当我们充分理解和掌握它们实现技术、衡量指标的不同,注意所存在的问题,就能在实时性应用中游刃有余。
来源:[http://www.jdzj.com]机电之家·机电行业电子商务平台!
⑻ 嵌入式操作系统的实时性及其影响因素有哪些
实时性的影响因素?
貌似只跟系统有关吧。确切点,跟操作系统调度有关,跟中断响应处理方式有关。
影响最大的主要还是OS里边的调度方式。
如果要了解,可以看几个流行RTOS的进程调度来对比。
---------------
目前的嵌入式OS中,只有WinCE是实时性较差的。貌似最好的是VxWorks。
我不知道你要应用在什么场合,一般情况下,流行的嵌入式OS的实时性都是足够了。
所谓的实时性,也就是从事件发生到系统响应的时间。
或者更广泛一点,也就是从用户输入一个信息到系统处理完返回给用户的这个反应时间。
这个时间可以划分为几个阶段:
1.中断响应时间;
2.RTOS进程调度响应时间;
3.应用程序响应时间;
细分:
1.中断响应时间:
一般情况下所有外部消息都是通过中断方式来触发的。外部硬件给处理器一个中断,告诉处理器说外部有一个事件需要处理。
处理器对一般外部中断的处理分为快速中断和正常中断。
一般支持中断的嵌套。
这个是有处理器来决定的,当然有些也可以由系统来设置。
不管哪种中断,时间都会是足够短的。不然这样的处理器谁会用?
2.RTOS的进程调度:
中断响应了以后,一般中断函数都是非常简短的,只是变量的设置,记录下外部事件的相关信息。真正的工作一般是在进程中做的。
进程在调度时,如果到该进程运行并且该进程发现中断对变量的改变,则该进程开始进行相应的处理动作。
但进程调度本身,是由多种经典算法的,可以参考OS的理论部分。有些算法实时性稍高,但整体性稍差,有些则相反。正常情况下,不管哪种算法,系统的进程数越少,肯定响应越快;当时处理器的负担越小,响应越快。进程中屏蔽中断的地方越少,则平均响应越快。
按照实时性的严格定义来说,1,2就是全部了。就是从中断开始到进程开始执行为止。从更宽泛来说,从最终用户来说,3还是有必要说下的。
3.应用程序的处理:
进程执行到该任务时,就是应用层要做的事情了。应用程序执行后将结果返回给用户就完事。
正常情况下,3的影响远远大于1,2。
⑼ 实时调度的分布式实时调度
分布式实时调度算法可以分为两类:
1)以RMS为基础的广义RMS调度
2)以风车调度Sr为基础的DSr调度 定义:设?X={Xi}是一个分布式的任务集合,1≤i≤n,分布式系统中有m个节点,对于Xi∈X,Xi={Ti1,?Ti2,…,?Tim},Tij是Xi在Nj节点上的任务,Xi有距离约束ci。对于Tij?有执行时间eij。
定义lk=ck/2“lg(ck/cl), Bik=lk·2lg(ci/lk)”。
ΦNj(lk)=∑eij/Bik,(i=1..n)为调度任务集在节点Nj上的密度。
选择一个使∑ΦNj(lk),j=1..m)最小值的lk作为系统的划分基r*。?
算法前提: 所有的任务有相同的执行节点,每个任务在网络节点上有同样的距离约束。
⑽ linux调度算法的核心思想是什么
第一部分:实时调度算法
什么是实时系统,POSIX 1003.b作了这样的定义:是指系统可以在有限响应时间内提供所需的服务级别。较可取被定义为由Donald乔利士的的:一个实时系统的程序的逻辑正确性不仅取决于计算的准确度,而且还对结果,如果系统时间的限制不能满足将是一个系统错误发生。
基于实时系统的实时性要求的不同,可分为软实时和硬实时两种。硬实时系统是指系统必须确保,在最坏情况下的服务时间,截止日期为事件的响应时间是在任何情况下,必须满足。如航天飞船的控制是这样一个系统的现实。所有其他实时系统的特点,可以称为软实时系统。如果清除,软实时系统是那些从统计学的角度来看,一个任务(在下面的讨论中,我们将有任务和过程不作出区分),以确保系统的处理时间,可以得到事件可以处理的最后期限到来之前,违反的最后期限,并不会带来一个致命的错误,如实时多媒体系统是一种软实时系统。
一台电脑系统的CPU和其他资源进行有效的调度和管理,以提供实时操作系统的支持。的多任务的实时系统中,资源的调度和管理更复杂的。下面讨论本文将从各种实时任务调度算法的分类的角度来看,普通的Linux操作系统进程调度和各种实时Linux系统,然后研究,以支持实时特点,普通的Linux系统的改进。实时领域的一些问题,并总结了各种实时Linux的Linux操作系统,归根到底是如何解决这些问题。
CPU的实时调度算法的分类
多种实时操作系统的实时调度算法可以分为以下三类Wang99] [Gopalan01]:基于优先级调度算法(优先级驱动调度PD),基于在共享的CPU使用率调度算法(分享驱动调度SD)的比例,以及基于时间的进程调度算法(时间驱动调度TD),下面这三种调度算法逐一介绍。
1.1
/>基于优先级的调度算法,基于优先级的调度算法,每个进程被分配一个优先级,每次的进程调度程序,调度程序总是具有最高的调度优先级的任务执行。根据不同的优先级分配方法,基于优先级的调度算法可以分为以下两种类型的Krishna01] [Wang99]:静态优先级调度算法
该算法得到这些系统中运行的所有进程都静态分配一个优先级。静态优先级分配的属性的应用程序,如任务循环中的用户优先级,或其他预先确定的政策。 RM(速率单调)的调度算法是一个典型的静态优先级的调度算法,根据执行的任务的调度优先级的周期的长度确定,那些具有小的执行周期的任务的优先级较高。
动态优先级调度算法:
该算法基于任务的资源需求动态地分配任务的优先级,资源分配和调度的目的更大的灵活性。非实时系统,这种算法有很多,如短作业优先级调度算法。任务的实时调度算法,EDF算法是使用最广泛的动态优先级调度算法,该算法根据他们的截止日期(截止日期)分配优先级的就绪队列中的每个任务,最近期限具有最高的优先级。
1.2
基于优先级调度算法的调度算法是简单而有效的,但这种算法的基础上按比例份额是一个硬实时调度,许多的情况下,不适合使用此算法:例如,软实时应用,如实时多媒体会议系统。对于软实时应用程序,共享资源调度算法(SD算法)的比例使用是更合适的。
比例共享调度算法是指对CPU使用率的比例共享调度算法,其基本思路是按照一定的权重(比率),需要一组调度安排任务,以使它们的权重成比例的执行时间。
要实现比例共享调度算法[Nieh01]有两种方法:第一种方法是调整的准备过程中出现的调度队列队第一频率,并安排一线队的过程中,执行第二种方法是连续调度进程就绪队列中投产,但根据调整分配一个进程的运行时间片分配的权重。
比例共享调度算法可以分为以下类别:循环赛,公平份额,公平排队,的彩票调度方法,(彩票)。
比例共享调度算法的一个问题是,它并没有定义任何优先的概念,所有的任务都根据其应用的CPU资源的比例共享系统过载时,执行的所有任务将较慢比例。因此,为了确保该系统的实时过程中获得一定量的CPU处理时间,一般采用的是动态权重的调整过程。
1.3。基于时间进程调度算法的调度算法
对于那些具有稳定,简单的系统已知输入,您可以使用时间驱动(驱动时间时间:TD)数据处理,它可以提供一个良好的预测。这种调度算法本质上是一个设计定型的离线静态调度方法。在系统的设计阶段,所有处理的情况下,在明确的制度,每个任务切换的开始和结束的时间提前做出了明确的安排和设计。该算法是适用于小型嵌入式系统,自动化控制系统,传感器和其他应用环境。
该算法的优势是良好的可预测性任务的执行,但最大的缺点是缺乏灵活性,而且会有一个任务需要执行,而CPU保持空闲。
一般的Linux系统CPU调度
一般的Linux系统支持实时和非实时两种进程,实时进程与普通进程方面具有绝对的优先权。相应地,实时进程调度策略SCHED_FIFO或SCHED_RR,普通进程SCHED_OTHER调度策略。
每个任务调度算法的实现在Linux四种调度参数,它们是rt_priority优先政策(尼斯),计数器。调度进程调度的基础上,这四个参数。
SCHED_OTHER调度策略,调度程序总是会选择优先级+计数器的值进程调度的执行。从逻辑分析存在SCHED_OTHER调度策略调度处理来执行,其特征在于,所述优先级是一个固定的调度周期(历元),在每个调度周期内的过程中的优先级,计数器的值的大小的影响这一刻已经确定变量值的过程中被创建时,它代表了进程的优先级,也代表数量的时间片,通过该方法可以得到在每个调度周期内,计数器是一个动态值,它反映了当前调度周期的过程中,剩余的时间片。在每个调度周期的开始,分配给优先级值计数器,那么每一次进程被调度运行计数器的值?减少。当计数器的值是零,这个过程已经运行的时间片调度期内,不再参与调度周期进程调度。当所有的进程都用完了时间片调度期结束,然后一遍又一遍。此外,可以看出在Linux系统中的调度周期是不固定的,它的量是动态变化的,例如,在运行的进程的数目和它们的优先级值?可以影响一个划时代的长度。有一点值得注意的是,在2.4内核中,首要任务是不错的替换两个类似的作用。
按比例分担的调度策略调度策略SCHED_OTHER可见的性质,它的这种设计方法,以确保进程调度的公平性 - 一个低优先级进程,在每个时代也将得到他们的份额那些CPU的执行时间,此外,它也提供了不同的进程的优先级,进程执行时间可以得到更多的具有高优先级值。
对于实时的过程中,他们使用基于实时优先级rt_priority的优先级调度策略,但相同的实时优先级的进程调度方法是根据不同的调度策略,
BR /> SCHED_FIFO:不同的进程,根据静态优先级排队,然后在相同的优先级队列,先准备好运行的第一谁调度和运行的进程不会被终止,直到发生以下情况:1。高优先级的进程篡夺了CPU;自己的资源请求受阻;自己主动放弃CPU(呼叫SCHED_YIELD);
SCHED_RR是这样的:这个调度策略SCHED_FIFO与上述完全相同,除了时间片分配给每个进程,正在实施的过程中,给执行时间片,时间片的长度可以通过sched_rr_get_interval调用
由于Linux系统本身是一个桌面导向的系统,因此,它是用于在实时应用中的一些问题:/> /> Linux系统调度单位是10ms,所以它不能提供精确的定时中断; p>当一个进程调用系统调用进入内核模式运行,它不能被抢占;
Linux内核实现大量采用了封闭中断操作损失;
由于使用虚拟内存技术,当发生页面错误时,从硬盘中读取的数据交换的需要,但硬盘读取和写入的存储位置的随机性,将导致随机读取和写入时间,这在某些情况下,会影响实时任务期限;
虽然Linux的进程调度器还支持实时优先级,但由于缺乏有效的实时任务调度机制和调度算法;其网络子协议处理和其它设备的中断处理,调度伴有相应的过程和自己的有没有明确的调度机制;
各种实时Linux系统
Home>的的
3.1 RT-Linux和RTAI
RT-Linux是新墨西哥大学的研究(新墨西哥州技术学院)[RTLinuxWeb] [Barabanov97。其基本思路是,在Linux系统上的硬实时支持,它实现了一个微内核实时操作系统(也被称为RT-Linux的实时子系统),而普通的Linux系统作为一个低优先级任务在操作系统中运行。在正常的Linux系统的另一个任务可以沟通,通过FIFO和实时任务。 RT-Linux的框架如图1所示:
图1 RT-Linux的结构
RT-Linux的关键技术是软件模拟硬件中断控制器。当Linux系统不时阻止CPU中断,实时定量RT-Linux的子系统的请求拦截,爱不释手,而事实上并没有真正阻止硬件中断,从而避免了由于中断造成的封由系统在一段时间内没有响应,从而在改进的实时。当传递给Linux内核的RT-Linux的一个硬件中断到达截取的中断,并确定是否有一个实时子系统中断例程来处理或处理。此外,的最小定时的精度在正常的Linux系统是确定系统的实时时钟的频率,Linux的系统时钟被设置到时钟中断每秒100,所以在Linux的系统定时的精度10毫秒,即时钟周期10ms时,RT-Linux的实时时钟设置为单触发状态,可以提供更多的十几微秒调度粒度。
RT-Linux实时子系统的任务调度优先级驱动算法,RM,EDF等,也可用于其他调度算法。
RT-Linux的专有系统,重型工作,的确是一个不错的选择,但他只提供了CPU资源的调度和实时系统和Linux系统的关系不是非常密切,因此开发人员可以充分利用已在Linux系统中,如协议栈实现的功能。 RT-Linux的工业控制等实时任务简单和硬实时要求的环境,但大量的工作需要做,如果你想应用的多媒体处理。
意大利实时应用程序接口(RTAI)来自RT-Linux的,它是在设计和RT-Linux的思想相同。这是原来的设计中,为了解决问题,RT-Linux的不同版本的Linux之间很难很难移植,RTAI在Linux上定义的实时硬件抽象层,这个抽象层接口提供实时任务Linux系统的相互作用,这可以增加一点可以Linux内核源代码到Linux内核的实时支持。
3.2。 KURT-Linux的
KURT-Linux的堪萨斯大学开发的,它可以提供实时微秒精度[KurtWeb] [斯里尼瓦桑]。与RT-Linux的单独实现一个实时内核,KURT-Linux是常用的Linux系统的基础上实现的,这也是第一个基于Linux的实时系统可以使用普通的Linux系统调用。
KURT-Linux系统分为三种状态:正常状态,实时状态和混合状态,在正常状态下,它使用普通的Linux实时运行状态实时调度策略任务,实时和非实时任务的混合状态,可以执行实时状态可以被用来为实时的要求更加严格。
为了提高Linux系统的实时特性,有必要提高精度的时钟系统的支持。但是,如果只是简单地增加时钟频率将导致调度负载的增加,从而严重降低系统的性能。为了解决这个矛盾,KURT-Linux中使用的时钟精度的方法[UTIMEWeb]提高Linux系统UTIME,时钟芯片设置为单次触发状态(单拍模式),也就是每个时钟芯片设置超时,然后再次超时事件发生时,在时钟中断的处理程序所需的时钟芯片设置一个超时。其基本思想是一个精确的时间意味着我们需要的时钟中断发生时,我们需要一个更精确的时间,以达到这样的精度,但并不一定需要系统时钟频率。它采用了CPU时钟计数器时间戳计数器(TSC)提供准确的CPU频率精度的时间。
KURT-Linux的实时任务调度,使用静态CPU的实时调度算法,基于时间(TD)。实时任务需要实时事件发生在设计阶段就必须清楚列明。该算法可以实现更好的调度任务,对于那些谁周期。
KURT-Linux的相RT-Linux的优势之一是,你可以使用系统调用的Linux系统,它最初是专为硬实时支持,但因为它是简单的实现将使用一个简单的时间驱动调度取代Linux的调度,实时进程调度的影响等非实时任务,在某些情况下会发生实时任务的截止日期是脆弱的不符合的,也被称为严格的实时系统(快地实时)。基于KURT-Linux的应用程序:艺术(ATM参考交通系统),多媒体播放软件。 KURT-Linux的另一种方法,需要频繁的时钟芯片编程。
3.3。 RED-Linux的
RED-Linux是加州大学尔湾,实时Linux系统的发展[REDWeb] [Wang99],它将支持实时调度和Linux实现相同的操作系统内核。它支持三种类型的调度算法,即:时间驱动优先Dirven,分享驱动。
为了提高系统的调度粒度,RED-Linux的学习RT-Linux的软件模拟中断的管理机制,并增加频率的时钟中断。 RED-Linux的中断仿真程序只是简单地中断会在队列中排队一个硬件中断到来时,并没有进行实际的中断处理程序。
另外,为了解决Linux的内核模式的过程中不能被中断,RED-Linux的插入Linux内核抢占点原语的众多功能,使这一进程在内核模式下,也在一定程度上被抢占。通过这种方法提高了内核的实时特性。
RED-Linux的设计目标是提供常规调度框架可以支持多种调度算法,系统为每个任务增加几个属性,进程调度的基础上:
优先级:作业的优先级;
开始时间:工作的开始时间;
完成时间:工作的结束时间; BR p>预算:资源的数量在操作过程中要使用的工作;
调整值?这些属性和调度根据什么优先使用的这些属性值几乎所有的调度算法。在这种情况下,三种不同的调度算法无缝地一起耦合到一个统一的。