‘壹’ pso的参数选择
微粒群算法中比较重要的几个参数为:惯性权重ω(或压缩因子χ)、学习因子c1和c2、速度限制Vmax、位置限制Xmax、种群大小和初始种群。有研究者固定其他参数,研究单个参数对算法的影响;也有研究者同时研究多个参数对算法的影响。Shi对PSO算法中的参数选择进行了最早的讨论。
当前的研究普遍认为惯性权重对微粒群算法性能的影响最大,因此这方面的研究最多。王俊伟对PSO算法中的惯性权重进行了系统的实验,分析了固定权重与时变权重的选择问题,并从问题依赖性、种群大小和拓扑结构等方面详细分析了惯性权重对于算法性能的影响。结果表明,惯性权重的问题依赖性较小,随着种群的增大,其取值应适当减小,局部版本下惯性权重的选择具有更大的自由度。陈贵敏提出了开口向下抛物线、开口向上抛物线和指数曲线等非线性惯性权重递减策略并与线性递减策略进行比较,试验结果表明,凹函数递减策略优于线性策略,而线性策略优于凸函数策略。
一般认为,在微粒群算法中,惯性权重用于平衡全局和局部搜索能力,较大的惯性权重更倾向于全局搜索,而较小的惯性权重适于局部搜索。因此惯性权重的取值应随时间逐渐减小,而Zheng声称递增的惯性权重性能更好,但是在该文中使用了一组不同于标准PSO算法的学习因子,并且在该文中没有说明这对性能的影响。
由于固定的惯性权重往往无法获得好的效果,因此出现了惯性权重在搜索过程中随迭代代数线性下降、模糊自适应变化、按非线性函数下降、按余弦规律下降、按双曲线规律下降、按Sugeno函数规律下降的PSO算法。与此同时,还有很多种惯性权重随某种评价指标自适应变化的方法,如根据搜索的成功历史、微粒平均速度、种群多样性、目标函数平整性的变化、微粒群进化速度和聚集程度、个体搜索能力(ISA)来动态调整惯性权重。Liu根据Metropolis准则来确定是否接受惯性权重的变化。
也有人使用随机惯性权重,如将其设定为[0.5+(Rnd/2.0)]、取为在[0,1]区间均匀分布的随机数。Jiang在惯性权重的选取过程中引入混沌机制,使得惯性权重的取值能够遍历[0, 1]区间。
学习因子c1和c2代表了将每个微粒拉向pBest和gBest(或nBest)位置的随机加速项的权重。从心理学的角度而言,认知项(Cognition term)代表了个体复制已被证明是成功的过去行为的趋势,而社会项(Social term)代表了追从他人成功经验的趋势。c1和c2很多时候被设定为2.0,显而易见的原因是它将使得搜索覆盖以pBest和gBest为中心的区域。另一个常用的值为1.49445,它可以确保PSO算法的收敛。Carlisle通过大量实验,提出一套比较好的参数设置为将c1和c2分别设定为2.8和1.3,且该参数设置的性能在[182]中得到进一步肯定。受时变惯性权重的思想启发,出现了多种学习因子随时间变化的PSO算法变种,如学习因子随时间线性下降、根据微粒的演化状态动态调整、根据适应值持续变差的次数和种群的分散程度来动态调整。高鹰建立了学习因子和微粒群中所有微粒的平均适应度与整体最优位置适应度之差的一种非线性函数关系,通过非线性时变的学习因子自适应地调整“认知”部分和“社会”部分对微粒的影响,从而提高算法的收敛速度和精度。
在大多数情况下,两个学习因子的取值相同,从而使得社会搜索和认知搜索有相同的权重。Kennedy研究了两个极端情况:只有社会项的模型和只有认知项的模型,结论是这两个部分对微粒群搜索的成功而言都很关键,对非对称的学习因子尚无确定的结论报告。Depuy等分析了最大速度、社会学习因子和认知学习因子对微粒群算法在搜索空间中找到最优点的能力的影响,但是分析过于简单。
还有的研究同时确定惯性权重和学习因子。有很多研究者采用各种优化技术来动态确定惯性权重和学习因子,如遗传算法、混沌寻优方法、演化算法、微分演化算法、自适应校正设计(Adaptive CriticDesign)技术。Silva基于共生机制,使用另外一个PSO算法来动态确定原算法的参数。Krohling将惯性权重设置为零,同时用两个服从分布的随机变量来取代c1r1和c2r2,其中为期望为0、方差为1的高斯分布。Arumugam根据一个由pBest和gBest确定的函数来动态地确定惯性权重和学习因子。Breaban将速度更新公式中的各项解释为算子的操作,并引入了一些新的算子,据此来同时自适应地确定惯性权重和学习因子。Ueno对微粒采用多组参数值,并利用微粒速度的平均值来动态确定惯性权重和学习因子。Khosla使用Taguchi方法来确定算法参数。Kuo采用十七个低维函数优化问题,针对单个极小和多个极小的情况研究了惯性权重和学习因子的取值范围。
微粒的速度可以受一个最大速度Vmax的限制,由此作为一种约束来控制微粒群的全局探索能力。在最初的原始PSO算法中,采用的参数为,,微粒的速度经常会快速地增长到非常大的值,这样会影响算法的性能,所以需要对微粒速度进行限制。后来,Clerc指出速度限制并非必须的,引入收缩因子同样可以实现限制微粒速度的目的。不过,即便采用收缩因子,试验表明如果同时加以速度限制能够获得更好的结果,因此速度限制一直被保留下来。一般而言,Vmax被设置为每个变量的动态范围的值,一般为固定值,但也可以随时间线性递减或者根据搜索的成功历史来动态减小。
微粒的位置可以受最大位置Xmax的限制,避免微粒飞出有物理意义的解空间之外。Zhang提出一种周期性模式的边界处理方法。Robinson提出了三种控制技术,分别为吸引墙、反射墙和不可见墙。一旦微粒的某一维碰到解空间的边界,则吸引墙方法将速度设为零,反射墙方法改变速度方向,由此这两种方法最终都可以将微粒拉回到允许的解空间范围内。而不可见墙方法对飞出边界的微粒不计算适应值,以节约计算时间并避免影响其它微粒的运动。但是,这三种边界条件下PSO算法的性能受问题的维度以及全局最优点与搜索空间边界的相对位置影响很大。为解决这一问题,Huang综合吸收墙和反射墙的特点,在其基础上提出一种混合的阻尼边界,以获得鲁棒且一贯的性能。而Mikki将硬位置限制和吸引墙、反射墙技术结合起来,试验表明能够获得更好的效果。
种群大小的选择与问题相关,但是对问题并不十分敏感。20-50是比较常见的选择。在某些情况下,可能会使用较大的种群来适应特殊需要。
种群的初始化也是一个很重要的问题。一般情况下初始种群都是随机产生,但是也有多种智能化的种群初始化方法,如使用非线性单纯形法(NSM),重心Voronoi划分、正交设计、均匀设计等方法来确定PSO算法的初始种群,以使得初始种群的分布尽可能均匀,帮助算法更有效地探索搜索空间并找到更好的解。Robinson指出PSO算法和GA算法可以顺序使用,将PSO算法完成优化之后的种群作为GA算法的初始种群,或者反之,将GA算法完成优化之后的种群作为PSO算法的初始种群,都能得到很好的结果。
此外,还有人通过灵敏度分析、回归树、计算统计学等方法来调节PSO算法的参数,以提高算法性能,求解实际问题。
‘贰’ 灰狼算法中标准测试函数是指适应度函数吗
这个是要你自己编写的目标函数,如果是一个简单函数,它的值就可以作为适应度。不同的工具箱对这个的操作可能还不一样,需要具体分析
‘叁’ 什么是粒子群算法
粒子群算法,也称粒子群优化算法(Partical Swarm Optimization),缩写为 PSO, 是近年来发展起来的一种新的进化算法((Evolu2tionary Algorithm - EA)。PSO 算法属于进化算法的一种,和遗传算法相似,它也是从随机解出发,通过迭代寻找最优解,它也是通过适应度来评价解的品质,但它比遗传算法规则更为简单,它没有遗传算法的“交叉”(Crossover) 和“变异”(Mutation) 操作,它通过追随当前搜索到的最优值来寻找全局最优。这种算法以其实现容易、精度高、收敛快等优点引起了学术界的重视,并且在解决实际问题中展示了其优越性。设想这样一个场景:一群鸟在随机搜索食物。在这个区域里只有一块食物。所有的鸟都不知道食物在那里。但是他们知道当前的位置离食物还有多远。那么找到食物的最优策略是什么呢。最简单有效的就是搜寻目前离食物最近的鸟的周围区域。 PSO从这种模型中得到启示并用于解决优化问题。PSO中,每个优化问题的解都是搜索空间中的一只鸟。我们称之为“粒子”。所有的粒子都有一个由被优化的函数决定的适应值(fitness value),每个粒子还有一个速度决定他们飞翔的方向和距离。然后粒子们就追随当前的最优粒子在解空间中搜索。 PSO 初始化为一群随机粒子(随机解)。然后通过迭代找到最优解。在每一次迭代中,粒子通过跟踪两个"极值"来更新自己。第一个就是粒子本身所找到的最优解,这个解叫做个体极值pBest。另一个极值是整个种群目前找到的最优解,这个极值是全局极值gBest。另外也可以不用整个种群而只是用其中一部分作为粒子的邻居,那么在所有邻居中的极值就是局部极值。 粒子公式 在找到这两个最优值时,粒子根据如下的公式来更新自己的速度和新的位置: v[] = w * v[] + c1 * rand() * (pbest[] - present[]) + c2 * rand() * (gbest[] - present[]) (a) present[] = persent[] + v[] (b) v[] 是粒子的速度, w是惯性权重,persent[] 是当前粒子的位置. pbest[] and gbest[] 如前定义 rand () 是介于(0, 1)之间的随机数. c1, c2 是学习因子. 通常 c1 = c2 = 2. 程序的伪代码如下 For each particle ____Initialize particle END Do ____For each particle ________Calculate fitness value ________If the fitness value is better than the best fitness value (pBest) in history ____________set current value as the new pBest ____End ____Choose the particle with the best fitness value of all the particles as the gBest ____For each particle ________Calculate particle velocity according equation (a) ________Update particle position according equation (b) ____End While maximum iterations or minimum error criteria is not attained 在每一维粒子的速度都会被限制在一个最大速度Vmax,如果某一维更新后的速度超过用户设定的Vmax,那么这一维的速度就被限定为Vmax
‘肆’ LKH(Lin-Kernighan heuristic )一种求TSP的邻域搜索策略
PART I 引入
题主应该指的是1973年的针对TSP的LKH算法。LKH算法类似于k-opt方法,常见的2-opt作为一种local search的思想题主应该是知道的,(2-opt的基本变换2-interchange如下图)。
那么k-opt的过程,也可以element by element,也就可以通过不计顺序的δ-path之间的uv-switch来实现,每个合适的k-opt里面的exchange都是总和为正的增益值,那么其每一个合适的exchange的一部分都可以被uv-switch达到,所以可以令每次的G*都大于0,作为stoppingcriteria,从逻辑上来说是合理的,符合作者的element by element,在启发式所谓的exploitation上也有好的表现力。END
P.S element by element这种思想在其他的算法也有体现,比如遗传算法的改进上也有比如单位点交叉防止收敛解震动。
其他算法效能上的提升考虑,请依次阅读文献[2][1]及其他相关的资料。
综上,LKH是可以认为基于k-opt成功的改进,无论是运行的速度上,还是搜索的精度上。它在解决TSP问题上,速度和精度上仍旧有较好的表现。
水平有限,随缘回答,若有错误,请指出评论,谢谢!
参考文献:
理解算法框架内容,文献[1]是较好的参考资料,理解算法细节、讨论,可以参考文献[2],其指出了backtracking的要求(从数值实验/作者思考的philosophy上指出:应该从最多几层开始backtracking,每层y_1, y_2contenders的数量如何,如何进一步refinements,每一次δ-path 变换中y_i怎么高效选取等问题)
[1] Cook W.J., Cunningham W.H., Pulleyblank W.R., Schrijver A.Combinatorial Optimization
[2] S. Lin, B. W. Kernighan,An effective heuristic algorithm for the traveling salesman problem
‘伍’ 惯性权重是什么意思
惯性权重一般用在粒子群算法中,不是神经网络。惯性权重是由shi和eberhart指出:《,1998》。当vmax很小时(对schaffer的f6函数,vmax=3),使用权重w=0.8较好.如果没有vmax的信息,使用0.8作为权重也是一种很好的选择.
‘陆’ 灰狼算法和遗传算法哪个好
灰狼算法好。
灰狼优化算法由Mirjalili等人于2014年提出,主要模仿了自然界中灰狼群体的捕食过程。类似于猩猩、狮子种群内部存在严格的等级制度,灰狼群体内部主要分为4个等级:
α:狼群中的领导者,带领整个狼群进行捕猎活动;
β:负责协助α 并管理δ、ω,即狼群二当家;
δ:只能管理ω,千年老三;
ω:狼群中的老弱病残,只能跟着α、β、δ 混。
b有了这个概念以后,就可以很轻松的与算法结合了。基于最优个体引导机制,在等级制度的基础上,可以很形象的把α、β、δ 分别看作距离目标点最近、次进、次次进的个体,其余个体命名为ω,从而使ω 的位置更新受α、β、δ 引导,完成捕食过程。但要注意的是,若相对低级个体的位置优于相对高级个体,则两者地位互换,实现农奴翻身把歌唱。
‘柒’ pso的算法结构
对微粒群算法结构的改进方案有很多种,对其可分类为:采用多个子种群;改进微粒学习对象的选取策略;修改微粒更新迭代公式;修改速度更新策略;修改速度限制方法、位置限制方法和动态确定搜索空间;与其他搜索技术相结合;以及针对多模问题所作的改进。
第一类方案是采用多个子种群。柯晶考虑优化问题对收敛速度和寻优精度的双重要求并借鉴多群体进化算法的思想,将寻优微粒分成两组,一组微粒采用压缩因子的局部模式PSO算法,另一组微粒采用惯性权重的全局模式PSO算法,两组微粒之间采用环形拓扑结构。对于高维优化问题,PSO算法需要的微粒个数很多,导致计算复杂度常常很高,并且很难得到好的解。因此,出现了一种协作微粒群算法(Cooperative ParticleSwarm Optimizer, CPSO-H),将输入向量拆分成多个子向量,并对每个子向量使用一个微粒群来进行优化。虽然CPSO-H算法使用一维群体来分别搜索每一维,但是这些搜索结果被一个全局群体集成起来之后,在多模问题上的性能与原始PSO算法相比有很大的改进。Chow使用多个互相交互的子群,并引入相邻群参考速度。冯奇峰提出将搜索区域分区,使用多个子群并通过微粒间的距离来保持多样性。陈国初将微粒分成飞行方向不同的两个分群,其中一分群朝最优微粒飞行,另一分群微粒朝相反方向飞行;飞行时,每一微粒不仅受到微粒本身飞行经验和本分群最优微粒的影响,还受到全群最优微粒的影响。Niu在PSO算法中引入主—从子群模式,提出一种多种群协作PSO算法。Seo提出一种多组PSO算法(Multigrouped PSO),使用N组微粒来同时搜索多模问题的N个峰。Selleri使用多个独立的子群,在微粒速度的更新方程中添加了一些新项,分别使得微粒向子群历史最优位置运动,或者远离其他子群的重心。王俊年借鉴递阶编码的思想,构造出一种多种群协同进化PSO算法。高鹰借鉴生态学中环境和种群竞争的关系,提出一种基于种群密度的多种群PSO算法。
第二类方案是改进微粒学习对象的选取策略。Al-kazemi提出多阶段PSO算法,将微粒按不同阶段的临时搜索目标分组,这些临时目标允许微粒向着或背着它自己或全局最好位置移动。Ting对每个微粒的pBest进行操作,每一维从其他随机确定的维度学习,之后如果新的pBest更好则替换原pBest;该文还比较了多种不同学习方式对应的PSO算法的性能。Liang提出一种新颖的学习策略CLPSO,利用所有其他微粒的历史最优信息来更新微粒的速度;每个微粒可以向不同的微粒学习,并且微粒的每一维可以向不同的微粒学习。该策略能够保持群体的多样性,防止早熟收敛,可以提高PSO算法在多模问题上的性能;通过实验将该算法与其它几种PSO算法的变种进行比较,实验结果表明该算法在解决多模复杂问题时效果很好。Zhao在PSO算法中使用适应值最好的n个值来代替速度更新公式中的gBest。Abdelbar提出一种模糊度量,从而使得每个邻域中有多个适应值最好的微粒可以影响其它微粒。Wang也采用多个适应值最好的微粒信息来更新微粒速度,并提出一种模糊规则来自适应地确定参数。崔志华提出一种动态调整的改进PSO算法,在运行过程中动态调整极限位置,使得每个微粒的极限位置在其所经历的最好位置与整体最好位置所形成的动态圆中分布。与原始PSO算法相反,有一类方法是远离最差位置而非飞向最优位置。Yang提出在算法中记录最差位置而非最优位置,所有微粒都远离这些最差位置。与此类似,Leontitsis在微粒群算法中引入排斥子的概念,在使用个体最优位置和群体最优位置信息的同时,在算法中记录当前的个体最差位置和群体最差位置,并利用它们将微粒排斥到最优位置,从而让微粒群更快地到达最优位置。孟建良提出一种改进的PSO算法,在进化的初期,微粒以较大的概率向种群中其他微粒的个体最优学习;在进化后期,微粒以较大的概率向当前全局最优个体学习。Yang在PSO算法中引入轮盘选择技术来确定gBest,使得所有个体在进化早期都有机会引领搜索方向,从而避免早熟。
第三类方案是修改微粒更新公式。Hendtlass在速度更新方程中给每个微粒添加了记忆能力。He在速度更新方程中引入被动聚集机制。曾建潮通过对PSO算法的速度进化迭代方程进行修正,提出一种保证全局收敛的随机PSO算法。Zeng在PSO算法中引入加速度项,使得PSO算法从一个二阶随机系统变为一个三阶随机系统,并使用PID控制器来控制算法的演化。为了改进PSO算法的全局搜索能力,Ho提出一种新的微粒速度和位置更新公式,并引入寿命(Age)变量。
第四类方案是修改速度更新策略。Liu认为过于频繁的速度更新会弱化微粒的局部开采能力并减慢收敛,因此提出一种松弛速度更新(RVU)策略,仅当微粒使用原速度不能进一步提高适应值时才更新速度,并通过试验证明该策略可以大大减小计算量并加速收敛。罗建宏对同步模式和异步模式的PSO算法进行了对比研究,试验结果表明异步模式收敛速度显着提高,同时寻优效果更好。Yang在微粒的更新规则中引入感情心理模型。Liu采用一个最小速度阈值来控制微粒的速度,并使用一个模糊逻辑控制器来自适应地调节该最小速度阈值。张利彪提出了对PSO算法增加更新概率,对一定比例的微粒并不按照原更新公式更新,而是再次随机初始化。Dioan利用遗传算法(GA)来演化PSO算法的结构,即微粒群中各微粒更新的顺序和频率。
第五类方案是修改速度限制方法、位置限制方法和动态确定搜索空间。Stacey提出一种重新随机化速度的速度限制和一种重新随机化位置的位置限制。Liu在[76]的基础上,在PSO算法中引入动量因子,来将微粒位置限制在可行范围内。陈炳瑞提出一种根据微粒群的最佳适应值动态压缩微粒群的搜索空间与微粒群飞行速度范围的改进PSO算法。
第六类方案是通过将PSO算法与一些其他的搜索技术进行结合来提高PSO算法的性能,主要目的有二,其一是提高种群多样性,避免早熟;其二是提高算法局部搜索能力。这些混合算法包括将各种遗传算子如选择、交叉、变异引入PSO算法,来增加种群的多样性并提高逃离局部最小的能力。Krink通过解决微粒间的冲突和聚集来增强种群多样性,提出一种空间扩展PSO算法(Spatial ExtensionPSO,SEPSO);但是SEPSO算法的参数比较难以调节,为此Monson提出一种自适应调节参数的方法。用以提高种群多样性的其他方法或模型还包括“吸引—排斥”、捕食—被捕食模型、耗散模型、自组织模型、生命周期模型(LifeCycle model)、贝叶斯优化模型、避免冲突机制、拥挤回避(Crowd Avoidance)、层次化公平竞争(HFC)、外部记忆、梯度下降技术、线性搜索、单纯形法算子、爬山法、劳动分工、主成分分析技术、卡尔曼滤波、遗传算法、随机搜索算法、模拟退火、禁忌搜索、蚁群算法(ACO)、人工免疫算法、混沌算法、微分演化、遗传规划等。还有人将PSO算法在量子空间进行了扩展。Zhao将多主体系统(MAS)与PSO算法集成起来,提出MAPSO算法。Medasani借鉴概率C均值和概率论中的思想对PSO算法进行扩展,提出一种概率PSO算法,让算法分勘探和开发两个阶段运行。
第七类方案专门针对多模问题,希望能够找到多个较优解。为了能使PSO算法一次获得待优化问题的多个较优解,Parsopoulos使用了偏转(Deflection)、拉伸(Stretching)和排斥(Repulsion)等技术,通过防止微粒运动到之前已经发现的最小区域,来找到尽可能多的最小点。但是这种方法会在检测到的局部最优点两端产生一些新的局部最优点,可能会导致优化算法陷入这些局部最小点。为此,Jin提出一种新的函数变换形式,可以避免该缺点。基于类似思想,熊勇提出一种旋转曲面变换方法。
保持种群多样性最简单的方法,是在多样性过小的时候,重置某些微粒或整个微粒群。Lvbjerg在PSO算法中采用自组织临界性作为一种度量,来描述微粒群中微粒相互之间的接近程度,来确定是否需要重新初始化微粒的位置。Clerc提出了一种“Re-Hope”方法,当搜索空间变得相当小但是仍未找到解时(No-Hope),重置微粒群。Fu提出一种带C-Pg变异的PSO算法,微粒按照一定概率飞向扰动点而非Pg。赫然提出了一种自适应逃逸微粒群算法,限制微粒在搜索空间内的飞行速度并给出速度的自适应策略。
另一种变种是小生境PSO算法,同时使用多个子种群来定位和跟踪多个最优解。Brits还研究了一种通过调整适应值计算方式的方法来同时找到多个最优解。Li在PSO算法中引入适应值共享技术来求解多模问题。Zhang在PSO算法中采用顺序生境(SequentialNiching)技术。在小生境PSO算法的基础上,还可以使用向量点积运算来确定各个小生境中的候选解及其边界,并使该过程并行化,以获得更好的结果。但是,各种小生境PSO算法存在一个共同的问题,即需要确定一个小生境半径,且算法性能对该参数很敏感。为解决该问题,Bird提出一种自适应确定niching参数的方法。
Hendtlass在PSO算法中引入短程力的概念,并基于此提出一种WoSP算法,可以同时确定多个最优点。刘宇提出一种多模态PSO算法,用聚类算法对微粒进行聚类,动态地将种群划分成几个类,并且使用微粒所属类的最优微粒而非整个种群的最好微粒来更新微粒的速度,从而可以同时得到多个近似最优解。Li在PSO算法中引入物种的概念,但是由于其使用的物种间距是固定的,该方法只适用于均匀分布的多模问题;为此,Yuan对该算法进行扩展,采用多尺度搜索方法对物种间距加以自适应的调整。
此外,也有研究者将PSO算法的思想引入其他算法中,如将PSO算法中微粒的运动规则嵌入到进化规划中,用PSO算法中的运动规则来替代演化算法中交叉算子的功能。
‘捌’ 神经网络,Shi和Eberhart在哪篇文章中引入了惯性权重,求各位大神帮帮忙啊
惯性权重一般用在粒子群算法中,不是神经网络。惯性权重是由 Shi 和Eberhart指出:《A modified particle swarm optimizer,1998》。
当Vmax很小时(对schaffer的f6函数,Vmax<=2),使用接近于1的惯性权重;当Vmax不是很小时(对schaffer的f6函数,Vmax>=3),使用权重w=0.8较好.如果没有Vmax的信息,使用0.8作为权重也是一种很好的选择.惯性权重w很小时偏重于发挥粒子群算法的局部搜索能力;惯性权重很大时将会偏重于发挥粒子群算法的全局搜索能力。
如果只是要引用参考文献的话,不需要去引用这个原文献,只需要引用一个使用了惯性权重的文献即可,效果是一样的。如果人人都引用原文献,那原文献的被引频次还不爆炸般得高。
‘玖’ 有什么优化算法可以求解几十个变量
%基本粒子群优化算法(Particle Swarm Optimization)-----------
%名称:基本粒子群优化算法(PSO)
%作用:求解优化问题
%说明:是2维变量的求解,程序中做了少量修改,可以准确迭代出结果
%作者:周楠
%时间:2009-12-18-2:00
clear all;
clc;
%横坐标长度百分比
x_rate=0.02;
%纵坐标长度百分比
y_rate=0.1;
%字体显示位置横坐标长度百分比
x1_show=0.5;
x2_show=0.5;
%字体显示位置纵坐标长度百分比
y1_show=0.2;
y2_show=0.9;
%x1的范围[a1 b1];
a1=-3.0;
b1=12.1;
%x2的范围[a2 b2];
%X2[a2,b2]
a2=4.1;
b2=5.8;
c1=2; %学习因子1
c2=2; %学习因子2
%惯性权重