A. 常见的分类方法
主要分类方法介绍解决分类问题的方法很多[40-42] ,单一的分类方法主要包括:决策树、贝叶斯、人工神经网络、K-近邻、支持向量机和基于关联规则的分类等;另外还有用于组合单一分类方法的集成学习算法,如Bagging和Boosting等。
(1)决策树
决策树是用于分类和预测的主要技术之一,决策树学习是以实例为基础的归纳学习算法,它着眼于从一组无次序、无规则的实例中推理出以决策树表示的分类规则。构造决策树的目的是找出属性和类别间的关系,用它来预测将来未知类别的记录的类别。它采用自顶向下的递归方式,在决策树的内部节点进行属性的比较,并根据不同属性值判断从该节点向下的分支,在决策树的叶节点得到结论。
主要的决策树算法有ID3、C4.5(C5.0)、CART、PUBLIC、SLIQ和SPRINT算法等。它们在选择测试属性采用的技术、生成的决策树的结构、剪枝的方法以及时刻,能否处理大数据集等方面都有各自的不同之处。
(2)贝叶斯
贝叶斯(Bayes)分类算法是一类利用概率统计知识进行分类的算法,如朴素贝叶斯(Naive
Bayes)算法。这些算法主要利用Bayes定理来预测一个未知类别的样本属于各个类别的可能性,选择其中可能性最大的一个类别作为该样本的最终类别。由于贝叶斯定理的成立本身需要一个很强的条件独立性假设前提,而此假设在实际情况中经常是不成立的,因而其分类准确性就会下降。为此就出现了许多降低独立性假设的贝叶斯分类算法,如TAN(Tree
Augmented Na?ve Bayes)算法,它是在贝叶斯网络结构的基础上增加属性对之间的关联来实现的。
(3)人工神经网络
人工神经网络(Artificial
Neural
Networks,ANN)是一种应用类似于大脑神经突触联接的结构进行信息处理的数学模型。在这种模型中,大量的节点(或称”神经元”,或”单元”)之间相互联接构成网络,即”神经网络”,以达到处理信息的目的。神经网络通常需要进行训练,训练的过程就是网络进行学习的过程。训练改变了网络节点的连接权的值使其具有分类的功能,经过训练的网络就可用于对象的识别。
目前,神经网络已有上百种不同的模型,常见的有BP网络、径向基RBF网络、Hopfield网络、随机神经网络(Boltzmann机)、竞争神经网络(Hamming网络,自组织映射网络)等。但是当前的神经网络仍普遍存在收敛速度慢、计算量大、训练时间长和不可解释等缺点。
(4)k-近邻
k-近邻(kNN,k-Nearest
Neighbors)算法是一种基于实例的分类方法。该方法就是找出与未知样本x距离最近的k个训练样本,看这k个样本中多数属于哪一类,就把x归为那一类。k-近邻方法是一种懒惰学习方法,它存放样本,直到需要分类时才进行分类,如果样本集比较复杂,可能会导致很大的计算开销,因此无法应用到实时性很强的场合。
(5)支持向量机
支持向量机(SVM,Support
Vector Machine)是Vapnik根据统计学习理论提出的一种新的学习方法[43]
,它的最大特点是根据结构风险最小化准则,以最大化分类间隔构造最优分类超平面来提高学习机的泛化能力,较好地解决了非线性、高维数、局部极小点等问题。对于分类问题,支持向量机算法根据区域中的样本计算该区域的决策曲面,由此确定该区域中未知样本的类别。
(6)基于关联规则的分类
关联规则挖掘是数据挖掘中一个重要的研究领域。近年来,对于如何将关联规则挖掘用于分类问题,学者们进行了广泛的研究。关联分类方法挖掘形如condset→C的规则,其中condset是项(或属性-值对)的集合,而C是类标号,这种形式的规则称为类关联规则(class
association
rules,CARS)。关联分类方法一般由两步组成:第一步用关联规则挖掘算法从训练数据集中挖掘出所有满足指定支持度和置信度的类关联规则;第二步使用启发式方法从挖掘出的类关联规则中挑选出一组高质量的规则用于分类。属于关联分类的算法主要包括CBA[44]
,ADT[45] ,CMAR[46] 等。
(7)集成学习(Ensemble Learning)
实际应用的复杂性和数据的多样性往往使得单一的分类方法不够有效。因此,学者们对多种分类方法的融合即集成学习进行了广泛的研究。集成学习已成为国际机器学习界的研究热点,并被称为当前机器学习四个主要研究方向之一。
集成学习是一种机器学习范式,它试图通过连续调用单个的学习算法,获得不同的基学习器,然后根据规则组合这些学习器来解决同一个问题,可以显着的提高学习系统的泛化能力。组合多个基学习器主要采用(加权)投票的方法,常见的算法有装袋[47]
(Bagging),提升/推进[48, 49] (Boosting)等。
有关分类器的集成学习见图2-5。集成学习由于采用了投票平均的方法组合多个分类器,所以有可能减少单个分类器的误差,获得对问题空间模型更加准确的表示,从而提高分类器的分类准确度。
图2-5:分类器的集成学习
以上简单介绍了各种主要的分类方法,应该说其都有各自不同的特点及优缺点。对于数据库负载的自动识别,应该选择哪种方法呢?用来比较和评估分类方法的标准[50]
主要有:(1)预测的准确率。模型正确地预测新样本的类标号的能力;(2)计算速度。包括构造模型以及使用模型进行分类的时间;(3)强壮性。模型对噪声数据或空缺值数据正确预测的能力;(4)可伸缩性。对于数据量很大的数据集,有效构造模型的能力;(5)模型描述的简洁性和可解释性。模型描述愈简洁、愈容易理解,则愈受欢迎。
B. EXCEL求满足下列条件求95%置信区域
首先你要验证你的数组符合什么分布,考虑是需要求单尾95%,还是双尾95%,求出截尾均值和方差,一般来说,截尾均值加加减方差就是样本的置信区间。如果要用EXCEL做,好像求置信区间的函数只有=CONFIDENCE.NORM()(正态分布置信)、=CONFIDENCE.T()(T分布),而且数组还要你先做手动5%的截尾。
C. 深度学习会用到哪些设计模式
论及深度学习中的“深度”一词,人们从感性上可能会认为,深度学习相对于传统的机器学习算法,能够做更多的事情,是一种更为“高深”的算法。而事实可能并非我们想象的那样,因为从算法输入输出的角度考虑,深度学习算法与传统的有监督机器学习算法的输入输出都是类似的,无论是最简单的Logistic Regression,还是到后来的SVM、boosting等算法,它们能够做的事情都是类似的。正如无论使用什么样的排序算法,它们的输入和预期的输出都是类似的,区别在于各种算法在不同环境下的性能不同。
那么深度学习的“深度”本质上又指的是什么呢?深度学习的学名又叫深层神经网络(Deep Neural Networks ),是从很久以前的人工神经网络(Artificial Neural Networks)模型发展而来。这种模型一般采用计算机科学中的图模型来直观的表达,而深度学习的“深度”便指的是图模型的层数以及每一层的节点数量,相对于之前的神经网络而言,有了很大程度的提升。
深度学习也有许多种不同的实现形式,根据解决问题、应用领域甚至论文作者取名创意的不同,它也有不同的名字:例如卷积神经网络(Convolutional Neural Networks)、深度置信网络(Deep Belief Networks)、受限玻尔兹曼机(Restricted Boltzmann Machines)、深度玻尔兹曼机(Deep Boltzmann Machines)、递归自动编码器(Recursive Autoencoders)、深度表达(Deep Representation)等等。不过究其本质来讲,都是类似的深度神经网络模型。
既然深度学习这样一种神经网络模型在以前就出现过了,为什么在经历过一次没落之后,到现在又重新进入人们的视线当中了呢?这是因为在十几年前的硬件条件下,对高层次多节点神经网络的建模,时间复杂度(可能以年为单位)几乎是无法接受的。在很多应用当中,实际用到的是一些深度较浅的网络,虽然这种模型在这些应用当中,取得了非常好的效果(甚至是the state of art),但由于这种时间上的不可接受性,限制了其在实际应用的推广。而到了现在,计算机硬件的水平与之前已经不能同日而语,因此神经网络这样一种模型便又进入了人们的视线当中。
D. 学习人工智能主要学习哪些课程
首先你需要数学基础:高等数学,线性代数,概率论数理统计和随机过程,离散数学,数值分析其次需要算法的积累:人工神经网络,支持向量机,遗传算法等等算法;当然还有各个领域需要的算法,比如你要让机器人自己在位置环境导航和建图就需要研究SLAM;总之算法很多需要时间的积累;然后,需要掌握至少一门编程语言,毕竟算法的实现还是要编程的;如果深入到硬件的话,一些电类基础课必不可少;人工智能一般要到研究生才会去学,本科也就是蜻蜓点水看看而已,毕竟需要的基础课过于庞大。
E. 人工智能需要什么基础
首先要掌握必备的数学基础知识,具体来说包括:
线性代数:如何将研究对象形式化?
概率论:如何描述统计规律?
数理统计:如何以小见大?
最优化理论: 如何找到最优解?
信息论:如何定量度量不确定性?
形式逻辑:如何实现抽象推理?
线性代数:如何将研究对象形式化?
事实上,线性代数不仅仅是人工智能的基础,更是现代数学和以现代数学作为主要分析方法的众多学科的基础。从量子力学到图像处理都离不开向量和矩阵的使用。而在向量和矩阵背后,线性代数的核心意义在于提供了⼀种看待世界的抽象视角:万事万物都可以被抽象成某些特征的组合,并在由预置规则定义的框架之下以静态和动态的方式加以观察。
着重于抽象概念的解释而非具体的数学公式来看,线性代数要点如下:线性代数的本质在于将具体事物抽象为数学对象,并描述其静态和动态的特性;向量的实质是 n 维线性空间中的静止点;线性变换描述了向量或者作为参考系的坐标系的变化,可以用矩阵表示;矩阵的特征值和特征向量描述了变化的速度与方向。
总之,线性代数之于人工智能如同加法之于高等数学,是一个基础的工具集。
概率论:如何描述统计规律?
除了线性代数之外,概率论也是人工智能研究中必备的数学基础。随着连接主义学派的兴起,概率统计已经取代了数理逻辑,成为人工智能研究的主流工具。在数据爆炸式增长和计算力指数化增强的今天,概率论已经在机器学习中扮演了核心角色。
同线性代数一样,概率论也代表了一种看待世界的方式,其关注的焦点是无处不在的可能性。频率学派认为先验分布是固定的,模型参数要靠最大似然估计计算;贝叶斯学派认为先验分布是随机的,模型参数要靠后验概率最大化计算;正态分布是最重要的一种随机变量的分布。
数理统计:如何以小见大?
在人工智能的研究中,数理统计同样不可或缺。基础的统计理论有助于对机器学习的算法和数据挖掘的结果做出解释,只有做出合理的解读,数据的价值才能够体现。数理统计根据观察或实验得到的数据来研究随机现象,并对研究对象的客观规律做出合理的估计和判断。
虽然数理统计以概率论为理论基础,但两者之间存在方法上的本质区别。概率论作用的前提是随机变量的分布已知,根据已知的分布来分析随机变量的特征与规律;数理统计的研究对象则是未知分布的随机变量,研究方法是对随机变量进行独立重复的观察,根据得到的观察结果对原始分布做出推断。
用一句不严谨但直观的话讲:数理统计可以看成是逆向的概率论。数理统计的任务是根据可观察的样本反过来推断总体的性质;推断的工具是统计量,统计量是样本的函数,是个随机变量;参数估计通过随机抽取的样本来估计总体分布的未知参数,包括点估计和区间估计;假设检验通过随机抽取的样本来接受或拒绝关于总体的某个判断,常用于估计机器学习模型的泛化错误率。
最优化理论: 如何找到最优解?
本质上讲,人工智能的目标就是最优化:在复杂环境与多体交互中做出最优决策。几乎所有的人工智能问题最后都会归结为一个优化问题的求解,因而最优化理论同样是人工智能必备的基础知识。最优化理论研究的问题是判定给定目标函数的最大值(最小值)是否存在,并找到令目标函数取到最大值 (最小值) 的数值。如果把给定的目标函数看成一座山脉,最优化的过程就是判断顶峰的位置并找到到达顶峰路径的过程。
通常情况下,最优化问题是在无约束情况下求解给定目标函数的最小值;在线性搜索中,确定寻找最小值时的搜索方向需要使用目标函数的一阶导数和二阶导数;置信域算法的思想是先确定搜索步长,再确定搜索方向;以人工神经网络为代表的启发式算法是另外一类重要的优化方法。
信息论:如何定量度量不确定性?
近年来的科学研究不断证实,不确定性就是客观世界的本质属性。换句话说,上帝还真就掷骰子。不确定性的世界只能使用概率模型来描述,这促成了信息论的诞生。
信息论使用“信息熵”的概念,对单个信源的信息量和通信中传递信息的数量与效率等问题做出了解释,并在世界的不确定性和信息的可测量性之间搭建起一座桥梁。
总之,信息论处理的是客观世界中的不确定性;条件熵和信息增益是分类问题中的重要参数;KL 散度用于描述两个不同概率分布之间的差异;最大熵原理是分类问题汇总的常用准则。
形式逻辑:如何实现抽象推理?
1956 年召开的达特茅斯会议宣告了人工智能的诞生。在人工智能的襁褓期,各位奠基者们,包括约翰·麦卡锡、赫伯特·西蒙、马文·闵斯基等未来的图灵奖得主,他们的愿景是让“具备抽象思考能力的程序解释合成的物质如何能够拥有人类的心智。”通俗地说,理想的人工智能应该具有抽象意义上的学习、推理与归纳能力,其通用性将远远强于解决国际象棋或是围棋等具体问题的算法。
如果将认知过程定义为对符号的逻辑运算,人工智能的基础就是形式逻辑;谓词逻辑是知识表示的主要方法;基于谓词逻辑系统可以实现具有自动推理能力的人工智能;不完备性定理向“认知的本质是计算”这一人工智能的基本理念提出挑战。
F. java软件工程师一般要上哪些课程
Java软件工程师应学习课程大致如下:
1、软件技术基础、java基础编程、java语法,SQL Server 2005基础编程、C#基础编程;
8、企业流行框架:Struts、Sring、Hibernate、XML应用与开发、MVC应用与开发、Linux平台与应用;
9 、UML与Java设计模式;
10、了解在Java项目中使用的新技术。如Ajax、java ee等。
G. 数据统计学习的5个基本流程
数据统计学习的5个基本流程
统计学、大数据应用很广泛,常常被提及!统计学习也有一定的规律流程,下面我们大圣众包小编分享一位朋友关于统计学习流程步骤的看法,看看他怎么说。
统计学习现在市面上谈论到的数据挖掘基本上都是基于统计学习的监督学习或非监督学习问题。尤其以监督学习应用面更广。
统计学习的一般流程
得到一个有限的数据集合
确定所有的学习模型集合
确定模型选择的准则,就是学习的策略
实现求解最优模型的算法并通过学习方法选择最优模型
利用学习得到的最优模型对新数据进行分析或预测
步骤一:得到一个有限的数据集合
涉及到以下多个流程:
1、数据的采集
2、原始数据的格式化、标准化
3、原始去噪,去掉错误的值(而不是误差值,这里又涉及到一个复杂的问题,如何界定错误数据)
4、预处理(针对具体需要研究的问题、抽取相应地特征组成需要研究的数据集合)
步骤二:确定所有的学习模型集合
这个问题取决于我们选择怎么样的学习方法。常见得学习方法有:
1、感知机模型
2、k近邻法
3、朴素贝叶斯法
4、决策树
5、逻辑斯谛回归和最大熵模型
6、支持向量机
7、提升方法AdaBoost
8、EM算法
9、隐马尔可夫模型
10、条件随机场
而且这些算法还可以进行变异、组合然后形成新的算法模型。也是通常认为中数据挖掘比较核心的部分。
步骤三:确定模型选择的策略
一般来说,当你确定了你的学习方法后,在学习的过程中会产生很多个模型。而如何在这些模型中间挑选最优的模型,成为了我们亟待解决的问题。
一般衡量一个模型的优秀程度我们使用两个指标:
1、拟合能力
2、泛化能力
拟合能力
表示模型的计算结果和实际结果的相差程度,我们一般使用风险函数来衡量。而风险函数是损失函数的期望。所以我们其实是使用损失函数来衡量一个模型的期望。
常见的损失函数:
1、0-1损失函数
2、平分损失函数
3、绝对值损失函数
4、对数损失函数
损失函数越小,模型的拟合能力就越好。
泛化能力泛化能力是指模型对新数据的预测能力。一般来说,越复杂的模型的拟合能力越强,但是泛化能力越弱。所以我们需要选择一个适当复杂度的模型,使其泛化能力和拟合能力都足够强。
而衡量一个模型同时具有较好地泛化能力和拟合能力,我们一般用结构风险函数。
结构风险函数是在风险函数的基础上面加上一个罚项。通过罚项来降低复杂度高的模型的结构风险函数值。从而达到筛选出合适的复杂度的模型的目的。
罚项一般取特征空间w的范数,一般有:
1、L0范数
2、L1范数
3、L2范数
4、核范数…
步骤四:实现求解最优模型的算法并通过学习方法选择最优模型
求解最优模型的算法其实就是求解结构风险函数最小值得算法,即结构风险函数最优化的问题。
如果结构风险函数在我们所关心的区域中是凸函数的话,那么任何局部最小解也是全局最优解。现在已经有稳定,快速的数值计算方法来求二次可微地凸函数的最小值。
然而,很多时候我们没有办法通过结构风险函数直接算出它的最小值。我们只能通过一些迭代的方式获得局部最优解。
常见的通过迭代的方式获得局部最优解的算法有:
1、梯度下降法
2、牛顿法
3、共轭梯度法
4、线性搜索
5、置信域方法
另外还有一些算法:
1、模拟退火
2、遗传算法
3、类免疫算法
4、演化策略
5、差异演化算法
6、微粒群算法
7、神经网络
8、支持向量机
步骤五:利用学习得到的最优模型对新数据进行分析或预测
到这一步一般来说已经成功了,然后往往现实是残酷的,辛辛苦苦20年,一朝回到解放前。
往往学习得到的模型在实际使用过程当中并不是那么的理想。这里面有很多种原因:
有可能是原始数据的原因
有可能是特征选择的原因
有可能是模型的原因
有可能是最优模型算法的问题
有可能是代码错误
总之,以上的所有步骤的所有细节都可能导致你的模型不够优秀。这就需要你再次的思考这个问题,去不断的优化你的模型。直到得到一个不错的模型。
小结
其实数据挖掘涉及的东西远比我上面说的这点东西多的多,我上面提到的还只是监督学习。就光我上面提到的几个步骤。其实每一个步骤都有很多很多东西可以讲,可以研究,工程方面的、算法理论方面的等等等等。
一入数据挖掘深似海,从此奋斗到天明。
数据挖掘还是很有意思的,你可以用机器的力量、数学的力量理解世界的运行规律。去预测他或者利用你研究到的东西做一些有意思的事情。
H. Java软件工程师主要学习哪些课程
很多新手在学习java的时候都比较迷茫,不知道从哪里开始学起,这里就给大家整理了一份java开发学习路线,比较系统全面,可参考这份大纲来安排学习计划,希望可以帮到你~
最新java学习路线:第一阶段:java业基础课程
阶段目标:
1、熟练掌握java的开发环境与编程核心知识;
2、熟练运用java面向对象知识进行程序开发;
3、对java的核心对象和组件有深入理解;
4、熟练运用javaAPI相关知识;
5、熟练应用java多线程技术;
6、能综合运用所学知识完成一个项目。
知识点:
1、基本数据类型,运算符,数组,掌握基本数据类型转换,运算符,流程控制;
2、数组,排序算法,java常用API,类和对象,了解类与对象,熟悉常用API;
3、面向对象特征,集合框架,熟悉面向对象三大特征,熟练使用集合框架;
4、IO流,多线程;
5、网络协议,线程运用。
第二阶段:javaWEB核心课程
阶段目标:
1、熟练掌握数据库和MySQL核心技术;
2、深入理解JDBC与DAO数据库操作;
3、熟练运用JSP及Servlet技术完成网站后台开发;
4、深入理解缓存、连继池、注解、反射、泛型等知识;
5、能够运用所学知识完成自定义框架。
知识点:
1、数据库知识,范式,MySQL配置,命令,建库建表,数据的增删改查,约束,视图,存储过程,函数,触发器,事务,游标,建模工具。
2、深入理解数据库管理系统通用知识及MySQL数据库的使用与管理。为Java后台开发打下坚实基础。Web页面元素,布局,CSS样式,盒模型,JavaScript,jQuery。
3、掌握前端开发技术,掌握jQuery。
4、Servlet,EL表达式,会话跟踪技术,过滤器,FreeMarker。
5、掌握Servlet相关技术,利用Servlet,JSP相关应用技术和DAO完成B/S架构下的应用开发。
6、泛型,反射,注解。
7、掌握JAVA高级应用,利用泛型,注解,枚举完成自己的CRUD框架开发为后续框架学习做铺垫。
8、单点登录,支付功能,项目整合,分页封装熟练运用JSP及Servlet核心知识完成项目实战。
第三阶段:JavaEE框架课程
阶段目标:
1. 熟练运用Linux操作系统常见命令及完成环境部署和Nginx服务器的配置
2. 熟练运用JavaEE三大核心框架:Spring,SpringMVC,MyBatis
3. 熟练运用Maven,并使用SpringBoot进行快速框架搭建
4. 深入理解框架的实现原理,Java底层技术,企业级应用等
5. 使用Shiro,Ztree和Spring,SpringMVC,Myts完成企业项目
知识点:
1、Linux安装配置,文件目录操作,VI命令,管理,用户与权限,环境部署,Struts2概述,hiberante概述。
2、Linux作为一个主流的服务器操作系统,是每一个开发工程师必须掌握的重点技术,并且能够熟练运用。
3、SSH的整合,MyBatis,SpringMVC,Maven的使用。
4、了解AOP原理,了解中央控制器原理,掌握MyBatis框架,掌握SSM框架的整合。
5、Shiro,Ztree,项目文档,项目规范,需求分析,原型图设计,数据库设计,工程构建,需求评审,配置管理,BUG修复,项目管理等。
6、独立自主完成一个中小型的企业级综合项目的设计和整体架构的原型和建模。独立自主完成一个大型的企业级综合项目,并具备商业价值。
第四阶段:分布式与微服务课程
阶段目标:
1.掌握前端框架VUE及Bootstrap的应用开发
2.基于SpringCloud完成微服务架构项目的开发
3.掌握NoSQL数据库Redis的使用
4.掌握消息队列RabbitMQ的使用
5.掌握Mycat数据库中间件的使用
知识点:
1、Bootstrap前端框架、VUE前端框架、RabbitMQ消息队列。
2、掌握Bootstrap前端框架开发、掌握VUE前端框架开发、掌握RabbitMQ消息队列的应用、掌握SpringBoot集成RabbitMQ。
3、Redis缓存数据库的应用、Java基于Redis的应用开发、基于SpringCloud微服务架构开发实战。
4、掌握NOSQL数据库Redis的安装、使用,Redis客户端的安装使用,Java访问操作Redis数据库,Redis的持久化方案、主从复制、高可用。
5、掌握SpringCloud微服务架构的开发,注册中心,网关配置,配置中心,微服务间通信及容器化部署。
6、项目文档,项目规范,需求分析,数据库设计,工程构建,需求评审,配置管理,BUG修复,项目管理等。
7、掌握数据库中间件Mycat的应用,基于Mycat实现数据读写分离,高可用集群。
8、掌握项目开发的流程,按照项目开发流程完成基于微服务架构项目的需求分析,编码开发。
PS:温馨提示,光看不练假把式,跟着视频教程练项目也是必不可少的!相关教程指路B站尚学堂官方号!都是免费滴!
I. 能不能简单的给我解释一下蒙特卡罗算法
以概率和统计的理论、方法为基础的一种计算方法,将所求解的问题同一定的概率模型相联系,用电子计算机实现统计模拟或抽样,以获得问题的近似解,故又称统计模拟法或统计试验法。
蒙特卡罗是摩纳哥的一个城市,以赌博闻名于世界。蒙特卡罗法借用这一城市的名称是为了象征性地表明该方法的概率统计的特点。
蒙特卡罗法作为一种计算方法,是由S.M.乌拉姆和J.冯·诺伊曼在20世纪40年代中叶为研制核武器的需要而首先提出来的。在此之前,该方法的基本思想实际上早已被统计学家所采用了。例如,早在17世纪,人们就知道了依频数来决定概率的方法。
20世纪40年代中叶,出现了电子计算机,使得用数学方法模拟大量的试验成为可能。另外,随着科学技术的不断发展,出现了越来越多的复杂而困难的问题,用通常的解析方法或数值方法都很难加以解决。蒙特卡罗法就是在这些情况下,作为一种可行的而且是不可缺少的计算方法被提出和迅速发展起来的。
基本原理 考虑一个射击运动员的射击成绩 G。令x表示弹着点到靶心的距离,g(x)表示得分,而�0�6(x)表示该运动员的弹着点的分布密度,则
。
另一方面,如果该运动员进行了实弹射击,弹着点依次为X1,X2,…,XN,则平均得分为
。
很明显,弿N是G 的一个近似估计。蒙特卡罗法正是用弿N作为G 的近似估计。
假设 x不是一维空间的点,而是一个S 维空间的点(x1,x2,…,xs),则上述积分变为
。
蒙特卡罗法计算此积分是用
作为G 的近似估计,式中(X1n,X2n,…,Xsn)是由�0�6(x1,x2,…,xs)中抽取的第n 个样本点。同上述一维积分比较,相同点是,都以某随机变量的N 个独立抽样值的算术平均作为近似估计;不同点仅仅是,决定随机量的样本点不同,一个是一维空间的点,另一个是S 维空间的点。由上式可见, 决定近似估计 弿N好坏的仅仅是随机变量g(x)或g(x1,x2,…,xs)的分布情况,而与它们是由怎样的样本点对应过来的无关。换言之,如果随机变量g(x)和g(x1,x2,…,xs)具有相同分布,在不计抽样,不计计算g(x)和g(x1,x2,…,xs)的差别的情况下,S维情况与一维情况无任何差异。这是其他计算方法所不具有的、一个非常重要的性质。
蒙特卡罗法解题的一般过程是,首先构成一个概率空间;然后在该概率空间中确定一个随机变量g(x),其数学期望
正好等于所要求的值G,其中F(x)为x的分布函数;最后,以所确定的随机变量的简单子样的算术平均值
作为G 的近似估计。由于其他原因,如确定数学期望为G 的随机变量g(x)有困难,或为其他目的,蒙特卡罗法有时也用G 的渐近无偏估计代替一般过程中的无偏估计弿N来作为G 的近似估计。
收敛性、误差和费用 蒙特卡罗法的近似估计弿N依概率1收敛于G的充分必要条件是随机变量g(x)满足
。
如果随机变量g(x)满足条件
,
式中1≤r<2,则
,
亦即弿N依概率1收敛于G 的速度为。总之,蒙特卡罗法的收敛性取决于所确定的随机变量是否绝对可积,而蒙特卡罗法的收敛速度取决于该随机变量是几次绝对可积的。
根据中心极限定理,只要随机变量g(x)具有有限的异于零的方差σ2,当N 足够大时便有蒙特卡罗法的误差公式如下:
,
式中1-α为置信水平,x由置信水平所惟一确定。根据上述误差公式,为满足问题的误差和置信水平的要求,子样容量N必须大于(x/ε)2σ2,其中ε表示误差。进一步假设每观察一个样本所需要的费用是C,则蒙特卡罗法的费用是。这一结果表明,在相同误差和置信水平要求下,一个蒙特卡罗法的优劣完全取决于σ2C 的值的大小,它的值越小相应的方法越好,或者说,蒙特卡罗法的效率与σ2C 成反比。
提高效率的方法
降低方差技巧 降低方差是提高蒙特卡罗法效率的重要途径之一。考虑二重积分
,
式中�0�6(x,y)为x和y的分布密度函数,g(x,y)的方差存在。蒙特卡罗法计算Eg的一般技巧是用g=g(x, y)作为所确定的随机变量,其中x和y服从分布�0�6(x,y)。降低方差的具体办法有:
① 统计估计技巧用�0�6(x) 和�0�6x(y)分别表示分布�0�6(x,y)的边缘分布和条件分布。计算Eg的统计估计技巧是用y的统计估计量
作为所确定的随机变量,其中x服从分布�0�6(x)。g的方差恰好为两个方差的和,它们分别是对随机变量x和随机变量y采用抽样办法而产生的。gSE的方差正好等于前者,因此gSE的方差一定比g的方差小。统计估计技巧的一般原理是,对于问题中所出现的诸随机变量,能够确定其相应的统计估计量的,就不要再对它们采用随机抽样的办法。
② 重要抽样技巧引入任意分布密度函数�0�6*(x,y),则
的数学期望同样为Eg,其中x和y服从分布�0�6*(x,y)。当�0�6*(x,y)~|g(x,y)|�0�6(x,y)时,gIS的方差达到最小。在g(x,y)≥0时,方差等于零,gIS实际上变成了与其中出现的随机变量无关的常数。重要抽样技巧的一般原理是,尽量使所确定的随机变量与问题中所出现的随机变量关系不大。
③ 相关抽样技巧考虑一个新的、积分值已知的二重积分
,
可得知
的数学期望同样为Eg,式中x和y服从分布�0�6(x,y),α为任意常数。当为随机变量g(x,y)和g*(x,y)的均方差σg、λg*之比时,gCS的方差达到最小。此时的方差等于g 的方差 1-ρ2倍,ρ为随机变量g(x,y)和g*(x,y)的相关系数。当ρ=1时,方差变为零。相关抽样技巧的一般原理是,寻找一个数学期望已知的且与原确定的随机变量正相关的随机变量,使相应的相关系数尽量接近1,然后用这两个随机变量的线性组合作为蒙特卡罗法最终所确定的随机变量。
降低方差的技巧还有对偶变数技巧、系统抽样技巧和分层抽样技巧等。对偶变数技巧的一般原理是,除了原确定的随机变量外,寻找另一个(或多个)具有相同数学期望的随机变量,使得它们之间尽量是对偶负相关的,然后用它们的线性组合作为蒙特卡罗法最终所确定的随机变量。系统抽样技巧的一般原理是,对问题中所出现的某些随机变量按相应分布所确定的比例进行抽样,而不是进行随机抽样。分层抽样技巧的一般原理是,对问题中所出现的某些随机变量进行分层,尽量使所确定的随机变量在各层中相对平稳,各层间的抽样按相应分布所确定的比例进行。
其他途径 为了提高蒙特卡罗法的效率,除了简单地降低方差外,还有为降低费用设计的分裂和轮盘赌技巧,为逐步降低方差而设计的多极抽样技巧,为改善收敛速度而设计的拟蒙特卡罗法,为计算条件期望而设计的条件蒙特卡罗法等等。分裂和轮盘赌技巧的一般原理是,将x的积分区域分为重要和非重要两部分,对于抽样确定的X,当它属于重要区域时,对相应的Y 进行多次抽样;当它属于非重要区域时,只有在赌获胜时才对相应的Y 进行抽样。多级抽样技巧的一般原理是,在进行某一级抽样计算的同时,根据它所提供的抽样观察值,设计更好的抽样技巧,用新设计的抽样技巧进行新的一级的抽样计算,依次类推,最后用各级的结果的线性组合作为蒙特卡罗法的近似估计。拟蒙特卡罗法与一般蒙特卡罗法的最大区别是,前者不像后者那样要求子样 g(X1),g(X2),…,g(Xn)是相互独立的。用一致分布点列替代由随机数组成的点列的所谓数论方法,实际上就是一种拟蒙特卡罗法。条件蒙特卡罗法的一般原理是,首先将条件期望问题转化成为非条件期望问题,然后用解非条件期望的一般方法来解决条件期望计算问题。由于条件蒙特卡罗法中引进了任意分布密度函数,因此,可以选取合适的分布密度函数来实现进一步降低方差的目的。
优缺点 蒙特卡罗法的最大优点是,在方差存在的情况下,问题的维数不影响它的收敛速度,而只影响它的方差;问题几何形状的复杂性对它的影响不大;它不象其他数值方法那样对问题一定要进行离散化处理,而是常可以进行连续处理;它的程序结构简单,所需计算机存贮单元比其他数值方法少,这对于高维问题差别尤其显着。蒙特卡罗法的最大缺点是,对于维数少的问题它不如其他数值方法好;它的误差是概率误差,而不是一般意义下的误差。
应用 随着电子计算机的迅速发展和科学技术问题日趋复杂,蒙特卡罗法的应用越来越广泛,已经渗透到科学技术的各个领域。
在一些典型数学问题方面的应用主要有:多重积分计算、线性代数方程组求解、矩阵求逆、常微分方程边值问题求解、偏微分方程求解、非齐次线性积分方程求解、本征值计算和最优化计算等等。其中的多重积分计算、非齐次线性积分方程求解和齐次线性积分方程本征值计算等,不仅非常有代表性,而且有很大的实用价值,对于高维问题常比其他数值方法好。
在一些实际问题方面的应用主要有,屏蔽计算、核临界安全计算、反应堆物理计算、微扰计算、实验核物理计算、高能物理计算、核物理计算、统计物理计算、真空技术、公用事业、信息论、系统模拟、可靠性计算和计算机科学等等。其中的屏蔽计算、核临界安全计算、微扰计算、实验核物理计算和统计物理计算等,不仅非常有代表性,而且应用得很广泛,按蒙特卡罗法解决这些问题的能力讲,已经超过了其他计算方法的水平。
J. 小学数学常用词汇英汉对照
absolute value 绝对值
accept 接受
acceptable region 接受域
additivity 可加性
adjusted 调整的
alternative hypothesis 对立假设
analysis 分析
analysis of covariance 协方差分析
analysis of variance 方差分析
arithmetic mean 算术平均值
association 相关性
assumption 假设
assumption checking 假设检验
availability 有效度
average 均值
B
balanced 平衡的
band 带宽
bar chart 条形图
beta-distribution 贝塔分布
between groups 组间的
bias 偏倚
binomial distribution 二项分布
binomial test 二项检验
C
calculate 计算
case 个案
category 类别
center of gravity 重心
central tendency 中心趋势
chi-square distribution 卡方分布
chi-square test 卡方检验
classify 分类
cluster analysis 聚类分析
coefficient 系数
coefficient of correlation 相关系数
collinearity 共线性
column 列
compare 比较
comparison 对照
components 构成,分量
compound 复合的
confidence interval 置信区间
consistency 一致性
constant 常数
continuous variable 连续变量
control charts 控制图
correlation 相关
covariance 协方差
covariance matrix 协方差矩阵
critical point 临界点
critical value 临界值
crosstab 列联表
cubic 三次的,立方的
cubic term 三次项
cumulative distribution function 累加分布函数
curve estimation 曲线估计
D
data 数据
default 默认的
definition 定义
deleted resial 剔除残差
density function 密度函数
dependent variable 因变量
description 描述
design of experiment 试验设计
deviations 差异
df.(degree of freedom) 自由度
diagnostic 诊断
dimension 维
discrete variable 离散变量
discriminant function 判别函数
discriminatory analysis 判别分析
distance 距离
distribution 分布
D-optimal design D-优化设计
E
eaqual 相等
effects of interaction 交互效应
efficiency 有效性
eigenvalue 特征值
equal size 等含量
equation 方程
error 误差
estimate 估计
estimation of parameters 参数估计
estimations 估计量
evaluate 衡量
exact value 精确值
expectation 期望
expected value 期望值
exponential 指数的
exponential distributon 指数分布
extreme value 极值
F
factor 因素,因子
factor analysis 因子分析
factor score 因子得分
factorial designs 析因设计
factorial experiment 析因试验
fit 拟合
fitted line 拟合线
fitted value 拟合值
fixed model 固定模型
fixed variable 固定变量
fractional factorial design 部分析因设计
frequency 频数
F-test F检验
full factorial design 完全析因设计
function 函数
G
gamma distribution 伽玛分布
geometric mean 几何均值
group 组
H
harmomic mean 调和均值
heterogeneity 不齐性
histogram 直方图
homogeneity 齐性
homogeneity of variance 方差齐性
hypothesis 假设
hypothesis test 假设检验
I
independence 独立
independent variable 自变量
independent-samples 独立样本
index 指数
index of correlation 相关指数
interaction 交互作用
interclass correlation 组内相关
interval estimate 区间估计
intraclass correlation 组间相关
inverse 倒数的
iterate 迭代
K
kernal 核
Kolmogorov-Smirnov test
柯尔莫哥洛夫-斯米诺夫检验
kurtosis 峰度
L
large sample problem 大样本问题
layer 层
least-significant difference 最小显着差数
least-square estimation 最小二乘估计
least-square method 最小二乘法
level 水平
level of significance 显着性水平
leverage value 中心化杠杆值
life 寿命
life test 寿命试验
likelihood function 似然函数
likelihood ratio test 似然比检验
linear 线性的
linear estimator 线性估计
linear model 线性模型
linear regression 线性回归
linear relation 线性关系
linear term 线性项
logarithmic 对数的
logarithms 对数
logistic 逻辑的
lost function 损失函数
M
main effect 主效应
matrix 矩阵
maximum 最大值
maximum likelihood estimation 极大似然估计
mean squared deviation(MSD) 均方差
mean sum of square 均方和
measure 衡量
media 中位数
M-estimator M估计
minimum 最小值
missing values 缺失值
mixed model 混合模型
mode 众数
model 模型
Monte Carle method 蒙特卡罗法
moving average 移动平均值
multicollinearity 多元共线性
multiple comparison 多重比较
multiple correlation 多重相关
multiple correlation coefficient 复相关系数
multiple correlation coefficient 多元相关系数
multiple regression analysis 多元回归分析
multiple regression equation 多元回归方程
multiple response 多响应
multivariate analysis 多元分析
N
negative relationship 负相关
nonadditively 不可加性
nonlinear 非线性
nonlinear regression 非线性回归
noparametric tests 非参数检验
normal distribution 正态分布
null hypothesis 零假设
number of cases 个案数
O
one-sample 单样本
one-tailed test 单侧检验
one-way ANOVA 单向方差分析
one-way classification 单向分类
optimal 优化的
optimum allocation 最优配制
order 排序
order statistics 次序统计量
origin 原点
orthogonal 正交的
outliers 异常值
P
paired observations 成对观测数据
paired-sample 成对样本
parameter 参数
parameter estimation 参数估计
partial correlation 偏相关
partial correlation coefficient 偏相关系数
partial regression coefficient 偏回归系数
percent 百分数
percentiles 百分位数
pie chart 饼图
point estimate 点估计
poisson distribution 泊松分布
polynomial curve 多项式曲线
polynomial regression 多项式回归
polynomials 多项式
positive relationship 正相关
power 幂
P-P plot P-P概率图
predict 预测
predicted value 预测值
prediction intervals 预测区间
principal component analysis 主成分分析
proability 概率
probability density function 概率密度函数
probit analysis 概率分析
proportion 比例
Q
qadratic 二次的
Q-Q plot Q-Q概率图
quadratic term 二次项
quality control 质量控制
quantitative 数量的,度量的
quartiles 四分位数
R
random 随机的
random number 随机数
random number 随机数
random sampling 随机取样
random seed 随机数种子
random variable 随机变量
randomization 随机化
range 极差
rank 秩
rank correlation 秩相关
rank statistic 秩统计量
regression analysis 回归分析
regression coefficient 回归系数
regression line 回归线
reject 拒绝
rejection region 拒绝域
relationship 关系
reliability 可靠性
repeated 重复的
report 报告,报表
resial 残差
resial sum of squares 剩余平方和
response 响应
risk function 风险函数
robustness 稳健性
root mean square 标准差
row 行
run 游程
run test 游程检验
S
sample 样本
sample size 样本容量
sample space 样本空间
sampling 取样
sampling inspection 抽样检验
scatter chart 散点图
S-curve S形曲线
separately 单独地
sets 集合
sign test 符号检验
significance 显着性
significance level 显着性水平
significance testing 显着性检验
significant 显着的,有效的
significant digits 有效数字
skewed distribution 偏态分布
skewness 偏度
small sample problem 小样本问题
smooth 平滑
sort 排序
soruces of variation 方差来源
space 空间
spread 扩展
square 平方
standard deviation 标准离差
standard error of mean 均值的标准误差
standardization 标准化
standardize 标准化
statistic 统计量
statistical quality control 统计质量控制
std. resial 标准残差
stepwise regression analysis 逐步回归
stimulus 刺激
strong assumption 强假设
stud. deleted resial 学生化剔除残差
stud. resial 学生化残差
subsamples 次级样本
sufficient statistic 充分统计量
sum 和
sum of squares 平方和
summary 概括,综述
T
table 表
t-distribution t分布
test 检验
test criterion 检验判据
test for linearity 线性检验
test of goodness of fit 拟合优度检验
test of homogeneity 齐性检验
test of independence 独立性检验
test rules 检验法则
test statistics 检验统计量
testing function 检验函数
time series 时间序列
tolerance limits 容许限
total 总共,和
transformation 转换
treatment 处理
trimmed mean 截尾均值
true value 真值
t-test t检验
two-tailed test 双侧检验
U
unbalanced 不平衡的
unbiased estimation 无偏估计
unbiasedness 无偏性
uniform distribution 均匀分布
V
value of estimator 估计值
variable 变量
variance 方差
variance components 方差分量
variance ratio 方差比
various 不同的
vector 向量
W
weight 加权,权重
weighted average 加权平均值
within groups 组内的
Z
Z score Z分数
2. 最优化方法词汇英汉对照表
A
active constraint 活动约束
active set method 活动集法
analytic gradient 解析梯度
approximate 近似
arbitrary 强制性的
argument 变量
attainment factor 达到因子
B
bandwidth 带宽
be equivalent to 等价于
best-fit 最佳拟合
bound 边界
C
coefficient 系数
complex-value 复数值
component 分量
constant 常数
constrained 有约束的
constraint 约束
constraint function 约束函数
continuous 连续的
converge 收敛
cubic polynomial interpolation method
三次多项式插值法
curve-fitting 曲线拟合
D
data-fitting 数据拟合
default 默认的,默认的
define 定义
diagonal 对角的
direct search method 直接搜索法
direction of search 搜索方向
discontinuous 不连续
E
eigenvalue 特征值
empty matrix 空矩阵
equality 等式
exceeded 溢出的
F
feasible 可行的
feasible solution 可行解
finite-difference 有限差分
first-order 一阶
G
Gauss-Newton method 高斯-牛顿法
goal attainment problem 目标达到问题
gradient 梯度
gradient method 梯度法
H
handle 句柄
Hessian matrix 海色矩阵
I
independent variables 独立变量
inequality 不等式
infeasibility 不可行性
infeasible 不可行的
initial feasible solution 初始可行解
initialize 初始化
inverse 逆
invoke 激活
iteration 迭代
iteration 迭代
J
Jacobian 雅可比矩阵
L
Lagrange multiplier 拉格朗日乘子
large-scale 大型的
least square 最小二乘
least squares sense 最小二乘意义上的
Levenberg-Marquardt method
列文伯格-马夸尔特法
line search 一维搜索
linear 线性的
linear equality constraints 线性等式约束
linear programming problem 线性规划问题
local solution 局部解
M
medium-scale 中型的
minimize 最小化
mixed quadratic and cubic polynomial interpolation and extrapolation method
混合二次、三次多项式内插、外插法
multiobjective 多目标的
N
nonlinear 非线性的
norm 范数
O
objective function 目标函数
observed data 测量数据
optimization routine 优化过程
optimize 优化
optimizer 求解器
over-determined system 超定系统
P
parameter 参数
partial derivatives 偏导数
polynomial interpolation method
多项式插值法
Q
quadratic 二次的
quadratic interpolation method 二次内插法
quadratic programming 二次规划
R
real-value 实数值
resials 残差
robust 稳健的
robustness 稳健性,鲁棒性
S
scalar 标量
semi-infinitely problem 半无限问题
Sequential Quadratic Programming method
序列二次规划法
simplex search method 单纯形法
solution 解
sparse matrix 稀疏矩阵
sparsity pattern 稀疏模式
sparsity structure 稀疏结构
starting point 初始点
step length 步长
subspace trust region method 子空间置信域法
sum-of-squares 平方和
symmetric matrix 对称矩阵
T
termination message 终止信息
termination tolerance 终止容限
the exit condition 退出条件
the method of steepest descent 最速下降法
transpose 转置
U
unconstrained 无约束的
under-determined system 负定系统
V
variable 变量
vector 矢量
W
weighting matrix 加权矩阵
3 样条词汇英汉对照表
A
approximation 逼近
array 数组
a spline in b-form/b-spline b样条
a spline of polynomial piece /ppform spline
分段多项式样条
B
bivariate spline function 二元样条函数
break/breaks 断点
C
coefficient/coefficients 系数
cubic interpolation 三次插值/三次内插
cubic polynomial 三次多项式
cubic smoothing spline 三次平滑样条
cubic spline 三次样条
cubic spline interpolation
三次样条插值/三次样条内插
curve 曲线
D
degree of freedom 自由度
dimension 维数
E
end conditions 约束条件
I
input argument 输入参数
interpolation 插值/内插
interval 取值区间
K
knot/knots 节点
L
least-squares approximation 最小二乘拟合
M
multiplicity 重次
multivariate function 多元函数
O
optional argument 可选参数
order 阶次
output argument 输出参数
P
point/points 数据点
R
rational spline 有理样条
rounding error 舍入误差(相对误差)
S
scalar 标量
sequence 数列(数组)
spline 样条
spline approximation 样条逼近/样条拟合
spline function 样条函数
spline curve 样条曲线
spline interpolation 样条插值/样条内插
spline surface 样条曲面
smoothing spline 平滑样条
T
tolerance 允许精度
U
univariate function 一元函数
V
vector 向量
W
weight/weights 权重
4 偏微分方程数值解词汇英汉对照表
A
absolute error 绝对误差
absolute tolerance 绝对容限
adaptive mesh 适应性网格
B
boundary condition 边界条件
C
contour plot 等值线图
converge 收敛
coordinate 坐标系
D
decomposed 分解的
decomposed geometry matrix 分解几何矩阵
diagonal matrix 对角矩阵
Dirichlet boundary conditions
Dirichlet边界条件
E
eigenvalue 特征值
elliptic 椭圆形的
error estimate 误差估计
exact solution 精确解
G
generalized Neumann boundary condition
推广的Neumann边界条件
geometry 几何形状
geometry description matrix 几何描述矩阵
geometry matrix 几何矩阵
graphical user interface(GUI)
图形用户界面
H
hyperbolic 双曲线的
I
initial mesh 初始网格
J
jiggle 微调
L
Lagrange multipliers 拉格朗日乘子
Laplace equation 拉普拉斯方程
linear interpolation 线性插值
loop 循环
M
machine precision 机器精度
mixed boundary condition 混合边界条件
N
Neuman boundary condition Neuman边界条件
node point 节点
nonlinear solver 非线性求解器
normal vector 法向量
P
Parabolic 抛物线型的
partial differential equation 偏微分方程
plane strain 平面应变
plane stress 平面应力
Poisson's equation 泊松方程
polygon 多边形
positive definite 正定
Q
quality 质量
R
refined triangular mesh 加密的三角形网格
relative tolerance 相对容限
relative tolerance 相对容限
resial 残差
resial norm 残差范数
S
singular 奇异的