㈠ 数学建模问题
数学建模B题一 洁具流水时间设计
我国是个淡水资源相当贫乏的国家,人均可利用淡水量不到世界平均数的四分之一。特别是近几年来,由于环境污染导致降水量减少,不少省市出现大面积的干旱。许多城市为了节能,纷纷采取提高水价、电价的方式来抑制能源消费。而另一方面,据有关资料报道,我国目前生产的各类洁具消耗的能源(主要是指用水量)比其它发达国家的同类产品要高出60%以上。
某洁具生产厂家打算开发一种男性用的全自动洁具,它的单位时间内流水量为常数v,为达到节能的目的,现有以下两个控制放水时间的设计方案供采用。
方案一:使用者开始使用洁具时,受感应洁具以均匀水流开始放水,持续时间为T,然后自动停止放水。若使用时间不超过T-5秒,则只放水一次,否则,为保持清洁,在使用者离开后再放水一次,持续时间为10秒。
方案二:使用者开始使用洁具时,受感应洁具以均匀水流开始放水,持续时间为T,然后自动停止放水。若使用时间不超过T-5秒,则只放水一次,否则,为保持清洁,到2T时刻再开始第二次放水,持续时间也为T。但若使用时间超过2T-5秒,则到4T时刻再开始第三次放水,持续时间也是T……在设计时,为了使洁具的寿命尽可能延长,一般希望对每位使用者放水次数不超过2次。
该厂家随机调查了100人次男性从开始使用到离开洁具为止的时间(单位:秒)见下表:
时间(秒) 12 13 14 15 16 17 18
人次 1 5 12 60 13 6 3
(1)请你根据以上数据,比较这两种设计方案从节约能源的角度来看,哪一种更好?并为该厂家提供设计参数T(秒)的最优值,使这种洁具在相应设计方案下能达到最大限度节约水、电的目的;
(2)从既能保持清洁又能节约能源出发,你是否能提出更好的设计方案,请通过建立数学模型与前面的方案进行比较。
其实,家庭中的其他生活用水一样可以用来冲洗马桶,比方说经过最后一次漂洗,衣服洗干净了,从洗衣机排出的水看上去还比较干净,直接流进下水管还真有点可惜。还有像洗完脸、洗过菜的水,如果能再次利用就好了。业余发明家吴汉平研制了一套生活用水回用装置,获得了国家专利。他将厨房的洗涤槽、卫生间的面盆和坐便器水箱连接到一个储水箱上。洗涤槽、面盆流出来的比较干净的水进入储水箱,供冲厕使用。
现在我来教你省水小秘方1.要用省水形马桶,般审型马桶加装2段式冲水配件。2.水箱底下浮饼拆下 即成无段式控制出水。
3.小便池自动冲水器冲水时间调短。 4.用米水、洗衣水、洗碗水及洗澡水等清水来浇花、洗车,及擦洗地板。5.清理地毯法由湿式或蒸汽式改成干燥粉沫式。6.将除湿机收集的水,及纯水机、蒸馏水机等净水设备的废水回收再利用。
现在我说完了6项省水秘方,你是否想到比我更好的省水方法呢?你是否在省水呢?我想你应该在省水吧!
长期以来,人们普遍认为水是“取之不尽,用之不竭”的,不知道爱惜,而浪费挥霍。事实上,水资源日益紧缺,而我市的城市供水工作更是在严重缺水的边缘艰难度日,自来水来之不易。
人不可一日无水,水是生命之源,珍惜水就是珍惜自己的生命!在此,我们介绍一些日常生活中的节水常识:
刷牙
浪费:不间断放水,30秒,用水约6升。
节水:口杯接水,3口杯,用水0.6升。三口之家每日两次,每月可节水486升。
洗衣
浪费:洗衣机不间断地边注水边冲洗、排水的洗衣方式,每次需用水约165升。
节水:洗衣机采用洗涤—脱水—注水—脱水—注水—脱水方式洗涤,每次用水110升,每次可节水55升,每月洗4次,可节水220升。
另外,衣物集中洗涤,可减少洗衣次数;小件、少量衣物提倡手洗,可节约大量水;洗涤剂过量投放将浪费大量水。
洗浴
浪费:过长时间不间断放水冲淋,会浪费大量水。
盆浴时放水过多,以至溢出,或盆浴时一边打开水塞,一边注水,浪费将十分惊人。
节水:间断放水淋浴(比如脚踏式、感应式等)。搓洗时应及时关水。避免过长时间冲淋。
盆浴后的水可用于洗衣、洗车、冲洗厕所、拖地等。
炊事
浪费:水龙头大开,长时间冲洗。烧开水时间过长,水蒸汽大量蒸发。用自来水冲淋蔬菜、水果。
节水:炊具食具上的油污,先用纸擦除,再洗涤,可节水。
控制水龙头流量,改不间断冲洗为间断冲洗。
洗车
浪费:用水管冲洗,20分钟,用水约240升。
节水:用水桶盛水洗车,需3桶水,用水约30升。使用洗涤水、洗衣水洗车。使用节水喷雾水枪冲洗。利用机械自动洗车,洗车水处理循环使用。
节水小方法:
节约用水,利在当代,功在千秋,这是经过讨论同学们一起研究出一些生活节水小方法:
一、淘米水洗菜,再用清水清洗,不仅节约了水,还有效地清除了蔬菜上的残存农药;
二、洗衣水洗拖帕、帚地板、再冲厕所。第二道清洗衣物的洗衣水擦门窗及家具、洗鞋袜等;
三、大、小便后冲洗厕所,尽量不开大水管冲洗,而充分利用使用过的“脏水”;
四、夏天给室内外地面洒水降温,尽量不用清水,而用洗衣之后的洗衣水;
五、自行车、家用小轿车清洁时,不用水冲,改用湿布擦,太脏的地方,也宜用洗衣物过后的余水冲洗;
六、冲厕所:如果您使用节水型设备,每次可节水4一5kg;
七、家庭浇花,宜用淘米水、茶水、洗衣水等;
八、家庭洗涤手巾、小对象、瓜果等少量用水。宜用盆子盛水而不宜开水龙头放水冲洗;
九、洗地板:用拖把擦洗,可比用水龙头冲洗每次每户可节水200kg以上;
十、水龙头使用时间长有漏水现象,可用装青霉素的小药瓶的橡胶盖剪一个与原来一样的垫圈放进去,可以保证滴水不漏;
十一、将卫生间里水箱的浮球向下调整2厘米,每次冲洗可节省水近3kg;按家庭每天使用四次算,一年可节药水4380kg。
十二、洗菜:一盆一盆地洗,不要开着水龙头冲,一餐饭可节省50kg;
十三、淋浴:如果您关掉龙头擦香皂,洗一次澡可节水60kg;
十四、手洗衣服:如果用洗衣盆洗、清衣服则每次洗、清衣比开着水龙头节省水200kg;
十五、用洗衣机洗衣服:建议您满桶再洗,若分开两次洗,则多耗水120kg;
十六、洗车:用抹布擦洗比用水龙头冲洗,至少每次可节水400kg;
㈡ 如何看待顾险峰《看穿机器学习的黑箱》这篇文章
概览
直观而言,视觉领域机器学习的统计观点如下:我们将所有可能的图像构成的空间设为,其中n是总的像素个数,每张图像视为全图像空间中的一个点。每个有意义的视觉“概念”(例如所有猫的图像)是全空间的一个可测子集,。固定一个概念,每张图片是否表达了这个概念就给出了一个概率分布。这样,视觉中的问题就被转化为概率统计的问题:如何表示概率分布,如何衡量概率分布间的距离,如何近似一个概率分布,如何生成满足特定概率分布的随机变量,如何根据概率分布进行统计推断,等等。
近年来,依随Internet技术的发展,人类已经积累了大量的视觉数据,这使得估计各种概率分布成为可能。同时,GPU技术的发展,使得各种统计计算方法的实现成为可能。因此,我们迎来了机器学习的科技大潮。但是,我们依然无法严密解释机器学习算法的有效性。
老顾倾向于认为,从基础理论角度而言,研究概率分布的一个强有力工具是最优传输理论(optimal mass transportation theory),这个理论着重揭示概率分布这一自然现象的内在规律,因此并不从属于某个学派,也不依赖于具体的算法。相反,这一理论会为算法的发展提供指导,同时真正合理有效的算法(例如机器学习算法),应该可以被传输理论来解释。
简而言之,传输理论给出了概率分布所构成空间的几何。给定一个黎曼流形,其上所有的概率分布构成一个无穷维的空间:Wasserstein空间,最优传输映射的传输代价给出了Wasserstein空间的一个黎曼度量。Wasserstein空间中的任意两点可以用Wasserstein距离来测量相近程度,自然也可以用测地线来插值概率分布。每个概率分布有熵,沿着测地线熵值的变化规律和黎曼流形的曲率有着本质的关系。这一几何事实在网络领域已经被应用,但在视觉领域,似乎还没有相关工作。
但在实际计算中,高维的最优传输映射,Wasserstein距离计算复杂。一个自然的想法是降维,将高维空间的概率分布投影到低维子空间,在低维空间上计算边际分布之间的变换。这有些象盲人摸象,每次得到局部信息,如果摸得充分,我们也可以恢复大象的整体信息。
回顾
在第一讲(看穿机器学习W-GAN的黑箱)中,我们给出了最优传输问题的凸几何解释:给定两个概率分布,存在唯一的最优传输映射,将初始概率分布变换成目标概率分布,,同时极小化传输代价,这里被称为是两个概率分布之间的Wasserstein距离。同时,最优传输映射是某个凸函数的梯度映射,,这个函数满足蒙日-安培方程。我们的理论给出了一种几何变分方法来求解最优传输映射。
在第二讲(看穿机器学习的黑箱(II))中,我们澄清了这样的观点:相比于学习一个映射,学习一个概率分布要容易很多。满足的映射构成了一个无穷维的李群。
但是,在视觉问题中,通常图像全空间的维数非常高,计算难度较高。因此,我们可以放弃理论上的最优性,寻找计算更加简单有效,同时又和最优传输距离等价的算法。下面,我们就讨论这些更为实用的算法及其背后的理论。
直方图均衡化
图1. 直方图均衡化结果(histogram equalization)。
直方图均衡化是提高灰度图像对比度的常见算法。如图1所示,左侧输入图像的灰度分布在一个狭窄区域,朦胧昏暗;右侧是直方图均衡化的结果,清晰明亮,对比鲜明。我们设输入图像像素的灰度为一随机变量,其取值范围为单位区间,其概率测度为,直方图均衡化算法的核心就是求灰度空间(单位区间)到自身的一个映射,这一映射将变换成均匀分布。
实际上,传统的直方图均衡化就是一维的最优传送映射。假设我们有两个连续的概率分布,其对应的累积分布函数(CDF)是那么直方图均衡化映射就是传输映射:。首先,我们可以证明这个映射满足两个条件:
单调递增。
另一方面,我们应用最优传输理论:存在一个凸函数,其梯度映射给出最优传输映射。由函数的凸性,我们得到最优传输映射也满足上面两条性质。更进一步,我们可以证明,在一维情形,满足上面两条的映射是唯一的。这意味着,一维直方图均衡化映射就是最优传输映射。
因此,一维的最优传输映射非常容易计算。下面,我们应用一维最优传输映射来近似高维最优传输映射。
迭代分布传输算法
有多种最优传输映射的近似算法。我们先讨论迭代分布传输算法(Iterative Distribution Transfer ):给定单位向量,我们将整个空间投影到一维线性子空间上,投影映射为:
投影诱导的概率分布(边际概率分布)记为。在算法第k步,假设当前源空间的概率分布为;我们随机选取欧氏空间的一个标准正交基;为每一个基底向量构造一维的最优传输映射
由此构造映射,在标架下
其诱导的概率分布为 。不停地重复这一步骤,对于足够大的n,复合映射:
将初始概率分布映成了目标概率分布。
图2. 从拉东变换恢复的医学图像。
这一论断的证明需要用到拉东变换(Radon Transform):给定中的一个概率分布,的Radon transform 是一族一维的概率测度。
换句话说,给定一个单位向量,它生成一条直线,我们将全空间向这条直线投影,得到边际概率分布。拉东变换的基本定理断言:如果两个概率测度的拉东变换相等,则两个概率测度相等。如图2所示,这一定理是医学图像上CT断层扫描技术的基本原理。
迭代算法如果最后达到一个平衡状态,则在任意一条过原点的直线上,的边际概率分布等于的边际概率分布,因此由拉东变换原理收敛于,。这样,我们将高维的传输映射转换成一维传输映射的复合,降低了计算难度。
投影Wasserstein距离梯度下降法
另外一种迭代算法想法比较类似。给定两个上定义的概率测度和,对于任意一个单位向量,我们考虑投影映射。投影映射诱导两个直线上的概率分布和,它们之间的最优传输映射记为。由此,每个点都沿着平移一个向量:
我们考察所有的单位向量,然后取平均,去一个步长参数,每个点平移到,相应的概率分布变为。重复以上步骤,我们可以证明所得的概率分布沿着距离收敛。这里距离是所谓的投影Wasserstein距离,其具体定义如下:
这里是Wasserstein距离。投影Wasserstein距离和Wasserstein距离诱导Wasserstein空间同样的拓扑,但是计算起来相对容易很多。
图3. 用于愚弄深度神经网的图像(A. Nguyen, J. Yosinski and J. Clune, Deep Neural Networks are Easily Fooled: High Confidence Predictions for Unrecognizable Images, CVPR2015.)
局限性和脆弱性
拉东变换将联合概率分布转换成向所有一维子空间投影所得的边际概率分布,从而实现了降维,简化了计算。但是,如果有一些子空间的边际分布缺失,我们无法精确恢复原来的联合分布。在视觉问题中,每个线性子空间被视为一个特征,向子空间投影,等价于特征提取。
深度神经网在解决视觉分类问题中表现出色,但是也非常容易被愚弄。如图3所示,人类可以轻易看出这些是非自然图像,在现实生活中不具备任何意义。但是深度神经网络非常自信地将它们归结为训练过的类别。如果,我们以欣赏现代抽象艺术的心态来研究这些图像,我们能够领会到深度神经网络分类结果的内在合理性:这些图像的确具有它们所对应类别的内在“神韵”。从纹理层次而言,它们和对应类别的纹理非常“神似”;从语义层面而言,这些图像则是无意义的和荒谬的。
我们可以给出一种解释:那就是投影子空间选得不够,因此即便是在这些子空间上边际概率分布相似,但是联合概率分布依然相差很大。深度神经网所得到的训练集是自然图像,图3这些图像都在自然图像空间之外,但是投影在所选择的子空间后,自然图像和非自然图像无法进行分别。由此,引发了深度神经网络脆弱性。
图4. 视网膜到大脑皮层的映射是保角变换。(A. Fazl, S. Grossberg and E. Mingolla, Visual Search, Eye Movements and Object Recognition)
讨论
人类的低级视觉在很大程度上依赖于统计特性,因此可以归结为对概率分布的处理和演算。人脑是否真的在计算最优传输映射、计算Wasserstein距离?在历史上,人类经常首先发现某些数学原理,然后又发现这些原理在生物器官上早已应用。例如,人类首先发现了傅里叶分解原理,然后发现人类耳蜗神经结构就是在对声音信号进行傅里叶分解;又如,人类首先发现了保角变换(共形变换),后来发现从视网膜到第一级的视觉中枢就是保角变换,如图4所示。这项工作曾经获得过诺贝尔奖。因此,如果若干年后,人们证实大脑的确在计算概率分布之间的距离,老顾也不会觉得意外。
因此,我们相信在一些视觉应用中,深度神经网络隐含地构建概率模型,我们可以直接用概率的工具,例如最优传输理论及其各种降维近似,直接取代神经网络,从而使得黑箱透明。
㈢ 黑箱运算算法不透明后果
摘要 不透明后果是数据隐私泄露,
㈣ 试对洗衣机进行模块化划分,画出模块划分结构图
摘要 一、洗衣机洗涤控制电路的性能要求。
㈤ 算法黑箱为何难治理
算法黑箱半月谈。随着大数据、人工智能等信息技术的快速发展,我们正在进入算法经济时代,以深度学习为代表的人工智能算法在互联网信息传播,数字经济发展。
信息产业服务等诸多方面发挥了重要作用,产生了溢出性极强的经济效益监管信任危机的根源在于企业在数据和算法上的非对称优势,当前,基础数据的所有权和控制权主要集中在互联网平台企业。
简介:
这些企业全程操纵算法设计,运行,测试和分析,由此占据着优势地位,监管部门在算法社会中已经呈现出被边缘化的趋势,极易失去对关键数据和关键算法的监督权和控制权,这意味着,算法黑箱的存在势必导致私人利益主观上俘获公共利益。
以及资本主观上规避公权力约束等风险的产生,同时,算法黑箱客观上隐藏了算法自身存在的缺陷,并可能触发安全风险,让监管机构难以审查算法信息,监管机构规制算法的内容与手段均受到限制,难以及时针对算法问题进行问责和纠偏。
㈥ 如何论证:“人工智能不会引起伦理问题”这句话
人工智能时代加速到来,算法决策兴起
第三次AI(人工智能,以下简称AI)浪潮已经开启。在技术层面,有算法的进步。当1956年人工智能开始起步的时候,人们更多是在说人工智能;在第二次浪潮期间,机器学习成为主流;这一次则是深度学习,是能够自我学习、自我编程的学习算法,可以用来解决更复杂的任务。此外,计算能力的提升,包括现在的量子计算机,以及越来越普遍的大数据,对人工智能的作用和价值也非常大,使得更复杂的算法成为可能。在应用层面,从语音识别、机器翻译到医疗诊断、自动驾驶,AI应用在不断加深、不断成熟,甚至已经开始超越人类,引发人们关于失业的担忧。同时也让人们开始期待具有通用智能的终极算法。在商业层面,面对可预期的好处和利益,国内外主流的互联网公司如腾讯、谷歌等都开始向AI看齐,AI领域的创业和投资在如火如荼地进行着。全球已经有超过1000家AI公司,市场规模增长空间是非常大的,未来八年内将超过350亿美元。
在此背景下,各种互联网服务中越来越多地看到人工智能的影子,人们日益生活在算法之下,算法决策开始介入甚至主导越来越多的人类社会事务。比如,人们在互联网上获取的内容,诸如新闻、音乐、视频、广告等等,以及购买的商品,很多都是推荐引擎个性化推荐给用户的,而不是有人在背后决策。再比如,在金融领域,算法可以决定是否给某个用户发放贷款,以及具体的贷款额度。此外,一家美国投资公司早在几年前就开始研发管理公司的AI系统,招聘、投资、重大决策等公司事务都由这个AI系统来管理并决策。也许在未来,一家公司的成功不再主要依赖于拥有像乔布斯那样伟大的CEO,而是一个足够智能足够强大的AI系统。更有甚者,英国、欧盟等都在大力推动人工智能技术在政务和民生方面的更深应用,政府服务不仅是数字化,而且是智能化。
人工智能伦理问题日益凸显
人工智能的持续进步和广泛应用带来的好处将是巨大的。但是,为了让AI真正有益于人类社会,我们也不能忽视AI背后的伦理问题。
第一个是算法歧视。可能人们会说,算法是一种数学表达,是很客观的,不像人类那样有各种偏见、情绪,容易受外部因素影响,怎么会产生歧视呢?之前的一些研究表明,法官在饿着肚子的时候,倾向于对犯罪人比较严厉,判刑也比较重,所以人们常说,正义取决于法官有没有吃早餐。算法也正在带来类似的歧视问题。比如,一些图像识别软件之前还将黑人错误地标记为“黑猩猩”或者“猿猴”。此外,2016年3月,微软公司在美国的Twitter上上线的聊天机器人Tay在与网民互动过程中,成为了一个集性别歧视、种族歧视等于一身的“不良少女”。随着算法决策越来越多,类似的歧视也会越来越多。而且,算法歧视会带来危害。一方面,如果将算法应用在犯罪评估、信用贷款、雇佣评估等关切人身利益的场合,一旦产生歧视,必然危害个人权益。另一方面,深度学习是一个典型的“黑箱”算法,连设计者可能都不知道算法如何决策,要在系统中发现有没有存在歧视和歧视根源,在技术上是比较困难的。
为什么算法并不客观,可能暗藏歧视?算法决策在很多时候其实就是一种预测,用过去的数据预测未来的趋势。算法模型和数据输入决定着预测的结果。因此,这两个要素也就成为算法歧视的主要来源。一方面,算法在本质上是“以数学方式或者计算机代码表达的意见”,包括其设计、目的、成功标准、数据使用等等都是设计者、开发者的主观选择,设计者和开发者可能将自己所怀抱的偏见嵌入算法系统。另一方面,数据的有效性、准确性,也会影响整个算法决策和预测的准确性。比如,数据是社会现实的反映,训练数据本身可能是歧视性的,用这样的数据训练出来的AI系统自然也会带上歧视的影子;再比如,数据可能是不正确、不完整或者过时的,带来所谓的“垃圾进,垃圾出”的现象;更进一步,如果一个AI系统依赖多数学习,自然不能兼容少数族裔的利益。此外,算法歧视可能是具有自我学习和适应能力的算法在交互过程中习得的,AI系统在与现实世界交互过程中,可能没法区别什么是歧视,什么不是歧视。
更进一步,算法倾向于将歧视固化或者放大,使歧视自我长存于整个算法里面。算法决策是在用过去预测未来,而过去的歧视可能会在算法中得到巩固并在未来得到加强,因为错误的输入形成的错误输出作为反馈,进一步加深了错误。最终,算法决策不仅仅会将过去的歧视做法代码化,而且会创造自己的现实,形成一个“自我实现的歧视性反馈循环”。包括预测性警务、犯罪风险评估、信用评估等都存在类似问题。归根到底,算法决策其实缺乏对未来的想象力,而人类社会的进步需要这样的想象力。
第二个是隐私忧虑。很多AI系统,包括深度学习,都是大数据学习,需要大量的数据来训练学习算法。数据已经成了AI时代的“新石油”。这带来新的隐私忧虑。一方面,如果在深度学习过程中使用大量的敏感数据,这些数据可能会在后续被披露出去,对个人的隐私会产生影响。所以国外的AI研究人员已经在提倡如何在深度学习过程中保护个人隐私。另一方面,考虑到各种服务之间大量交易数据,数据流动不断频繁,数据成为新的流通物,可能削弱个人对其个人数据的控制和管理。当然,现在已经有一些可以利用的工具来在AI时代加强隐私保护,诸如经规划的隐私、默认的隐私、个人数据管理工具、匿名化、假名化、差别化隐私、决策矩阵等等都是在不断发展和完善的一些标准,值得在深度学习和AI产品设计中提倡。
第三个是责任与安全。霍金、施密特等之前都警惕强人工智能或者超人工智能可能威胁人类生存。但在具体层面,AI安全包括行为安全和人类控制。从阿西莫夫提出的机器人三定律到2017年阿西洛马会议提出的23条人工智能原则,AI安全始终是人们关注的一个重点,美国、英国、欧盟等都在着力推进对自动驾驶汽车、智能机器人的安全监管。此外,安全往往与责任相伴。如果自动驾驶汽车、智能机器人造成人身、财产损害,谁来承担责任?如果按照现有的法律责任规则,因为系统是自主性很强的,它的开发者是难以预测的,包括黑箱的存在,很难解释事故的原因,未来可能会产生责任鸿沟
第四个是机器人权利,即如何界定AI的人道主义待遇。随着自主智能机器人越来越强大,那么它们在人类社会到底应该扮演什么样的角色呢?自主智能机器人到底在法律上是什么?自然人?法人?动物?物?我们可以虐待、折磨或者杀死机器人吗?欧盟已经在考虑要不要赋予智能机器人“电子人”的法律人格,具有权利义务并对其行为负责。这个问题未来值得更多探讨。此外,越来越多的教育类、护理类、服务类的机器人在看护孩子、老人和病人,这些交互会对人的行为产生什么样的影响,需要得到进一步研究。
构建算法治理的内外部约束机制
一是合伦理的AI设计,即要将人类社会的法律、道德等规范和价值嵌入AI系统。这主要是电气和电子工程师协会、英国等在提倡。可以分三步来实现。第一步是发现需要嵌入AI系统的规范和价值,存在道德过载和价值位阶的问题,即哪些价值优先,哪些价值在后。第二步是将所发现的规范和价值加入AI系统,需要方法论,有自上而下和自下而上两种路径。第三步是对已经嵌入AI系统的规范和价值进行评估,看其是否和人类社会的相一致。一方面是使用者评估,需要建立对AI的信任,比如当AI系统的行为超出预期时,要向用户解释为什么这么做。另一方面是主管部门、行业组织等第三方评估,需要界定价值一致性和相符性标准,以及AI可信赖标准。
但是需要解决两个困境。其一是伦理困境。比如,在来不及刹车的情况下,如果自动驾驶汽车往前开就会把三个闯红灯的人撞死,但如果转向就会碰到障碍物使车上的五个人死亡。此时,车辆应当如何选择?在面对类似电车困境的问题时,功利主义和绝对主义会给出不同的道德选择,这种冲突在人类社会都是没有解决的,在自动化的场景下也会遇到这样的问题
其二是价值对接的问题。现在的很多机器人都是单一目的的,扫地机器人就会一心一意地扫地,服务机器人就会一心一意给你去拿咖啡,诸如此类。但机器人的行为真的是我们人类想要的吗?这就产生了价值对接问题。就像Midas国王想要点石成金的技术,结果当他拥有这个法宝的时候,他碰到的所有东西包括食物都会变成金子,最后却被活活饿死。为什么呢?因为这个法宝并没有理解Midas国王的真正意图,那么机器人会不会给我们人类带来类似的情况呢?这个问题值得深思。所以有人提出来兼容人类的AI,包括三项原则,一是利他主义,即机器人的唯一目标是最大化人类价值的实现;二是不确定性,即机器人一开始不确定人类价值是什么;三是考虑人类,即人类行为提供了关于人类价值的信息,从而帮助机器人确定什么是人类所希望的价值。
二是在AI研发中贯彻伦理原则。一方面,针对AI研发活动,AI研发人员需要遵守一些基本的伦理准则,包括有益性、不作恶、包容性的设计、多样性、透明性,以及隐私的保护,等等。另一方面,需要建立AI伦理审查制度,伦理审查应当是跨学科的,多样性的,对AI技术和产品的伦理影响进行评估并提出建议。
三是对算法进行必要的监管,避免算法作恶。现在的算法确实是越来越复杂,包括决策的影响都是越来越重大,未来可能需要对算法进行监管。可能的监管措施包括标准制定,涉及分类、性能标准、设计标准、责任标准等等;透明性方面,包括算法自身的代码透明性,以及算法决策透明性,国外现在已经有OpenAI等一些人工智能开源运动。此外,还有审批制度,比如对于自动驾驶汽车、智能机器人等采用的算法,未来可能需要监管部门进行事先审批,如果没有经过审批就不能向市场推出。
四是针对算法决策和歧视,以及造成的人身财产损害,需要提供法律救济。对于算法决策,一方面需要确保透明性,如果用自动化的手段进行决策决定,则需要告知用户,用户有知情权,并且在必要时需要向用户提供一定的解释;另一方面需要提供申诉的机制。对于机器人造成的人身财产损害,一方面,无辜的受害人应该得到救助;另一方面,对于自动驾驶汽车、智能机器人等带来的责任挑战,严格责任、差别化责任、强制保险和赔偿基金、智能机器人法律人格等都是可以考虑的救济措施。
在今天这个人工智能快速发展,人类在诸如围棋、图像识别、语音识别等等领域开始落后于人工智能的时代,对人工智能进行伦理测试同样重要,包括道德代码、隐私、正义、有益性、安全、责任等等,都是十分重要的。现在的AI界更多是工程师在参与,缺乏哲学、伦理学、法学等其他社会学科的参与,未来这样跨学科的AI伦理测试需要加强研究。因为在某种意义上我们已经不是在制造一个被动的简单工具,而是在设计像人一样具有感知、认知、决策等能力的事物,你可以称其为“更复杂的工具”,但不可否认,我们需要确保这样的复杂工具进入人类社会以后和人类的价值规范及需求相一致。
㈦ 已知输入输出数据,进行黑箱建模,得到传递函数,用什么方法呢遗传算法神经网络操作步骤源程序
遗传算法(Genetic Algorithm)是模拟达尔文生物进化论的自然选择和遗传学机理的生物进化过程的计算模型,是一种通过模拟自然进化过程搜索最优解的方法。遗传算法是从代表问题可能潜在的解集的一个种群(population)开始的,而一个种群则由经过基因(gene)编码的一定数目的个体(indivial)组成。每个个体实际上是染色体(chromosome)带有特征的实体。染色体作为遗传物质的主要载体,即多个基因的集合,其内部表现(即基因型)是某种基因组合,它决定了个体的形状的外部表现,如黑头发的特征是由染色体中控制这一特征的某种基因组合决定的。因此,在一开始需要实现从表现型到基因型的映射即编码工作。由于仿照基因编码的工作很复杂,我们往往进行简化,如二进制编码,初代种群产生之后,按照适者生存和优胜劣汰的原理,逐代(generation)演化产生出越来越好的近似解,在每一代,根据问题域中个体的适应度(fitness)大小选择(selection)个体,并借助于自然遗传学的遗传算子(genetic operators)进行组合交叉(crossover)和变异(mutation),产生出代表新的解集的种群。这个过程将导致种群像自然进化一样的后生代种群比前代更加适应于环境,末代种群中的最优个体经过解码(decoding),可以作为问题近似最优解。
附件包含好几个用遗传算法优化神经网络初始权值的matlab程序,算是一个小合集,搜集了目前网上最流行的几个GA-BP案例。运行前需安装遗传算法工具箱GAOT,否则无法运行。
㈧ 利用黑箱法分析下+@洗衣机;@机械手表;@打字机;④吸尘器。
摘要 您好,很高兴为您服务,您可以参考以下资料https://www.docin.com/touch_new/preview_new.do?id=660063993