㈠ 1、在制定决策的过程中不可避免会掺杂偏见,你认为具有偏见会导致哪些缺陷
自己曾经遭遇过一些挫折,对自己形成心理阴影,可能会产生一些决策失误。
㈡ 在决策中带有偏见有什么不利之处
既然是决策,肯定是经过了一系列判断,平衡得失和损益之后做出的决定,是一系列理性思考后的最终行为。而偏见或多或少都比较感性,会影响你对整个大局的判断和把握。当然,谁有偏见都很正常,人要活得顺心,就得感性一点。那么我个人觉得你问这个问题,是想避免偏见影响你的判断,但同时你又希望继续和对方合作或者相处。
面对这种事情,我觉得可以这么看,如果是从你个人出发,你如果不想跟有偏见的那方有过多瓜葛,那么最妥善的方法就是眼不见心不烦,不要跟那边产生接触,自然你就没那份心思考虑了。那么如果你是从大局上出发,考虑了诸多得失的情况下,那么肯定以大局为重、以事业为重。
不知道能不能帮你
㈢ 英国高考采用算法打分引发众怒,究竟怎么回事
在我国,高考牵动千千万万家庭的心,在英国也同样有高考。英国高考于A-Level两年完成,英国高考课程的第一年(12年级)称为AS,第二年(13年级)称为A2。在第一年,学生通常修读4至5科,在第二年再从中选择3至4科成绩较好的科目继续学习。学生在高考取得3科合格,即符合升读英国大学资格。
㈣ AI也有偏见,我们该如何信任它们
1970年,爱德华·肖特利夫(Edward H. Shortliffe)在斯坦福大学的实验室里开始着手编写一个Lisp程序。这个名为MYCIN的系统通过一系列的是非问题帮助医生判断病人是否患有遗传性血液疾病,并根据病人体重建议抗生素用量。作为历史上最早的专家系统之一,MYCIN的正确率仅为65%,相较血液科医师80%的正确率相去甚远,而且由于程序过于庞大,最终也没有投入使用。
无独有偶,2015年,有用户发现谷歌的图像识别系统将自己的黑人朋友标记为“大猩猩”,在推特上引起轩然大波。直到2018年,谷歌仍然没有完全修复这一漏洞,只是将灵长类的标签从系统中移除,并称“图像识别技术还不成熟”。同样是2015年,纽约西奈山医院用70万病人的数据训练了一个名为“深度病人”的深度神经网络,用以辅助医疗诊断。“深度病人”对精神分裂症的预测出乎意料地准确,但没有医生知道为什么,自然也无法应用于自己的临床诊断;当它被用于分析医院以外的X光片时,系统正确率莫名出现了大幅下降。
“数据不会说谎。”但这绝不意味着我们不需要仔细审视它们,或是给予基于数据之上的AI系统无条件的信任。肖特利夫的MYCIN系统本质上是一个决策树,属于“透明”的模型——我们可以画出从数据输入开始完整的决策过程,从而评估MYCIN的决定。深度神经网络的性能远远优于决策树,但它是一个“黑箱”——我们几乎不可能确切地知道它在算什么。性能与可解释性似乎此消彼长。
对一位只追求正确率和性能的算法工程师来说,黑箱AI未必不受待见:一个能够准确预测95%的事件的黑箱系统,肯定比另一个正确率只有65%、更透明的系统好。可是,当工程师需要调整系统内部“零件”的时候(比如修复谷歌图像识别系统),黑箱会让这项任务无比艰难:到底是哪一步出错了?是用于训练的数据有问题,还是模型本身的性能不足,或是损失函数(loss function)有待改进?置身黑箱之外的工程师很难一针见血地指出病灶。
我们中的大多数人也许极少有机会成为工程师、法官、医生,但这不妨碍黑箱AI对我们的生活造成影响。与我们的一厢情愿相反,不够透明的AI系统非但没有比人类更客观、公正、精确,反而加深了既存的偏见和不公正,对数字民主和基本人权构成威胁,而对这些系统的控制、介入和审计也更为困难。当我们无法解读AI作出的决策,对它未来的预期不过是纸上谈兵,信任也无从谈起。
可解释AI(Explainable AI,即XAI)想要解决的正是这类问题。XAI认为,通过解释AI系统的决策过程,人类能够更好地理解它的机制、优缺点、潜在影响等特性,从而更有效地预测系统的行为,达到逐步建立信任关系的效果。如果AI革命不可避免,至少一个可被解释的系统能够更好地融入崭新的算法社会契约——例如伊亚德·拉万(Iyad Rahwan)提出的社会回环(Society-in-the-loop)——与人类共生存,而不必成为敌对的关系。
我需要一个解释
可解释AI终究是为人服务的(好比高阶编程语言是为了人类设计的,否则机器之间的“交流”大可以用机器编码之类人类无法轻易读写的“语言”)。所以“解释性”也是相对人而言的。关于黑箱AI系统,什么样的解释才是好的解释?心理学家和哲学家早就开始分头研究,但各执一词。
解释常常需要阐述特定的因果关系或因果模式,例如“我不吃杏仁,因为我对坚果过敏”。这样的解释非常贴切(没有转移话题),直接明了(不存在循环论证),逻辑严密。有的现象却很难用通俗的因果关系解释——请试着回答,“我掷了一次骰子,为什么朝上的一面是3?”当然,你可以引用物理法则来解释掷骰子的具体过程,但我可能一头雾水。为了避免这样的尴尬,你也许会提及相关的(非因果的)概念,比如“随机性”,或是用类比等手法让你的解释更容易被听众接受(比如上一段的第一句话)。一般而言,因果关系在解释中占据不可动摇的地位,但不是唯一的手段。
既然解释本身可以有各种形式,为了筛选出最好的可解释AI,我们为什么不直接问:你理解这个系统在做什么吗?相关的心理学研究也的确使用了类似的方法来推断人们是否能够通过描述性解释理解某一概念。它们发现,客观上,当受试者对某一概念有更好的理解时,他们能通过主观的直觉感觉到自己的认知进步,好比“茅塞顿开”。
然而,耶鲁大学的列昂尼德·罗森布里特(Leonid Rozenblit)和弗兰克·凯尔(Frank Keil)提出的“解释深度的错觉”(Illusion of Explanatory Depth)仿佛当头一棒。罗森布里特和凯尔让受试者首先评价自己对某一工具(比如拉链)的理解,然后详细地解释这个工具的工作机制,并再次评价自己的对它的理解。他们发现,相比一开始,试图解释后的受试者对自己理解的评价明显下滑,仿佛突然意识到自己其实一知半解。这就是“解释深度的错觉”。这种错觉影响着所有人(包括小孩子),并且只作用于解释性的知识。完全相反的情况也不少见:人们会自称不理解一个动力系统,却能熟练地使用它。
另一方面,规范(normative)解释在哲学(尤其是科学哲学)中发扬光大。规范解释有意忽略个人因素,比如认知能力,而是关注“应有”的理解。因此,规范理解可以被视为一种基准,用来分析哪些信息应当被包含在解释里,以及受众会有何种程度的理解。更进一步地说,好的(规范)解释应当从理解的目的出发,基于受众与黑箱AI的关系给出不同的解释。显然,修补系统漏洞的工程师和审核系统公正性的法官所需的理解是不同的。我们可以合理假设前者具有足够的技术知识背景,也许将计算模型可视化就提供了足够好的解释。后者需要的是更抽象的文字解释,比如“其他条件不变,COMPAS系统预测黑人被告和白人被告被再次逮捕的概率不同。”两种都是好的(规范)解释,一旦互换却可能成为各自的鸡肋。
规范解释看似更加直截了当,但在实际应用中还没有确切实现或评估的共识。描述性解释似乎也不甚完美。时至今日,我们仍未整合描述性解释和规范解释,关于解释的研究和可解释AI还在齐头并进。
有了可解释的AI就万事大吉吗?
2017年开始,美国国防高级研究计划署(DARPA)投资了一系列XAI的项目,包括UCLA的VCLA中心的研究项目。2018年,ACM主办了第一届FAT*会议,关注AI系统的公正性、问责制和透明度。同年,AAAI与ACM共同举办第一届AIES(人工智能、伦理与社会)会议。谷歌、微软等科技公司也陆续参与XAI的研发。各界对于XAI的关注促成了许多“拆穿”黑箱AI的尝试,从DeepMind提出的机器心智理论(Machine Theory of Mind),到将黑箱神经网络转化为“透明”的布尔电路(Boolean circuit),再到LIME(Local Interpretable Model-Agnostic Explanation)等通过近似黑箱模型提取重要特征的方法。虽然XAI目前解释的对象主要是工程师等研发人员,但是在未来,我们将会看到更多面向大众的XAI,比如向你解释如何开药瓶的Baxter。
XAI并不是终点;它最多算一个起点,而我们还有许多亟待解决的问题。首先,对黑箱AI的解释可以被悄无声息地篡改,可以完全牛头不对马嘴,而且很难察觉。哈佛大学的希玛宾度·拉卡拉朱(Himabin Lakkaraju)和她的学生们发现,只需在模型上动一些简单的手脚,就能让它滥用COMPAS数据集里的种族信息决定量刑,但一旦LIME来“视察”,它立刻摆出无辜的嘴脸,完全不露馅。这就意味着,即使有XAI为工具,我们对AI的信任也不应当盲目地依赖系统的可靠性和(表面上)信息的透明性,理智与批判性思考将格外重要。
其次,针对AI的条例的制定相对滞后于研发和应用。XAI的出现将会让这个问题更加复杂——由于黑箱AI难以捉摸,且只有少数人具备解读/修改的能力,研发机构不必过分担心自己的科研成果泄漏(除非算法模型被一锅端)。如果面向用户和公众的解释成为需求、甚至必须,既有的AI系统——无论透明与否——都有可能面临一系列的风险,包括知识产权(利用反向工程重建系统)和系统安全(恶意的对抗攻击)。信任与保密两者的张力之下,XAI应当提供的解释的具体内容尚无定论。
再者,偏见和不公不会因为解释本身而消失;恰恰相反,解释会暴露更多一直以来潜行在我们周围的伦理问题。ProPublica对COMPAS的调查使人不禁发出疑问:系统性的种族偏见究竟在何种程度上渗透了美国过去十年间的量刑?随着XAI的进步,一个个黑箱AI的庐山真面目逐渐显露在我们眼前,不难想象其中有像COMPAS一样的“帮凶”。我们能否通过公开讨论解决结构性问题、完善问责制,这将是对AI和人类社会共同的挑战。
㈤ 消除偏见的方法有哪些
消除偏见的方法
为了消除偏见带来的负面影响,心理学家提出了一些可能的方法:
(1)对抗刻板印象。研究表明,通过有意识地抛弃或转移根深蒂固的刻板印象,将注意力集中到对象的个人特性上,可以有效地降低印象形成过程中刻板印象的影响。
(2)平等接触。产生偏见的原因之一在于,人们对于某一类人形成刻板印象之后,由于缺少平等的接触、了解的机会,刻板印象中的错误信息一直得不到更正。增加个体之间的平等沟通有利于人们获取新信息,进而改变原有的看法。
(3)创造消除偏见的环境。偏见是后天习得的,要减少偏见,可以从减少学习偏见的机会入手,利用家庭、学校、大众传媒等社会化代理人对个体的态度形成和转变过程施加积极的影响,从而达到减少社会偏见的目的。
摆脱某些武断看法的一种好办法就是设法了解一下与你所在的社会圈子不同的人们所持有的种种看法。我觉得这对削弱狭隘偏见的强烈程度很有好处。如果你无法外出旅行,也要设法和一些持不同见解的人们有些交往,或者阅读一种和你政见不同的报纸。如果这些人和这种报纸在你看来是疯狂的、乖张的、甚至是可恶的,那么你不应该忘记在人家看来你也是这样。双方的这种看法可能都是对的,但不可能都是错的。这样想一下,应该能够慎重一些。
㈥ 科学家最后通过什么办法使ai更聪明
这是个科学的一个同时的一个方法的话,我觉得基本上这种智能比较方便
㈦ 存在偏差的机器学习模型会有什么影响
大家都知道,现如今,人工智能是一个十分火热的概念,其实就目前而言,人工智能已经不能够用概念来形容了,需要用技术来形容,而人工智能的核心就是机器学习,机器学习的要素之一就是模型,那么存在偏差的机器学习模型会有什么影响呢?下面我们就给大家解答一下这个问题。
当我们使用质量差的数据集就极有可能会导致误导性的结论。这是因为数据集不仅会引入不准确性和缺失数据,还会引入偏差。而人肯定是可能会有偏见的,所以由人们创造或启发得出的模型也可能存在偏见。每种机器学习算法对不平衡的类或分布都有不同的敏感性。如果没有解决这些问题,你最终可能会得到的结果会是具有性别偏见的模型。
所以说不管是算法得到的结论还是人类得到的结论准确性都取决于被处理信息的广度和质量。所以说,算法存在的偏差也因此而来,算法偏差的迹象已经被充分记录在了信用评分,教育课程,招聘和刑事司法判决等公共领域。收集,策划或应用不当的数据甚至可能在最精心设计和周密计划的机器学习应用程序中引入偏差。而固有偏见的机器学习系统可能会使部分客户群体或社会利益相关者处于劣势,并可能造成或延续不公平的结果。
有科学家认为,算法偏差是机器学习的最大风险之一,因为它会影响机器学习的实际目的。其实这是一个正确的结论,同时这也是一个经常被忽视的缺陷,因为这样可以引发代价高昂的错误,如果不加以控制,可能会使项目和组织往完全错误的方向发展。所以说我们需要重视这一点内容。所以说如果在一开始就能有效地解决这个问题,将会获得丰厚回报,从而最大限度地实现机器学习的真正潜力。这样才能够帮助我们更好的解决这些问题。
在这篇文章中我们给大家介绍了存在偏差的机器学习模型能够为我们带来什么后果,这些内容都是能够帮助大家更好地理解机器学习的知识,大家在进行机器学习的时候一定要注意好这些问题,希望大家能够引以为戒。最后祝愿大家能够更好地使用机器学习,也可以早日学有所成。
㈧ 人们对人工智能的偏见为什么可能是一件好事
尽管人们喜欢谈论人工智能(AI)和机器学习能够完成比人类做的更好的事情,但事实是人工智能和机器学习只是加速了人类正常工作的速度。
正如关于人工智能偏见的一篇深思熟虑的文章所写的那样,“当人们开始构建机器学习模型时,将会遇到了一个不变的事实:人工智能的最大挑战经常在写入程序时开始,这使得人们必须明确自己的目标,几乎没有其他的办法。”
换句话说,人工智能的采用反映和放大了人们的偏见,而不是消除这些偏见。当人们采用人工智能和机器学习时,从市场营销到司法判决,人们都需要对此有所了解。
向左转|向右转
不管怎样,机器需要完全按照人们告诉他们要做的事情实施。正如行业专家强调的那样,通过数据启动机器的最佳方式并不是速度,而是缺乏创造力:机器学习的真正优势在于他们不会感到厌倦或分心,机器学习模型可以连续做出数百万或数十亿次不同的数据决策,并且不会让它变得更糟或更好。这意味着可以将它们应用于人类很难应对的问题,比如为单个搜索排名数十亿的网页等。这种优势是真实的,但它也带来了问题。
尽管营销人员喜欢以“超越人类”的方式出售他们的人工智能产品,但这并不是。人们需要对计算机进行编程,在这个过程中,人们采用自己的计算机编程时充满了他们的偏见。正如专家所指出的的那磁:机器学习模型有一个非常讨厌的习惯,那就是他们会学习数据,然后告诉他们学到了什么。此外,他们也可能固执地拒绝学习,除非人们明确向他们解释那是什么。
专家总结道:“人工智能模型对人们来说是一面镜子,他们不明白人们什么时候不诚实。换句话说,人工智能模型并不是一个中立的仲裁者:人们将告诉它真相,并将这种真相反映在人们身上。而人们已经对人工智能和机器学习期望过多,以至于人们需要使用计算机与人工代理通话或进行人工代理。”
当人们对人工智能和机器学习算法进行编程时,必须对重要的事情做出明确的决定,而在被迫公开面对编程这些模型的偏见时,人们可能会学会克服这些偏见。
㈨ 为什么人们对人工智能偏见可能是一件好事
尽管人们喜欢谈论人工智能(AI)和机器学习能够完成比人类做的更好的事情,但事实是人工智能和机器学习只是加速了人类正常工作的速度。
正如关于人工智能偏见的一篇深思熟虑的文章所写的那样,“当人们开始构建机器学习模型时,将会遇到了一个不变的事实:人工智能的最大挑战经常在写入程序时开始,这使得人们必须明确自己的目标,几乎没有其他的办法。”
换句话说,人工智能的采用反映和放大了人们的偏见,而不是消除这些偏见。当人们采用人工智能和机器学习时,从市场营销到司法判决,人们都需要对此有所了解。
不管怎样,机器需要完全按照人们告诉他们要做的事情实施。正如行业专家强调的那样,通过数据启动机器的最佳方式并不是速度,而是缺乏创造力:机器学习的真正优势在于他们不会感到厌倦或分心,机器学习模型可以连续做出数百万或数十亿次不同的数据决策,并且不会让它变得更糟或更好。这意味着可以将它们应用于人类很难应对的问题,比如为单个搜索排名数十亿的网页等。这种优势是真实的,但它也带来了问题。
尽管营销人员喜欢以“超越人类”的方式出售他们的人工智能产品,但这并不是。人们需要对计算机进行编程,在这个过程中,人们采用自己的计算机编程时充满了他们的偏见。正如专家所指出的的那磁:机器学习模型有一个非常讨厌的习惯,那就是他们会学习数据,然后告诉他们学到了什么。此外,他们也可能固执地拒绝学习,除非人们明确向他们解释那是什么。
专家总结道:“人工智能模型对人们来说是一面镜子,他们不明白人们什么时候不诚实。换句话说,人工智能模型并不是一个中立的仲裁者:人们将告诉它真相,并将这种真相反映在人们身上。而人们已经对人工智能和机器学习期望过多,以至于人们需要使用计算机与人工代理通话或进行人工代理。”
当人们对人工智能和机器学习算法进行编程时,必须对重要的事情做出明确的决定,而在被迫公开面对编程这些模型的偏见时,人们可能会学会克服这些偏见。
㈩ 什么是算法
算法(Algorithm)是指解题方案的准确而完整的描述,是一系列解决问题的清晰指令,算法代表着用系统的方法描述解决问题的策略机制。也就是说,能够对一定规范的输入,在有限时间内获得所要求的输出。如果一个算法有缺陷,或不适合于某个问题,执行这个算法将不会解决这个问题。不同的算法可能用不同的时间、空间或效率来完成同样的任务。一个算法的优劣可以用空间复杂度与时间复杂度来衡量。
算法中的指令描述的是一个计算,当其运行时能从一个初始状态和(可能为空的)初始输入开始,经过一系列有限而清晰定义的状态,最终产生输出并停止于一个终态。一个状态到另一个状态的转移不一定是确定的。随机化算法在内的一些算法,包含了一些随机输入。
形式化算法的概念部分源自尝试解决希尔伯特提出的判定问题,并在其后尝试定义有效计算性或者有效方法中成形。这些尝试包括库尔特·哥德尔、Jacques Herbrand和斯蒂芬·科尔·克莱尼分别于1930年、1934年和1935年提出的递归函数,阿隆佐·邱奇于1936年提出的λ演算,1936年Emil Leon Post的Formulation 1和艾伦·图灵1937年提出的图灵机。即使在当前,依然常有直觉想法难以定义为形式化算法的情况。