强人工智能论文, 人工智能这个话题,沉寂多年后,最近又引起了热议。基于“神经网络”架构的软件在机器学习能力上的进步让人耳目一新,但也让很多人焦虑甚至恐惧。以下是边肖整理分享的强人工智能论文相关资料。欢迎阅读!
强人工智能论文篇一
“强人工智能”将如何改变世界
[摘要]人工智能这个话题,沉寂多年后,最近再次引起热议。基于“神经网络”架构的软件在机器学习能力上的进步让人耳目一新,但也让很多人焦虑甚至恐惧。这是因为“学习”的能力原本被认为是人类独有的能力,机器无法胜任。现在这个界限被打破了,机器和人的界限似乎被抹去了。在对人工智能的担忧中,最值得关注的是人工智能的应用伦理及其价值植入的技术局限性。事实上,人工智能的技术飞跃或所谓的“智能爆炸”所带来的应用伦理问题并不是新问题,而是一系列老问题的叠加。会挑战我们过去的经验,但不是颠覆性的“淘汰”。无论人工智能如何模仿人脑的“神经网络”,如何表现得像人一样,只要对人类精神现象的最终解释没有取得突破,人工智能是否接近人类智能的问题就缺乏必要的前提。
[关键词]弱人工智能,强人工智能,量子力学,物理主义,伦理困境,价值合理性
【中国图书馆分类号】B82-057【文献识别码】A
10.16619/j . CNKI . rmltxsqy . 2016 . 07 . 003
AlphaGo的“胜利”与人工智能的进化
2016年,人工智能(AI)的话题高度兴奋。谷歌DeepMind团队开发的AlphaGo程序以4-1“击败”韩国棋手、世界冠军李世石,让这种兴奋达到了顶峰。
AlphaGo程序利用“神经网络”模仿职业棋手,通过与其他同类程序竞争和“对抗”程序本身来“自我学习”,从而进一步提高其性能。AlphaGo对其他围棋程序的胜率达到99%,在过去的巡回赛中以5-0击败了卫冕欧洲冠军范辉。这次AlphaGo和李世石的对决,五连胜或者一负四胜,并不妨碍我们进一步评价人工智能的发展。正如谷歌董事长施密特在这次赛前发布会上所说,输赢是人类的胜利。正是因为人类的努力,人工智能才有了今天的突破。人工智能在围棋上“打败”人类智能只是时间问题。
AlphaGo赢得围棋比赛,让知识界和科学界对人工智能的两种典型态度再次引起关注:一种是霍金和比尔盖茨的“警惕人工智能”,另一种是雷库兹韦尔的乐观、兴奋和期待。2014年12月,英国理论物理学家斯蒂芬霍金警告说,人工智能的发展可能意味着人类的灭亡。2015年1月,比尔盖茨在Reddit的“问我任何问题”论坛上表示,人类应该对人工智能的崛起保持敬畏。盖茨认为,人工智能最终会构成真正的威胁,尽管在此之前,它会让我们的生活变得更加轻松。库威尔是奇点理论和加速回归定律的代表。他曾经说过,“要成为发明家或企业家,你必须是一个乐观主义者。我不是不知道未来的风险。我只是乐观地认为,人类可以在不摧毁文明的情况下安全度过奇点。”
自1956年被达特茅斯学院会议正式确立为一门学科以来,“人工智能”的发展经历了许多风风雨雨。在20世纪70年代,人工智能的发展开始遭遇更多的批评,随之而来的是财政支持的急剧下降。研究人员的过度乐观使得一些项目的承诺无法兑现。马文明斯基等知名人士对传感器技术的激烈批评已经使连接主义(即神经网络)消失了差不多10年。1973年,美国和英国政府严格控制对人工智能的投资,那些“没有明确目标的人工智能研究项目”被停止资助。
从1980年到1987年,人工智能再次迎来了发展的高潮。首先,日本投资8.5亿美元开发机器人。在日本政府投资雄心的刺激下,发达国家进入了“人工智能”研究的竞争状态。美国政府和企业再次在AI领域投入数十亿研究资金,但由于研究人员低估了人工智能研发的难度,进展有限,这些投资在80年代末再次受到质疑。从1987年到1993年,人工智能的发展再次陷入低谷。美国研究机构DARPA(国防高级研究计划局)主任甚至认为人工智能已经不再是一个重要的研究方向。卡耐基梅隆大学移动机器人实验室主任汉斯莫拉维克将这种挫败感归咎于同龄人不切实际的预测和承诺。
从1993年到今天,人工智能进入了加速发展的轨道。2012年6月23日,在米尔顿凯恩斯的布莱奇利公园举行了一场图灵测试,以纪念图灵的百年诞辰。一个被设计成具有“高可信度”的个性化机器人“古斯曼”赢得了比赛。这次比赛有5个机器人,25名人类成员和30名裁判,是有史以来最大的一次。经过一系列5分钟的对话,29%的评委认为古斯曼拥有类似人类的人工智能。这个测试让AI乐观派相信AI的跨越式发展即将到来。早在2005年,雷库兹韦尔(Ray Kurzweil)就在其著作《奇点临近》中预言,2045年机器的智能将超过人类。
在学术界,“奇点理论”受到了强烈而持久的质疑。牛津大学哲学教授,人类未来研究所(人类未来研究所是一个多学科的研究机构,旨在帮助一些优秀的数学家、哲学家和科学家仔细思考人类的大问题和全球事务)的创始人和主任。尼克博斯特罗姆(Nick Bostrom)在他2014年出版的《超级智能:途径、危险与战略》一书中认为:“‘奇点’一词在许多不同领域被混淆使用,并催生了一种非理性。考虑到‘奇点’一词的大部分含义与本文的讨论无关,我们可以去掉这个词,用一个更精确的术语来代替。” Postum用“超智能”这个词来形容机器在“智能爆炸”之后的智能状态。但波斯特姆的概念并没有将工具智力与人的意识、自我意识等第一人称世界的内容区分开来。根据我们下面的讨论,可以看出这种混乱是被误导的,但这并不妨碍他的警告的有效性。
弱人工智能的复杂性:人类的“超级秘书”
AlphaGo赢得了围棋比赛。是不是像有些人惊呼的那样,人类智慧的最后一道屏障即将崩塌?“人类应该放下骄傲”?其实人类以这种工具性智能为荣,这是一个错位的概念。况且下面围棋代表人类智力的能力也是站不住脚的。归根结底,是在单一的抽象游戏智能方面,制度化的学术集体打败了天赋异禀的自然个体。这种游戏,不管哪一方赢,都是人类赢。围棋作为一种古老的棋艺,规则简单明了,但也有人痴迷于组合可能性的庞大数据。棋盘上的每一点都是黑、白、空的。棋盘上有19*19=361个点,所以可能的合法棋局数是3的361次方。无穷的可能性催生了围棋朗朗上口的经验总结,其实就是快速计算胜负概率,这与AlphaGo通过“深度学习”减少计算量的逻辑是一致的。不同的是,计算机可以作为程序记住无限多的公式和案例,而人穷一辈子只能记住有限的经验。很多情况下,他们只能依靠实地计算甚至直觉。一些执着于围棋技巧,不愿相信计算机能赢的人,陷入了神秘化围棋的有限体验中。更有意思的是,一些棋手在根据围棋平时的训练技巧评价人机大战时,会认为AlphaGo的哪些棋是下“烂棋”,哪些棋是“失误”。事实上,只要实现了程序设定的目标,以赢得最后一局为目标的计算机程序就不可能出现“下坏棋”或“失误”的情况。
那么,能够深度学习,用神经网络进行构建的AlphaGo,是被认为是“强人工智能”还是Postum所说的“超级智能”?
Postum在美国杂志《连线》的2016年1月发表了一个观点。在他看来,这(指AlphaGo之前的发展)不一定是巨大的飞跃。波斯特姆指出,多年来,系统背后的技术一直在稳步改进,包括已经讨论了很多的人工智能技术,如深度学习和强化学习。谷歌打败围棋高手只是一个重大过程的一部分。这个过程很久以前就开始了,并将持续到未来几年。波斯图姆说,“在过去和现在,最先进的人工智能已经取得了很多进展。”“(谷歌)的基础技术只是过去几年技术研发的正常延续。”
看起来,虽然Postum对智能本质的整体理解并不真实,但AlphaGo的表现并没有让他感到意外。在《超级智能:路线图、危险性与应对策略》一书中,他曾表示:“职业象棋比赛曾被认为是人类智力活动的集中表现。20世纪50年代末,一些专家认为:“如果我们能制造出一台成功的象棋机器,我们就一定能找到人类智慧的本质。”但现在,我们不这么认为了。约翰麦肯锡曾不无遗憾地感叹:‘这台机器造出来后,人们就不再称它为人工智能了。’也就是说,能下棋,能战胜人类的机器终究是机器,与人的心智本质关系不大。觉得不可思议或者惊呼“聪明的人类输给了机器”的人,要么神化了下棋技巧的智力本质,要么赋予了下棋程序“人性”的特征。
乍看之下,Postum所谓的“超级智能”应该是一种可以完全替代人类智能的“强人工智能”,与目前已经广泛使用的“弱人工智能”不同(包括自动驾驶、下棋技巧、机器视觉、指纹识别、人脸识别、视网膜识别、虹膜识别、掌纹识别、专家系统、自动规划等等)。但他并没有深入探讨人类智能现象的本质是什么,也没有处理经典的“他心问题”,让人觉得他所说的“超智能”仍然属于工具智能的“弱人工智能”范畴。
这方面,他自己也有所了解。他说,“超级智能是指在许多普遍认知领域远超人类最聪明的头脑的智能。这个定义还是很模糊的。根据这个定义,许多系统具有非常不同的性能特征,可以被视为超级智能。”为了进一步解释他的构想,他试图通过在智力水平上区分超能力来打破这种对超能力的简单定义。于是,他把超级智能分为三种形式:高速超级智能、集体超级智能和质量超级智能。由于未能把握人类意识现象的本质,也未能指出解释意识现象的方向,无论波斯特姆在展望“超智能”时如何对其进行分类,都无法提供“机器人是人吗?”是人形机器人吗?“这个根本命题的方向甚至答案。
无论是谷歌的无人驾驶技术,还是今天的AlphaGo国际象棋程序,抑或是更早的“微软萧冰”,这些智能机器的发明与人类对科技进步所期待的工具理性并不存在根本性的内在冲突。日益增加的复杂性和智能化,与人们惊呼“人类将被机器消灭”的后果,并没有必然的联系。
可以说,时至今日,机器象棋技术的每一次重要发展,都可能是“弱人工智能”领域的一个路标,但涉及的并不是人工智能技术内在逻辑的突破性突破。这一次AlphaGo获得所谓人类冠军的重要意义,是在一些围棋爱好者把围棋和李世石预设为标杆当然之后,标杆在某种光线下投下的宣传和扭曲阴影。要超越这一点,我们必须对人类意识的“同一性”问题和“他者性”问题有一个可操作的解释。就目前的情况来看,玄机在哪里?不在象棋里,不在DeepMind的工坊里,不在“阿尔法狗”的“神经网络”里,而是在我们自己心灵的幻影里。就“弱人工智能”这个范畴来说,再强大的智能,再厉害的人类的机器,也不过是人类的一个不发出任何声音的“超级秘书”。
价值的丧失:人类身份危机和技术焦虑症
2014年,斯蒂芬霍金、麻省理工学院物理学家马克斯泰格马克、诺奖得主弗兰克维尔泽克和计算机科学家斯图尔特雷塞尔写了一篇署名评论文章《在超级智能机器上超越自满》,引起广泛关注。霍金在文章中表达了对人工智能的担忧:“可以想象,人工智能会凭借它的‘智能’在金融市场上胜出,在发明上胜过人类研究人员,在操纵舆论上胜过人类领袖,开发出人类甚至无法理解的武器。虽然AI的短期影响取决于谁在控制AI,但它的长期影响取决于能否控制AI。”
在对人工智能的担忧中,最值得关注的是人工智能的应用伦理及其价值植入的技术局限性。
人类的价值体系大致可以分为外在价值和内在价值,也就是所谓的“有用”和“无用”之分。当我们说某样东西有用时,是就它的目的、用途或功能而言,而不是就它而言。比如钱可以用来买面包充饥,这叫工具价值。因为它把其他的东西作为它的服务对象,它没有内在价值,只有外在价值。外在价值是那些工具性的价值,最终服务于人的内在价值诉求。那么,什么是内在价值呢?哲学家可能会对一些模棱两可的领域进行争论,但无论如何,很少有人会排斥一些基本要素,比如自由、幸福、尊严、爱、创造力、自我超越等等。这些东西不是为了别的东西而存在的。相反,生活中没有这些东西,就意味着失去了值得想要的东西。当然,要拥有自由和尊严,我们需要一个最低版本的生活条件。这种和其他动物没什么区别的状态,并不是人的本质。如果我们谈论人的生命的内在价值及其意义体系,我们必须把重点放在人所特有的东西上。康德的道德哲学已经向我们表明,追求自由和尊严是所有理性存在的内在规定,很少有其他哲学家会否认这一点。
在谈到人工智能对人的侵蚀和威胁时,一些研究者会用“以人为中心”这个词来描述这种内在价值的丧失。例如,丹尼尔法盖拉采访了12位活跃在人工智能领域的权威专家和研究人员。其中,阿肯色大学的Kornai博士和Daniel Berleant博士都预见到了自动金融算法被其主人用作赚钱工具所带来的潜在灾难性问题。他们说他们之间没有“人性关怀”。认知科学家约沙巴赫(Joscha Bach)说:“人工智能最近引发的危机,最终可能会变成现在社会已经存在的同样的危机。如果我们不能走出以工资为基础的经济模式,人工智能的自动化会提高生产力,但不会改善我们的生活条件。”?这种担心不无道理,但主要是基于财富分配快速变化导致的社会阶层流动。其实不是技术进步和人工智能本身的问题。
如前所述,人的内在价值并不在于生存的基本劳动。无论是体力劳动还是脑力劳动,都是为了解决问题,完成给自己设定的任务。这个设定来自于我们的自我意识和意义系统。有了这个设定,我们就能知道什么是要做的“活”,什么是服务于我们需求的有效劳动。智力活动,比如象棋,只是在人类中不是用来“工作”以达到功利目的的技能,而是生活中高级游戏的一部分,具有超越工具价值的重大意义。然而,在这场人机大赛中引起轩然大波的并不是这个,而是人们感受到的一种基于工具有效性理解的自我认同危机。这种自我认同其实是一种帮助者的思维,是一种价值上的自嘲。
在单一抽象游戏智力方面,制度化、学术化的集体战胜了天赋异禀的自然个体。这让依赖这种禀赋的自然个体感到焦虑,就像有人马上反应过来:“你以后还带孩子学围棋吗?巷子里的围棋兴趣班有生意吗?”围棋冠军感受到一种职业恐惧:我们之前的围棋知识到底有多少盲点?
其实机器是没有独立意志的。所谓的“输”和“赢”,都是我们人类单方面的投射,与AI的“自我”无关,因为AlphaGo根本没有“自我”这个东西。没有独立意志,怎么会有与人的“大战”?相反,人们在棋盘之外的反应,比如无名的焦虑和难以抑制的兴奋,更具体地说,华语世界的看客们几乎一致称AlphaGo为“狗”,这已经超出了当今任何人工智能能够“理解”的范围。
一些围棋老手很困惑。他们认为AlphaGo选点的思维方式和人类很不一样。还有一种流行的说法是“最可怕的不是AlphaGo打败李世石,而是它能赢却故意输”。本来是个玩笑,但是这个玩笑提出的问题真的一针见血。什么叫“故意”输?AlphaGo没有自我意识和自由意志。怎么能说是“故意”呢?“意图”是完全不同的能力。这就需要我们了解“弱人工智能”和“强人工智能”的原理区别。
波斯特姆似乎把机器所谓的“意图”描述为“超智能的意志”。在他看来,智力的爆炸会导致一个临界点,叫做“背叛转折点”。关于背叛的转折点,他是这样定义的:“人工智能愚蠢的时候,聪明更安全;但是当它聪明的时候,变得更聪明就更危险。就像有一个轴点。此时,原本有效的策略会突然产生相反的结果。我们把这种现象称为背叛的转折点。”?
Postum想象中的人工智能末日仍然围绕着人的动机,而不是机器的真实意图。比如“机器”为了讨好开发人工智能的赞助者,故意表现得不那么“聪明”来欺骗人类,比如在赞助者的大脑中植入负责快乐的电极,让赞助者蒙在鼓里,毫无察觉,反而觉得很快乐。这里涉及的仍然是人与人之间的欺骗和控制。
只要人与人工智能所呈现的问题和危机没有关系,就不存在人类已经面临的控制与反控制之外的问题。也就是说,人工智能的技术飞跃或所谓“智能爆炸”带来的应用伦理问题,并不是新问题,而是一系列老问题的叠加。会挑战我们过去的经验,但不是颠覆性的“淘汰”;它将改变社会阶层分析的经典框架,但不会产生任何新型的灾难。
对人工智能的过度期待或深深忧虑,多是基于缺乏理论基础的科幻想象,或是人们对自身身份前景的恐慌。1818年出版的《科学怪人》?它描述了科学狂人“弗兰肯斯坦”,用“科学”的方式复活了死尸。结果被称为“弗兰肯斯坦的怪物”的人造人反过来控制了弗兰肯斯坦。文学在很长一段时间里展现了人类身份的这种焦虑,但今天的知识界和科学界,如果还停留在漫无目的的焦虑和恐惧,将无助于我们真正理解人工智能与人类意识的本质关系。
从目前人工智能的发展方向来看,再怎么“自我学习”、“自我提升”,也不会有征服的意志,更不会有“利益”和“权利”的意识。目前“弱人工智能”的问题是一个常规性的问题,无论是紧迫性还是终极可能性,都是逐渐呈现的。如果在可预见的未来,技术发展领域还有更令人担忧、更令人警醒、更令人迫切的事情,那么或许基于虚拟技术的“增强现实”的实现所带来的影响将更具颠覆性。
强人工智能的可能性与物理主义的困境
“弱人工智能”的机制是清晰可控的。那么,“强人工智能”会不会失控呢?这取决于我们如何定义“强人工智能”。
在学术界和工业界,与“弱人工智能”相对的“强人工智能”概念早已存在。人们很容易把这个名字误认为两者的实力差异,但这种差异是离散的――如果我们把“强人工智能”定义为具有真正自我意识并能确认其主体资格的“智能”,而不是AlphaGo这种只开发出比机械计算更多层次的推理能力和学习能力的程序。这个定义下的所谓“强”,是指超越工具智能的第一人称主体世界内容的出现,还包括意向性、命题态度,甚至自由意志的发生。这样的“强人工智能”可能吗?一些科学家和哲学家说这是永远不可能的,而另一些人说这近在咫尺。
波斯特姆试图从“人工智能、全脑模拟、生物认知、人机交互、网络和组织”等角度分析实现强人工智能或他所称的“超级智能”的几种可能途径。他详细评估了每条路径实现超智能的可行性,认为“目前技术路径很多,因此很有可能至少有一条路径可以实现超智能”。
Postum的分析看起来庞大而繁杂,但他给出的实现路径更多的是在人脑上的直接迭代或高仿真,这大概是把“强弱人工智能”和带有主观性的“强人工智能”混淆了。他认为通向不同本质的道路是同一性质的多种可能性。
在他看来,“如果你有足够先进的扫描技术和强大的计算机能力,哪怕是一点脑理论知识,也能模仿整个大脑。在极端情况下,我们可以想象用薛定谔的量子力学方程在基本粒子层面模拟大脑。这样,我们就可以完全依靠现有的物理学知识,而不需要任何生物模型。这个极端的案例说明,没有计算机技术和数据分析也可以做出人工智能。听起来更合理的一个模拟级别是将单个神经元与其连接矩阵结合在一起,以及它们的树结构和每次触摸的变化状态。我们无法模拟单个神经递质分子,但我们可以粗略地模拟它们的波动浓度。为了评估全脑模拟的可行性,人们必须了解成功的标准。我们的目的不是精确地模拟一个大脑,用它来预测原始人的大脑在受到一系列刺激后会有怎样的反应。相反,我们的目的是获取大脑足够的计算机功能属性,使最终的模拟能够智能工作。因此,真实大脑的许多复杂的生物细节都是无关紧要的。”?
这一讨论是Postum 《超级智能:路线图、危险性与应对策略》中唯一一次提到量子力学,但他后来的分析却远离了量子力学是意识物理研究的可能途径的方向,回到了一般计算主义/物理主义的“牢笼”中。
在心灵哲学和认知科学领域,确实有很多所谓的“计算器”和“物理主义者”。他们认为牛顿力学框架内的物理因果关系模型对人的情绪、意向性、自由意志等与自我意识直接相关的内容具有足够的解释力,人的第一人称主观世界与第三人称客体世界之间不存在最终的鸿沟。但也有研究者持相反的观点,极力论证这种“计算主义”和“物理主义”的悖论性质,只承认从量子力学原理解决意识和自我意识的真正问题是可能的。
最近,美国量子物理学家斯塔普、英国物理学家罗杰彭罗斯和美国基因工程科学家罗伯特兰扎都提出了人类意识的量子假说。中国清华大学副校长史院士、中国科学技术大学副校长潘建伟院士等。还大胆猜测人类智力的底层机制是量子效应。对于这个问题,作者在1998年出版的一本书中试图证明?同样的观点越来越多。
不久前,作者将这一论点进一步系统化,在《哲学研究》上发表了一篇文章,分析了物理主义(包括计算主义)在研究中如何陷入“整体投射谬误”,论证了为什么局域化假说和大脑神经元层面的意识现象解释注定要失败。
也就是说,以定域预设为前提的物理主义和计算主义,原则上无法解释人类意识的现象。量子力学不得不放弃定域预设,这在逻辑上打开了解释意识现象的可能性之门。
包括计算主义在内的物理主义有一个基本前提,即任何物理系统都可以分解为单组独立的局部元素,每个元素只与其紧邻的元素相互作用。这是经典力学的基本原理,是当代神经科学的默认前提,也是物理主义心灵哲学的前提。计算主义强调符号关系。与其他版本的物理主义相比,它主要分析了元素的差异,但这种差异无关紧要。这是因为符号关系是试图解释意识现象或心理事件的产生和关联的机制,而不是纯粹的逻辑关系。基于这种认知框架,他们倾向于认为大脑符号系统的状态是个体独立元素的神经元的兴奋/抑制状态聚合在一起的某个区域的整体呈现。
这样就不难理解为什么Postum认为“获得大脑足够的计算机功能属性”最终可以让模拟大脑智能工作。因此,在计算/物理主义中,神经元系统预期实现的整体功能完全等同于单个神经元的符号功能之和。
但是,作者和斯塔普已经详细论证过,这样的起点甚至不能解释最基本的意识感知现象(如双目整合成像),因为这类现象所涉及的同一时间和空间点的变量数量远远超过了局域预设中每个空间点所能容纳的物理变量数量。他们忽略了这种困境的存在,这是他们混淆了“内部描述”和“外部描述”的功能,陷入“整体投射谬误”的结果。
虽然从量子力学的效应来解释人类智力的顶层机制没有取得突破,但意识导致坍缩的原理似乎是量子力学与身心问题最接近的终极解释。研究人员试图检测与物理事件相关的意识事件?就目前来看,已经有了比较明确的结论,并付诸实践。
但基于以上讨论,我们可以知道,所谓的图灵测试对于判断“强人工智能”是没有用的,不能作为智能意识的推演依据,无论在实验中以假乱真的效果有多逼真。鉴于此,本文提出一个“人工智能逆图灵准则”,表述如下:
除非有充分的理由断定意识的机制或内容被引入,然后停留在任何不以具有意识功能的物质为基础的人工系统的人工生产过程中,否则我们必须认为该系统与原始的基质物质一样是无意识的,无论它的行为看起来与意识主体的行为多么接近。
这里所说的“充分理由”,按照作者和斯塔普的论点,只能在人类现有的科学视野中由量子力学提供。
所以,无论所谓的“超级智能”有多强大,无论是图灵测试中的机器人,还是日本软银公司新研发、富士康代工的所谓“情感机器人”Pepper,还是现在惊叹其“深度学习”能力的AlphaGo,也无论它们和它们未来的升级版本看起来有多像人类的情感,除非有人确凿地证明,在这些机器的制造或升级过程中,人类的情感和人类的意识是在哪个关节融合的,否则,我们只能认为称Pepper为“情感机器人”只是一个比喻结语:“强人工智能”与人类生殖伦理的前景。
如上所述,在进入量子力学之前,包括AlphaGo在内的所有人造机器在某些方面都必须优于人类。这就是人造机器的目的,即人在不断改善人类生存条件的同时,努力实现自身的内在价值。在现有条件下,人造机器不会失控。如果说有所谓的“失控”,那基本上和我们的飞机失控、高铁失控、大坝失控、核能失控是一个性质。
AlphaGo确实有隐喻性的“学习”能力,自我调整累积迭代的能力,但归根结底还是一种工具能力,是一种“弱人工智能”。这种“弱人工智能”很可能通过图灵测试,但与人的意向性和感受性无关。
当然,基于人类理性和道德能力的极限,我们有理由相信,即使是弱小的人工智能,在应用中也应该采取审慎的人文理性态度。
许多理性研究者提出,人类现有的道德资源和伦理框架可能无法覆盖技术飞跃提出的新问题,因为人工智能的发展正在“加速回归”。他们建议应该发展一种叫做机器伦理的道德态度。加州大学伯克利分校计算机科学教授斯图尔特罗素(Stuart Russell)在美国《时代》杂志上发表了一个观点,认为要避免机器的不当使用威胁到人类的生存,就应该考虑如何把人类的价值观变成可编程的代码,把人类的道德变成人工智能的语言。他认为,在机器人领域,“道德哲学将是一个非常重要的产业部门”。
归根结底,这些诉求与当前一系列技术进步所遭遇的伦理困境并无本质区别。就像我们已经提出的虚拟现实和增强现实领域应该注意的大宪章问题一样,都指向了如何防止少数人通过更便捷、更隐蔽的手段控制技术来伤害人的自由和尊严的问题。需要两个关键要素:一是如何更准确、更灵敏地分析科技进步中的结构性变化,通过技术手段防止技术的暗箱操作,这就要求技术的发展始终在一个社会开放空间中进行,使技术不被少数人的权力和资本所垄断;其次,如何在技术进步中注入人文理性,需要哲学家、艺术家和社会科学界积极参与技术变革,及时发现技术中隐含的道德问题和社会问题,并在仔细观察后向科技界和企业界发出自己最强音,从而构筑人文伦理防火墙。
此外,我们需要强调,弱人工智能和强人工智能,鉴于其生发机制的性质完全不同,在伦理规则方面,必须在承认现有边界的基础上分别制定。
如果我们展望“强人工智能”的可能实现,那么,基于以上的分析,“强人工智能”实现后的创造就不能被视为纯粹的工具。此时,它们已经拥有与人类等同的独立意识和人格结构。今天,人类成员应该拥有平等的权利、道德地位、社会尊严等等。
我们是具有独立人格的平等“机器人”,还是机器?不,这才是真正的“奇点”和“智力爆炸”。但是,有人会认为,最关键的问题是,这样一个“强人工智能”的学科,难道不能对抗并毁灭人类吗?
要理解这种担忧的本质,需要基于价值理性和科学理性的自我反思。所谓对人类毁灭的恐惧和对人类身份的焦虑,实际上是把基于个体经验的自身感受等同于有效的价值判断。我们积极设计和创造一种新型主体的存在,却不设计他们的个体特征。不就相当于用一种新的方式繁殖我们的后代吗?绝不能以一时的人文情怀来掩盖甚至排斥普遍的人文理性,把人类引入歧途。
因此,如果真有强人工智能实现的一天,最合理的态度就是:承认他们是我们自己进化了的后代,人类进入了一种改变了繁殖方式的发展新阶段。后代取代前辈继续生存,实现更好的发展,这不是人类的灾难,而是人类的进化飞跃到了一个新阶段。退一万步讲,假如"后人类"真的联合起来向"前人类"造反并将前辈"征服",那也不过就像以往发生过的征服一样,一批人征服了另一批人或新人征服了旧人,而不是人类的末日。
至于以量子计算为基础的人工智能到底会给我们的生活带来何种冲击,恐怕我们的想象力暂时还是鞭长莫及。
注释
http://www。thinkwithggoogle。英国公司/季刊/创新/升级-man。超文本标记语言
丹尼尔克雷维尔,《人工智能的混乱探索》,纽约,纽约:基础书籍,1993年年,第115页。莫拉维克解释说,"他们最初对国防高级研究项目署的承诺过于乐观。当然,他们所交付的远远没有达到这个水平。但他们觉得他们不能在下一份提案中承诺比第一份提案更少的钱,所以他们承诺了更多。
https://www。新科学家。com/blogs/one percent/2012/06/bot-with-boyish-personality-wi。html?DCMP=OTC-rssnsref=在线新闻。
奇点临近:当人类超越生物是雷蒙德库兹韦尔于2005年出版的关于未来学的书籍。中文译著已由机械工业出版社于2011年10月一日出版发行,译著书名为"奇点临近"。
[英]尼克波斯特洛姆: 《超级智能:路线图、危险性与应对策略》 ,北京:中信出版股份有限公司,2015年,Kindle位置:328/5236。http://sports。新浪。com。cn/go/2016-01-30/doc-ifxnzanh 0397466。shtml
连线,"谷歌的围棋胜利只是人工智能将有多强大的一瞥“,http://www。连线。com/2016/01/Google-Go-Victory-Is-Just-a-Powerful-AI-Be/,2016.1.29 .
[英]尼克波斯特洛姆:《超级智能:路线图、危险性与应对策略》,Kindle位置:518/5236。
[英]尼克波斯特洛姆:《超级智能:路线图、危险性与应对策略》,Kindle位置:1199/5236。
人们可以想象这种技术比金融市场更聪明,比人类研究人员更有创造力,比人类领导人更会操纵,并且开发出我们甚至无法理解的武器。人工智能的短期影响取决于谁来控制它,而长期影响则取决于它是否能被控制。见http://www。赫芬顿邮报。com/斯蒂芬-霍金/人工智能_b_5174265.html
http://www。赫芬顿邮报。com/Daniel-fag gella/人工智能-r _ b _ 9344088。超文本标记语言
[英]尼克波斯特洛姆:《超级智能:路线图、危险性与应对策略》,Kindle位置:2416/5236。
弗兰肯斯坦或现代普罗米修斯,又译作《弗兰肯斯坦》 ,后世有部分学者认为这部小说可视为科幻小说或恐怖小说的始祖。
见翟振明: 《虚拟现实比人工智能更具颠覆性》 , 《高科技与产业化》 ,2015年11月。
[英]尼克波斯特洛姆:《超级智能:路线图、危险性与应对策略》,kindle版位置:685/5236。
[英]尼克波斯特洛姆:《超级智能:路线图、危险性与应对策略》,kindle版位置:867/5236。
翟振明: 《有无之间――虚拟实在的哲学探险》 ,北京大学出版社,2007年翟,菲利普,获得真实:虚拟现实中的哲学冒险,Rowman Littlefield,1998 .)
详见翟振明、李丰: 《心智哲学中的整一性投射谬误与物理主义困境》 , 《哲学研究》 ,2015年06期。
见于:迪克j比尔曼和斯蒂芬惠特马什,”意识和量子物理学:关于状态向量的主观还原的实证研究",载于杰克图辛斯基(编辑),《意识的新兴物理学》,2006年,第27-48页。艾尔。'一个量子场的坍缩可能影响大脑功能,意识研究杂志,1994,1(1),第127-139页。
安德森、迈克尔和苏珊李安德森,"机器伦理:创造一个伦理智能代理",人工智能杂志28.4,2007年,第15页
斯图尔特罗素,"道德哲学将成为科技行业的一部分“,http://time。斯图尔特-拉塞尔-威尔-艾-超越-人类/.
哲学家丹尼尔丹尼特在他的书《意识的解释》(意识解释)中错误地认为人只是一台有灵魂的机器。为什么我们会认为“人可以有智能,而普通的机器没有”?一些哲学家认为,如果弱人工智能可以实现,那么强人工智能也可以实现。例如,西蒙布莱克本在他的哲学入门教科书中说,认为一个人看起来“聪明”的行为并不意味着这个人真的聪明。我永远无法知道另一个人是真的和我一样聪明,还是她/他只是看起来聪明。布莱克本认为这个“他者问题”是一个主观问题。本文介绍了量子力学解释的方向,即试图回答识别意识和智能的可能方式的问题。量子力学中的远距离纠缠很可能是解决“他心问题”的有效途径,最终不需要诉诸“主观认同”。这种认识的实现,可能才是真正的“奇点来临”。
下一页,分享更好的强人工智能论文。
强人工智能论文,以上就是本文为您收集整理的强人工智能论文最新内容,希望能帮到您!更多相关内容欢迎关注。