本篇文章3107字,读完约8分钟
山西晋商贷【科技在线】尽管赞扬和批评,人工智能( ai )的迅速发展已经超出了人们的想象,似乎印证了一句描述宇宙结构的老话。 一切都是人类的造物。
人机围棋战争如果机器赢了,智能有可能爆炸吗?
3月9日,韩国九段中国围棋选手李世石将与谷歌人工智能项目阿尔法go在韩国首尔对决,整场比赛分五次进行。 战争在即,双方都公开确信自己会取得最终胜利。
facebook人工智能组研究员田渊栋博士详细分析了alphago在《自然》杂志上发表的论文,认为alphago整个系统即使是单机也已经具有职业水平,与李世石的比赛将会相当精彩,期待之后的结果, 但是,《人工智能学家》主编刘锋写道,谷歌围棋ai和这场比赛有科学欺诈的嫌疑。
备受瞩目的人机大战一触即发,人工智能能战胜人脑吗? 无论围棋战谁赢谁输,它都会为问题的回答奠定基础。
人工智能与算法
近年来,人工智能逐渐成为显学,许多人将其误认为是随着网络的迅速发展而出现的新词。 事实上,人工智能的历史已经超过了半个世纪。
无论小说和电影如何描绘应用前景,人工智能都不是漂浮在某个蓝色液体中的合成大脑,而是教授计算机执行什么功能的算法数学方程式。
算法在21世纪,像煤炭一样在19世纪,是现代经济的发动机和燃料。 没有算法,高端智能手机就无法工作,也就没有facebook、谷歌、亚马逊。 算法可以安排航班,控制飞机,帮助医生诊治疾病。 如果所有的算法都突然停止了,那绝对是世界末日。
今年1月,谷歌宣布开发了打败围棋欧洲的算法。 这个古老的中国棋盘游戏比国际象棋多得多、复杂得多,该算法被命名为alpha go,将于3月中旬与世界较量。
巨大的挑战
围棋的历史超过2500年。 其穿法无限变化,其变量超过了宇宙原子的移动。 国际象棋的所有变化都可以计算,但不能围棋。 更难的是,程序员也不会写围棋的判断函数。 相反,围棋需要直觉之类的东西。
人工智能研究利用游戏作为微观测试有着悠久的历史。 游戏可以由研究者为估算自己的成功而定义和许可。 去年,谷歌的deepmind教授机器学习,获得了49款经典的atari电脑游戏。 围棋历来被认为是人类胜过程序的下一个经典游戏。 围棋之所以这么难,是因为其结果的无限性,要复制和再现所有的游戏非常困难。
围棋是游戏,是游戏的作品,是智慧的游戏。 deepmind的创始人哈扎维斯认为围棋不是科学而是艺术。 alpha go用人类的方法学习围棋,在对局中变得越来越强,就像我们人类一样,能够学习理解而不是计算。 他确信阿尔法go取得了最终的胜利。
胜利的关键
alpha go与以往的机器人不同之处在于其在神经互联网、分层计算和知识库中的应用。 也就是说,谷歌开发团队利用两个神经互联网为alpha go开发了新系统,这也是胜利的关键。 该行业的领导者杰弗里·兴顿指出,神经互联网减少了调查结果的数量,但也善于将从未见过的状态通用化。 因为,这些神经网络学习的规则和策略,不仅可以记忆,还可以理解。
以前传说探索树会考虑所有的可能性,但不适用于围棋。 哈比斯说。 正因为如此,使用两个神经网络为alpha go开发的新系统,可以把围棋看成是蕴藏着一切可能性的树,可以无限扩展。 阿尔法go要做的就是利用两个神经互联网来缩小可能性。 那个利用战略互联网评价什么样的行动的可能性比较高。 系统应该考虑该如何进行下一步,alpha go会缩小检索树的宽度。 另一个是价值互联网,它可以教会alpha go如何同时移动白子和黑子更好,从而降低可能性的深度。 这一切都为其获胜增加了砝码。
但是,《人工智能学家》主编刘锋则写道,谷歌围棋ai和这场比赛存在科学欺诈的嫌疑。 第一个原因是,alphago针对其他围棋程序选择了很多被试,进行了495次实验,而对于人类被试,只选择了一名曾经获得围棋欧洲的棋手,并没有签订严格的保密协议。 谷歌也认为没有像facebook一样将围棋程序放到互联网上,光明正大地接受大众的考验。 作为原理和Googlealphago相同的facebook围棋节目darkforest,现在的水平相当于业余5段,和职业选手仍然有很大的差距。
从ai到agi
多亏了计算机硬件的长足发展、算法(软件)的改进、巨额资金的投入,进入新世纪以来,人工智能在许多行业取得了巨大的进步。 在硅谷,无论是谷歌、微软还是ibm,都投入了巨额资金迅速发展人工智能,取得了邮件自动智能回复等阶段性成果。
时代周报记者查阅资料时,科学家预测ai迅速发展为agi (人工通用智能)是人工智能的迅速发展趋势。 大多数ai系统都很狭窄,只能完成特殊任务。 所以,ibm深蓝电脑可以打败国际象棋卡斯帕罗夫,但在面对画圆打叉这种简单的游戏时,连3岁的孩子都不如。 然后,哈比斯试图从人脑中获得灵感,建立第一台通用学习机器,即灵活、适应性强的算法。 它像生物系统一样学习,可以从零开始完成任何任务,除了原始数据以外不需要任何帮助。 这就是人工通用智能( agi ),其重点是通用。
在deepmind创始人哈扎维斯未来的愿景中,超智能机器可以与人类专家合作处理癌症、气候变化、能源、基因组学、宏观经济学、金融系统、物理等几乎所有问题。 哈比斯说。 “我们想掌握的学科越来越多,越来越复杂,即使是头脑聪明的人,一辈子也很难掌握其中的一个行业。 如果我们认为agi是自动将非结构化新闻转换为可用知识的过程,那么我们可以通过筛选泛滥的数据来获得合理的观点。 我们正在进行的是能够应对任何问题的超处理方案。
牛津大学人类未来研究院院长、哲学教授尼克·博斯特罗姆认为,如果agi最终完成,其影响将是无与伦比的。 这样的超智能机器可能还需要几十年才能问世,但它似乎离我们很近。 我们应该对那个有信心。
快速发展会失控吗?
人类可能正在尝试创造新的生命形式。 这不仅标志着进化的突破,也可能对人类物种的生存构成潜在威胁。 人工智能让我们处于见证新物种诞生的边缘吗? 机器多久会比人类聪明? 这已经成为人工智能快速发展需要思考的问题。
年1月,美国麻省理工学院物理教授马克思·特古马克组织了关于人工智能风险的第一次会议。 会议的核心议题之一是人类要花多长时间才能遇到机器智能和超人智能。 另一方面,例如人工智能的先驱吴恩达主张,人工智能超过人类智能是数百年后的事件。 其他人,如特斯拉ceo马斯克和伯克利的计算机科学教授斯图尔特·罗素,认为这一时刻会来得更早。 据特古马克称,会议讨论的中位数为40年。
史蒂芬·霍金、比尔·盖茨、埃隆·马斯克、扬塔利亚等世界许多科学家和科技巨头都在关注着ai的快速发展。 但是,与哈扎维斯对ai持积极态度不同,这些知名科技专家对ai的迅速发展表示极大的担忧。 他们的担忧包括幽灵,包括agi武器和技术奇点。 这将引起智能爆炸,届时机器将不断进行自我完善,超越人脑的智力,脱离人类的控制。 如果发生这样的超智能灾害,人类会后悔为什么没有停止ai开发比赛。
霍金在最近的谈话中说,ai的成功将是人类历史上的一件大事。 不幸的是,那可能是后者的历史性的事情。 警惕人工智能毁灭人类,可能会成为未来技术迅速发展的另一个新战场。
但是,相当数量的科学家非常看好人工智能的快速发展前景。 百度首席科学家吴恩达相信用人工智能可以建设更好的社会。 就像工业革命把人类从大量体力劳动者中解放出来一样。
另外,计算机科学家杰里·拉尔认为算法是由人类设计和构建的,反映了创造者的偏见。 无论好坏,无论我们创造什么样的未来,都是我们为自己设计和构筑的未来。
标题:“人机围棋大战在即 机器取胜可能导致“智能爆炸”?”
地址:http://www.kwan-yin.com.cn/xwzx/25349.html