AlphaGo 4:1战胜李世石,我们需要更好的理解人工智能

过去一周几乎所有的科技新闻都在讨论人工智能,从各个媒体、论坛、社区、微信公众号、专栏等等渠道发布出来的人工智能文章数不胜数,我们一遍遍地从各色文章里读到Alpha Go 独特的「价值网络」、「决策网络」如何「碾压」人类的决策机制,或者从包括Facebook 人工智能实验室负责人 Yann LeCun 以及微软研究院机器学习专家 John Langford 等非谷歌人工智能专家的「警告」:事实上,Alpha Go(离实现真正的人工智能)还差的十万八千里。


更有趣的讨论还发生在上周一场名为「不要相信人工智能的承诺(DON'T TRUST THE PROMISE OF ARTIFICIAL INTELLIGENCE)」的座谈里,虚拟现实领域的先锋人物 Jaron Lanier 坦言:公众对人工智能存在片面认识「一方面它(人工智能)是科学研究的术语,另一方面则由科幻小说家们掌控。」


发明于1956的「人工智能」一词就像其「发明人」约翰·麦卡锡所言:「一旦一样东西用人工智能实现了,人们就不再叫它人工智能了。」当我们理所当然地用搜索引擎搜索东西,通过 Siri、Cortana 询问未来天气和最近的行程,几乎没有人意识自己都在和人工智能打交道。


AlphaGo 4:1战胜李世石,我们需要更好的理解人工智能

人工智能之父约翰·麦卡锡


而当看完电影《他(Her)》、《机器姬》之后,又不免陷入到对人工智能深深的恐惧中,这两部最新的科幻电影几乎触及到我们可以遇见的未来:情感外包、机器意识觉醒、杀死人类并成为社会的一员。


上述所有的描述既正确又错误,原因就在于只看到人工智能的某个层面。根据科技博主 Tim Urban 在 Wait But Why 网站的分类,人工智能可以分为以下三类:


首先是弱人工智能 Artificial Narrow Intelligence(ANI),这是一种只能够在某个特定领域处理问题的人工智能,比如只会下国际象棋的深蓝以及这次下围棋的 Alpha Go。1997年深蓝打败卡斯帕洛夫后,IBM 就宣布深蓝的退役,而Alpha Go 还未在其他方面展示出应有的能力,IBM认知科学专家,深蓝之父  Murray Campbell 也表示:「如果能让这套算法不仅可以应付围棋还能延伸到其他棋类的话,我觉得会更令人激动。」


更重要一点在于支持目前 Alpha Go 的计算机效率还很低。在 DeepMind 发布围棋论文后,机器学习教授 Neil Lawrence 表示:「谷歌 DeepMind AlphaGo 的胜利来得比预期的更快,这一成就被赞誉为人工智能的突破,但计算机还远没有我们高效。」。


DeepMind 所开发的系统基于两个主要思路:机器学习和随机博弈树搜索(Random game-tree search)。博弈树搜索是一种探索和评估未来的可能行动的方法,是一种在游戏中规划未来的计划系统。机器学习是一种通过数据训练计算机的方法:在这里数据是指棋盘上的布局。通过训练计算机,可以让计算机学会识别棋盘上的好模式。


这个计算机系统通过与自我对战获得训练,它可以从能够导向成功的棋盘布局中学习。当它与人类交手时,它玩过的围棋局数已经远远超过了任何人类一生可能完成的棋局数。这就意味着它从棋局中学习经验的速度远远慢于任何人类。对于 AlphaGo 的自我对战训练,国内机器学习专家周志华也表示:AlphaGo 的「自我博弈」有理论上限突破不了,比如说「就像轻功里的梯云纵,不断两脚互踩还能越飞越高?」在机器学习领域,这称作数据效率,也就是解决个别问题所需要的数据量。人类的数据效率要远远高于机器,人工智能领域的近期突破却远非如此。


深度学习带来了弱人工智能的爆发式发展,最好的深度神经网络可以在无监督的情况下从大量例证中学习,具备了保持语义连贯的组织知识的能力。例如,深度学习系统「学习」了大量文本信息之后,比如说整个*,能够通过一些类比问题进行学习,比如说,国王-男人+女人=王后;或者,法国-巴黎+伦敦=英国。但是,不管这些系统的表现有多么令人印象深刻,这与人类凭借直觉来理解世界的方式还是存在天壤之别。


机器的终极目标是能够以人类一样的认知方式来理解世界,因此我们就能按照我们使用自身直觉的方式来使用它们。搜索引擎就是个很好的例子,我们在搜寻信息时,往往是提取出关键词输入到搜索引擎的对话框,但我们却无法保证机器一定可以理解我们的真实意图。而当我们向人类询问同样信息时,我们就可以非常顺畅的与之交流,因为我们人类对外部世界有着共同的理解。

主流搜索引擎正在将自然语言处理技术纳入其中,这将允许用户能够直接向计算机提出自己的需求,而不是输入一个个孤立的关键词。但是,就我们目前在这方面取得的进展而言,我们距离实现「人机直觉交互」还有很长的路要走。


其次则是强人工智能 Artificial General Intelligence(AGI)这是一种可以与人类大脑处理能力相对等的人工智能。换句话说,人类大脑能做的事情它都能做,比如思考、计划、抽象思维以及经验学习等。马文·明斯提出一个假设:人类与机器之间并没有真正的区别。人类实际上是一种机器,他们的大脑由许多半自治但很愚蠢的「代理」组成,而「不同的任务需要完全不同的机制。」


从一开始,强人工智能可谓人工智能先驱们孜孜不倦的追求。1962年,也就是提出「人工智能」六年后,时任卡内基梅隆大学教授 Herbert. A. Simon (也是诺奖经济学获得者) 断言:「二十年内,计算机将能胜任人类可以做的一切工作。」


但现实的残酷性远远超过人类的想象。尽管约翰·麦卡锡几乎把自己整个生命都贡献给了如何通过正规数学逻辑方法模拟人类大脑的事业,但依然毫无进展。2005年开始的欧洲的「蓝脑」(Blue Brain)计划预计将在2023年之前搭建出一个基本等同于人脑模式的工作模型。不过这个计划成功的关键是,搞清楚人类大脑里的大约1000亿个神经元和1000万亿突触连接的运行机制,更何况这些连接都不是数字连接,它们依赖于具有互相关联的时序的电化学信号和模拟组件。


从深度学习本身来说,深度神经网络只受到了人类大脑中生物神经网络的一点点启发。尽管深度学习使用的许多术语(例如神经元和激活)都借鉴自脑科学,但这两个系统的工作原理完全不一样。


要理解这一不同可以用深度学习的「大脑」与人类儿童的大脑做比较——至少是用我们目前所知的部分做对比(实际上我们知道得并不多)。二者最大的不同点在于,人类儿童能够探索周围世界,并能在无外部监督的情况下独自形成知识。有了这种无监督学习得来的知识,孩子们能够将所有任务分解成一个个子任务,并各个击破,从而完成任务。


到目前为止,深度学习还不具备这种能力:人们需要把所有东西教给它们,包括这是什么东西、学习完成后应该做什么。研究者们正在探索如何改进这种模型,但现在离目标还很远。


在此次人机大战的主角、DeepMind创始人 Hassabis 眼中,「癌症、气候变迁、能源、基因组学、宏观经济学、金融系统、物理学等,太多我们想掌握的系统知识正变得极其复杂。」Hassabis指出:「如此巨大的信息量让最聪明的人穷其一生也无法完全掌握。那么,我们如何才能从如此庞大的数据量中筛选出正确的见解呢?而一种通用人工智能思维的方式则是自动将非结构化信息转换为可使用知识的过程。我们所研究的东西可能是针对任何问题的元解决方法(meta-solution)。」


虽然寻找「元解决方法」也许要花费数十年时间,但它看起来正在迫近。2015年2月,世界*科学期刊《自然》将像素游戏《Space Invaders》作为其封面,右下角是「自我教学软件在玩游戏上达到了人类般的表现」。在这一期,DeepMind的论文描述了首个成功的通用「端对端」学习系统,他们的人工代理——一个针对于图像处理单元的Deep-Q网络算法——能够学习如何处理屏幕的输入值并理解其含义,并采取能实现所需结果的决策(在这种情况下,系统成为众多雅达利2600经典游戏,如太空侵略者、拳击、打砖块中的超级玩家)。这是一项让整个科技界都为之震撼的突破。


第三层面的「人工智能」就是所谓超人工智能 Artificial Super Intelligence (ASI)。按照牛津大学哲学教授尼克·波斯特洛姆的定义:「在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能。」而在波斯特洛姆的畅销书《超级智能》里,他又将这种智能定义为「在几乎所有领域远远超过人类的认知能力......」 的智能。


这个定义非常宽泛,然而却成为时下几乎所有反人工智能主义者心目中「可能是最好的定义」,这些人不乏名人和科技大佬,包括特斯拉老板伊隆·马斯克、微软创始人比尔・盖茨、著名科学家斯蒂芬·霍金等,这些人无一例外地被一家位于华盛顿的智库机构「信息技术及创新基金会」评为年度卢德奖提名,卢德奖顾名思义,源自于19世纪那个破坏机器的英国工人卢德,因此,该奖项致力于评选当年抗拒新技术实施的名人


还记得初版《侏罗纪公园》中有一个镜头,杰夫·高布伦饰演的科学家说出了一句经典台词:「科学家太过于关注他们能做什么,而没有停下来想一想他们是否应该做这些事。」20多年后,特斯拉的CEO马斯克再一次提出了这种说法。他在麻省理工学院航空航天部的百周年纪念研讨会上警告说,人工智能为人类造成了有史以来最严重的威胁,并把我们对技术所做的事情比作「召唤恶魔」。


还有一些更温和的思想家(例如俄勒冈州立大学的AI专家Thomas G. Dietterich)则同时强调对人工智能依赖所带来的利弊,以及未来可能出现哪些假设的情形。到底何时会出现与人相当的人工智能?关于这个问题,专家学者们已经争论了很长时间,这就像一场长期上演的统计学猜谜游戏。目前来看,普遍的预计是出现在2040年~2050年之间的某个时间。


在论证时,你当然可以说:技术进步可能会因某一个事件而突然爆发,从而迅速将人类带入可怕的未知世界(有人也称为技术奇点)。你还可以对人类的任何方面做出同样的预测:人口爆炸,原材料和能量耗尽,瘟疫,自然灾害,债务,社会不平等,核战争等等。

而辩论的对方则更积极乐观些。他们认为,深度学习已经赋予了我们处理上述问题的能力,比如拥有了获取信息的更好途径、更多设计药物的先进工具以及更精巧的模型来进行科学研究,这些研究几乎涉及到所有领域。


不过,当我们决定将人工智能带入生活时,我们要知晓其中的利害关系并保持警戒心。目前,许多大公司都在「偷偷摸摸」挖掘我们的搜索引擎数据,以便于向我们的邮箱或社交媒体中推送精准定向的广告。对此,人们的态度十分暧昧。这距离可怕的反乌托邦情境还很远,但它让人们开始对隐私和压制展开了严肃的讨论。对任何新技术,不管是生物技术、纳米还是无人驾驶,都必须考量其未来的潜在风险,并利用假设的情景设置新的讨论框架,对技术是否符合伦理进行严肃的辩论。


同样的关于人工智能「带来可怕未来」的讨论还存在于TechRada近期发表的一篇文章里:一个机器人通过了所谓的「自我意识测试」。在测试中,纽约伦斯勒理工学院的机器人学家们为一组三个机器人进行了编程:一个机器人被赋予说话的能力,另外两个则设置成沉默状态。然后,研究者询问哪个机器人能够说话,测试目的在于考察这些机器人能否理解自身状态。其中的一个机器人试着回答,「我不知道。」另外两个不能说话的机器人则无法回答。听到自己声音的那个机器人能够自我认定并回复道,「对不起,我不知道!」


一些读者对此项测试的来龙去脉缺乏深入了解,他们用测试结果来证明他们的观点——机器(意识)革命即将到来。但Facebook人工智能实验室负责人、深度学习开创者之——Yann LeCun 立刻表示:我们对这种不正常的兴奋应该不予理会,人工智能离拥有自我意识还有十万八千里,人类无需有任何疑虑。


正如上文所言,人工智能的发展还停留在弱人工智能阶段,别说超越人类认知能力,甚至也达不到与人类匹配的认知能力。当科学家、计算机学家埋头苦干,进一步改进弱人工智能的性能时,一群人却以超人工智能的尺度呼吁社会要注意这种威胁,也难过「信息技术及创新基金会」(IFIT)这样评价他们:「当前的人工智能能否发展成为完全自主的系统仍是一个备受争议的问题,但无可争议的一点是,这种可能的未来距离我们还相当遥远(更有可能是1个世纪,而不是10年),因此担心人工智能形成自我意识只是杞人忧天。讨论这种富于科幻色彩的世界末日只会导致公众、决策者和科学家不愿投资支持人工智能的研究。」


DeepMind 创始人 Demis Hassabis 日前在接受媒体采访时透露的两个细节值得反复咀嚼:Hassabis 前段时间拜会霍金,用4个小时的时间介绍人工智能的真实情况,Hassabis 表示,霍金再也没有在媒体上发表过「关于人工智能的煽动性言论」。


第二个是对话细节:


记者:「AlphaGo是否会休息?」


「不,没有休息!甚至圣诞节也不休息。」


「它是否需要偶尔停下?」


「或许它会喜欢这样。」哈萨比斯说。


这或许就是当下人工智能最好的描述了。


上一篇:能容忍不赚钱的业务,为何谷歌容不下一只「大狗」?


下一篇:微软发布Bot开发框架,用人工智能对话平台豪赌未来