「2025 年通用人工智能将会达到人脑智能水平,未来 20 年内远超人类」,这句话大概是 2016 全球创新者大会(GIC)上流传最广的一句话,出自美国通用人工智能会议主席 Ben Goertzel 的大会演讲。
演讲结束后,受百家号镀金计划 X GIC 之邀我们对 Ben Goertzel 进行了独家专访。
像以往所有的采访一样,采访前我做了一些关于 Ben 的功课。他是奇点大学顾问、Humanity+世界超人协会副主席、财务预测公司 Aidyia Holdings 首席科学家、机器人公司 Hanson Robotics 首席科学家、人工智能软件公司 Novamente LLC 公司董事长、OpenCog 基金会董事长,厦门大学福建省仿脑智能系统重点实验室任客座教授,此外他还与美国*合作开发了一个人工智能开源项目——OpenCog。我被其眼花缭乱的头衔弄得有点懵,甚至开始怀疑这些头衔的含金量。
然而接下来的采访否定了我的怀疑。我似乎意识到 Ben 的众多头衔中的那个通用人工智能协会副主席的分量。因为不管是对人还是人工智能来说,「通用」都意味着一种强大的适应能力。
采访过程中,对于提出的问题,Ben 总是会给出远远超过问题本身答案,他很擅长把答案按照问题本身的逻辑延伸下去。有些让你恍然大悟,有些会给你意外惊喜。
(注:Ben 在演讲中将人工智能分为狭义的人工智能和通用人工智能。通用人工智能也叫 AGI(Artificial General Intelligence),通用人工智能可以自行学习做人类可以做的所有事情。Ben 强调狭义人工智能与 AGI 都很有价值。与狭义人工智能不同的是,通用人工智能不仅仅可以做到狭义人工智能所做的一切,它还可以学习到真正的人类智能,像人类那样行为处事。)
下面是机器之心对 Ben Goertzel 的独家专访实录:
机器之心:你能谈谈你的最近工作吗?
Ben:我现在的核心工作在 Opencog,这是一个开源的人工智能项目,主要包括两个方面:一个是尝试部署一个能真正思考的人工智能,让它拥有人类水平的思考能力。《Engineering General Intelligence》这本书中详细介绍过这一点。
另一个是我们正在将现有的 opencog 系统部件应用到其他多种项目中。最近我们在 Hanson robotics 上花了很多时间。我对这个机器人非常感兴趣,它使用了整个 opencog 架构。因为机器人需要看,需要行动,需要理解语言,因此就要提出一个全新的想法将不同部分的人工智能系统集成起来。我们已经生物学的应用上尝试了这个想法,比如用人工智能来理解 DNA 数据,理解生命的长度,以及人类为什么会衰老会死亡。这些不同的研究用的很多是同样的人工智能软件。这些人工智能非常非常有趣,因为我们只能用 3 岁小孩所拥有的常识与其交流。3 岁的孩子已经能很好地理解生活中的常识了。我想让机器人也达到这个水平。
在某些事情上人类比机器聪明,但在另外一些事情上,机器要比人类做的好,因为这是两套完全不同的系统。比如在生物医学中人工智能擅长数据分析,这个人类做不了,因为这个工作需要分析大量的 DNA。
机器之心:也就是说在人工智能的研究道路上我们还有很多工作要做?
Ben:确实有很多工作要做。在某些事情上,人工智能的表现比人类好(Ben 说起人工智能的感觉就好像它们是与人类平等的另一个物种。)比如,我给你看 1000 张基因表达数据图,你很难在其中找出什么规律。但是如果我让你看看这哥房间里的人,弄清谁是谁,他们是干什么的,就容易多了,你或许还能猜出他们身上的其他信息。但是这件事对人工智能来说就很难。
对于人工智能来说,某些任务可以轻松完成,但有些任务它们做起来就显得很蠢,需要做很多工作费很大劲儿才能完成。现在的人工智能技术还处在非常初步的阶段。
人工智能领域的异质性很强,有很多不同的方法。目前最流行的方法可能是深度神经网络,这是大脑神经元和突触的一种粗糙的模型。经过证明,这个方法在分析视觉和听觉这类感知数据时非常有效。
这个方法很好玩,上世纪九十年代中期,我还在大学里当教授教过这门课。
但是从另一方面来说,每一种表征都有其自己擅长和不擅长的任务。如果你想在科学思考和高级的语言理解中做逻辑推理上,那么人类有很长的基于符号和逻辑学的表征研究历史可供参考。然而这些类型的表征却不适合做识别任务,它们擅长的是数学计算和理解复杂段落的意义。
为了解决这个问题,在 Opencog,我们开发了一个名为 atomspace 的符号表征系统。它可以让我们把神经元和符号逻辑放进同一个图形表征中。这并不是说我们有了可以互相沟通的神经元系统和符号系统,它只是我们基础的知识表征系统,能让我们在同一个表征中处理神经元与符号各自的任务。我们并不是唯一一家做这项研究的机构,而且现在每年都有一个神经符号人工智能研讨会,相关的书也有不少。但是我认为我们的系统是最实用的,也是在性能升级方面最好的神经符号系统。
机器之心:那这是你们的最新进展吗?
Ben:应该说是其中之一。我们在很多方面都有进展,但是都还处在起步阶段。因为现在我们只是做到了怎么把这些知识表征出来,我们还有很多不同的学习和推理算法可以利用这个知识库。然后将每个学习或推理算法创造性的结合在一起,这个过程非常复杂。
比如,如果你想了解人类思维学习中需要做的不同种类的推理,我们就需要做关于事实和信念的语义或陈述推理,需要建立感知模型,需要通过程序学习(procedural learning)来学习如何做好这些事情。比如怎么拿起这个杯子,怎么从这里回家,(Ben 一边说一边拿起手边的杯子做比喻。)还要调整注意力,弄清我们关注的每件事情的进展情况。还需要时刻记住我们目标和子目标,以及怎么整合不同的行动来实现我们的目标。而且针对于每种学习,我们都有一个算法。
机器之心:你们是怎么做到的?
Ben:我们花了 20 年时间设计出多个算法,它们能共用同一个表征。现在我们经常使用的概率论在 AI 中也很常见。
现在我们的逻辑系统、深度神经网络感知系统以及用于程序学习(procedure learning)的基于进化的学习基因编程系统,所有的这些系统用的都是概率语义学(probabilistic semantics)。所以在某种程度上它们估计出来的叠加概率分布来自相同的体系。当然我指的是在 OpenCog atomspace 中表征的内容。
总体上说,可能性太多是人工智能算法面临的最大问题。很早之前我们在做循环神经网络的时候就知道神经网络是多个神经元全部连接在一起的,造成它这个神经网络中有太多的可能性,训练时间也无线延长下去的,这样太慢了。
在深度神经网络中,这个问题可以通过限定架构来处理。当我们确实知道它们是怎么运作的时候,就能给出非常具体的层次架构,即一层中的神经与另一层中的神经以一种非常具体的方式互动。比如处理语音任务的卷积神经网络架构。
但是这种架构非常受限。假如你要尝试做一款能控制手臂的神经网络,那么你就要以一种特定的方式架构这个网络。这就是一种限制,你无法创建一个可以执行不同种类的任务的神经网络。
也就是说,现有的人工智能寻求的应用组合范围非常受限。还有一个问题是,如果你创建出一个通用的人工智能,你就要创建出某个具体的架构,还得让它自己适应这个架构,所以你还要做出一个能自适应这个问题的系统。难就难在找到一个能把这些问题都搞定的算法。
我们的方法用了好几个不同的学习算法,让它们起到互补作用。比如说,如果一个逻辑引擎出了问题,那么深度学习神经网络或者进化学习网络就能帮它恢复。反过来如果深度学习网络不太行,这个逻辑引擎也能帮它识别一些模式。
所以如果我们有多个不同的人工智能算法能以一种方式作用一个通用表征,这些人工智能算法就能相互支持,一起解决可能性过多的问题。也就是我们所称的认知协同,其中协同指的是把很多事情放在一起结合起来产生的效应。这是一个非常技术的问题,有很多方面的事情要处理好。我认为这是一个研究方向。关注这方面技术的人不多,只有少数大公司在做。他们用了很多神经网络,而且后面越来越多的计算机上都会装上神经网络,投放的数据也越来越多,这个会非常有趣。
这些还是无法让我们得到一个拥有人类思考水平的机器。目前的深度神经网络都还是非常基础的,只有视觉和听觉皮层前馈活动的模型。你可以了解一下大脑视觉和听觉的处理过程,看看数据是如何从感觉器官流向思维的。这大概就是我们能建模的东西。
也就是说我们还没有对视觉和听觉的认知控制过程建模,比如一些反馈活动,不是谷歌做的那种深度语音或人脸识别,这些是前馈系统。这个过程中几乎没有反馈,也不是大脑处理信息的方式。因为它缺少了像海马体、基底神经节、丘脑、小脑、杏仁体这些大脑结构的功能替代物。所以你看看大脑,它有几百个组成部分,每一个部分都有其不同神经架构,它们在整个大脑的运作中都有承担着各自的任务。我们 OpenCog 所做的不是在神经科学层面复制大脑,但是在某种程度上我认为基本原理是相同的,你有了一个表达的通用框架,就要有很多不同的算法。它们最终都是一起合作的。
大脑有自己的工作方式,OpenCog 系统也在尝试以不同的方式建立自己的工作系统。
机器之心:我们为什么不能研究去直接复制大脑的过程呢?
Ben:为什么不能直接复制大脑。有两个原因:第一个是我们不知道大脑如何工作的。
听力和视觉的工作原理可以解决,是因为人类的视听系统与猴子和小白鼠的类似。所以我们可以给小白鼠和猴子的听觉和视觉皮层通电,看看有什么结果。视觉并不是一件复杂的事情,比如你有一张图,你可以把它与大脑里的图像相比。但是高层次的抽象思考和推理行为是小白鼠和猴子做不到的,因为它们很难在把外部世界与大脑内在活动连接在一起。所以大脑最有趣的部分就是它到底是怎么工作的。我们现在还不知道,但我们最终会知道的。
另外一个原因是,我们的硬件的计算方式与大脑的计算方式非常不同,即便是简单的 2+2 的运算,大脑做起来也是非常复杂的,应该说是难以置信的复杂。但是不管怎么说,电脑也能计算出 2+2=4。你想把大脑一切都复制到一个非常不同的硬件上,这种想法就好比要在大脑中装一套微软办公软件一样。这不仅听上去很奇怪,实施起来也非常困难。
我认为在找到扫描大脑的更好方式,实现同时以高时间和空间分辨率扫描大脑之前,我们都无法弄清大脑是如何工作的。这就像要拍一部大脑内部精密活动的电影。虽然现在的扫描技术一年比一年好,但是还是不足以解开大脑抽象思维工作之谜。没人知道!
机器之心:知道大脑如何工作后,我们就能实现通用人工智能吗?
Ben:不不,我认为我们可以绕过它。我的意思是我们在还不知道鸟的翅膀构造的时候就能造出飞机了。我想等理解了认知科学和基本的思维(mind)运转,以及人类 mind 做的每件事之后,我们就能造出通用人工智能了。我们可以用一些先进的计算机科学算法,然后用与人类 mind 相同的认知架构去做出一些事情。但是是一些不同的神经的子架构或者用计算机算法替换,其中一些可能是神经网络,也可能是一些其他类型的计算机算法。所以我的目的不是模拟出一个人类大脑,或者做出一个数字人类,我的目标是先做出通用人工智能系统,然后让这个通用人工智能系统帮助我们创造出一个更好的大脑扫描算法,我觉得这是个可行的研究方向。
机器之心:下面我们来谈谈 Aidyia Holdings 公司,它最初的系统并不是很好,现在怎么样了?
Ben:是的,它是一个比较应用很窄的人工智能系统。我们把 OpenCog 中的一些算法以及另外一些专利算法用到了 Aidyia 的交易框架中。到目前为止,我们只是拿我们自己的钱做一些交易,这些都还是测试。最近几个月,这个系统表现的还不错。之前不好,现在又好了。今年我们已经修改了好几次这个系统,虽然现在还处于研究阶段,但是是已经是非常高的阶段了。我们已经测试几个不同的版本。这是个很有趣的应用,但我觉得它不是通用人工智能的最好的应用。因为在这个上面,你不想有大的出错。好比你知道 3 岁的孩子会把股票交易做成什么熊样子,它们也做不了手术。所以在通用人工智能的早期阶段,你只会拿它来做做实验,
你认为人工智能将会如何改变这一行业,比如股票交易市场?
Ben:确实会。事实上目前美国、德国、日本的交易市场中,大约 90% 的交易都是由编程来做的,很多都已经算法化了。
机器之心:这算是人工智能吗?
Ben:不,大部分不是。但是你会发现神经网络式的人工智能与统计学之前的界限是模糊的。就像支持向量机可以是人工智能的也可以是统计学的,逻辑回归也是统计。但是只有支持向量机是人工智能,它们做的事情不同。神经网络已经存在金融市场存在了二三十年了,但是它们现在几乎还是只能做非线性回归。
但是如果你给它加上更多的层,它就是深度学习了,也就算是人工智能了。所以金融市场长期以来用的都是一种介于机器学习和高级统计学之间的工具。
现在人工智能的水平越来越高,美国的主要金融机构都在四处招揽有用人工智能 PhD 学位的人才,他们希望把更多机器学习算法用在人工智能系统中。
传统的高级算法可以一秒内完成多次交易,也就是高频交易。现在我们想做的是延伸交易的时间尺度,预测一个月的股票交易市场。但是预测的时间跨度越长,所需要的人工智能的通用程度也就越高,因为需要这种预测是在更宽泛的情境下进行。
举个例子,如果要预测你接下来十秒会做什么,我不需要一个太通用的人工智能,但是如果要预测你十年甚至是十天后会做什么,就需要一个非常大的情境。所以我认为未来的金融市场中的人工智能会越来越复杂。
我确定未来十年内,基本上 90% 以上的交易都会由人工智能驱动,问题是里面有多是狭义上的人工智能,有多少是通用人工智能的东西。人工智能在金融领域的下一个应用会出现在私募股权,但是这个也很难,因为相关数据不会出现在公开的交易市场中,除非你非法获取。因为实际上所有的数据都是在网络上的,人工智能可以帮你盗取这些数据,这种事情它们比人类在行。
机器之心:现在有很多家公司,比如像谷歌那样的大公司和 Aidyia 那样的创业公司,你觉得哪种会掌控这个市场。
Ben:我觉得的它可以在金融市场中赚到钱。就像其他公司也可以用人工智能赚钱,就像现在有很多人在交易中使用计算机一样。但是每一种算法都能找到市场中低效率的地方,都有它的长处和短处。我有一个朋友,他已经在美国的交易市场中训练一个人工智能四年了,但是他还是无法升级这个系统,它不能处理 2 亿或 3 亿美元的金额。这个数目对你我来说非常大,但是对一项基金来说不算。这就是它的局限。每种算法都有它的局限。公司也是如此。在某些条件下,小公司可以慢慢壮大,这是一种成功。另一些公司做出一些成果后被谷歌这样的大公司收购也算是一种成功,而且谷歌这几年的创新发展很大程度上都是靠收购小公司完成的。
机器之心:生物人工智能中的「生物」怎么理解?
Ben:目前大家讨论的生物人工智能是不同层次的。因为神经网络模型非常非常抽象,它不同于复杂的生物系统。生物大脑有很多神经元还有化学的神经递质,这些不同于卷积神经网络。神经网络只是在一定程度上由生物学驱动,但是它们不是计算神经科学模型(Computational Neuroscience Model),OpenCog 系统在某种程度上可以说是生物学的,里面有节点(nod)和神经连接(link),在另一种程度上它也从神经网络中获得了一些灵感。神经网络的认知架构的灵感也是来自大脑,它像大脑功能分区一样分成不同分布。但是这二者里面的细节是非常非常不同的。
机器之心:人工智能算得上是一种生命吗?
Ben:人工智能在何种程度是一种生命,这个问题非常有趣。生命这个词用在地球上的某些化学系统有点过头,但是你确实可以把病毒称为一种生命。公司也可以看成是一种生命,里面的员工就是它的细胞。如果你从新陈代谢的角度去生命的一些基本特征,生命会努力获取资源,让自己生存繁衍下去,人工智能身上也有这些特征。比如说人工智能可以赚钱,可以运维一个工厂去建立它自己的材料,它可以自我维持运转,拥有自己的新陈代谢系统。它们的繁衍也很容易,只要复制文件就行了。
所以从某些特定的定义上来看,人工智能可以说是一种生命。但是说到人工智能是否有意识,想人类那样从经验中学习知识,这是一个哲学问题。我无法解决这个问题,就像从科学的角度我永远无法确定你是否有意识,你也有可能是一个机器人,但是我可以假设你有意识,因为这样我就轻松一些。同样的道理,如果现在坐在我面前的是一个机器人,我也可以假设它是有意识的。
©本文为机器之心原创文章,转载请联系本公众号获得授权。