要借鉴多少学科研究,才能打造一颗和人类无限接近的大脑?
人工智能的应用越来越广,随着可用场景的不断增多,人们对它的期望也越来越大。目前只能解决某些特定领域问题的“弱人工智能”已经开始无法满足人们的需要,“强人工智能”似乎已经成为众多研究者开始钻研的下一个方向。
和强人工智能相比,弱人工智能被认为是不可能真正具备推理和解决问题能力的智能机器,虽然能够解决特定某些问题,但是他们无法说是真正拥有智力和自主意识。但是另一方面,关于“强人工智能“的观点,却也并非所有人都认同。
如果要追溯“强人工智能“这一概念的产生,它最早是由 John Rogers Searle 针对计算机和其他信息处理机器创造的。
他将其定义为:“强人工智能观点认为计算机不仅是用来研究人的思维的一种工具;相反,只要运行适当的程序,计算机本身就是有思维的。”
关于强人工智能是否就意味着机器具备思维的问题,目前依然还存在着很多争论,而参与这场讨论的人中就包括许多 AI 研究学者、哲学家等。
丹尼尔·丹尼特在其著作《意识的解释》(Consciousness Explained)里认为,人也不过 是一台有灵魂的机器而已 ,“人可以有智能,而普通机器为什么就不能”呢?他认为即便是基于数据转换来思考的机器,同样有潜力能够具有思维和意识。
因此在这里我们暂时认为这种不具有“灵魂”的思考机器是可以做到“无限接近”人类智力水平的。问题是,要如何才能达到这种“无限接近”的水平?
人类智力是综合作用的产物,包括观察力、注意力、记忆力、思维力、想象力等等,而每一种构成因素又会受其他更多因素的影响。
因此我们可以看到目前很多使用仿生的方法来研究人工智能的技术都在参照各种和“人”有关的学科理论对这项技术进行研究和发展,所以说,人工智能也就因此变成了一门更像是跨学科的研究。
人工智能的智力来源于数据的收集。在人工智能学习和训练的过程中,深度学习和神经网络通过对所收集的大量数据进行分析归类,从而完成对人工智能系统的塑造。
目前,神经网络的结构通常由如下部分组成:
神经的输入层(获得目标的描述)隐藏层(主要部分,在这些层中学习)输出层(对于每个种类都一个神经节点,分数最高的一个节点就是预测的种类)在学习过程结束之后,新的物体就能够送入这个网络,并且能够在输出层看到每个种类的分数。
之所以说目前大多数人工智能多属于“弱人工智能”的范畴,就是因为这些人工智能一般只会针对目标的用途进行某一特定数据的深度垂直学习,又或者是像 Siri 这样的语音助手一样,能做的事情非常有限,更像是一个“帮助传递信息,提供搜索服务”的助手。
我们似乎从来没有想过人类的智力仅仅依靠“数据”就能够获得,但是就目前的相关研究来看,已经查明能够对智力产生影响的因素包括饮食、遗传与环境、早期经验、学校教育、社会实践和主观努力等等。
这些因素中的大部分都能在机器和人工智能中找到类似的对比。
食物作为生命和大脑的物质基础,决定了生命和大脑的健康——这可以和机器的构造类比;遗传和环境、早期经验、学校教育、社会实践就是人类用来学习的“数据”,只不过这些“数据”的影响更加潜移默化,目标性不如机器学习中的明确;至于主观努力就是一直以来很多人用来区分机器与人类差异的重要依据所在了。
这种对于主体目标的一种似乎与生俱来的热枕,似乎是机器还难以达到的部分。这部分和人类所称的“灵魂”其实可以归属到同一类别,都是一种难以模仿的、非常主观性的心理活动。
但是除去最后一点,目前的机器似乎已经可以模仿人类绝大多数的心理活动和环境影响。因此用仿生的研究方法来开发更加智能的机器似乎是最有效率的途径,毕竟人类的智力也是经过数千万年的进化发展到今天的水平的。对于关于人类的一些描述性的研究成果,似乎也可以逆向应用在人工智能的研究和开发之中。
从人类发展 AI 的历史来看,我们不难发现,仿生的方法似乎也是唯一一种能够让我们将研究进行得最为深入和持久的方法。
在人类最开始研究 AI 时,首先是从直接做出一台会思维的机器开始的,但是很快这种方法就遇到了瓶颈,于是人类开始尝试仿生的方法,从其他在地球上已经生活了数百万年的生物那里获取灵感,人工神经网络便由此诞生。
为了让人类能够打造出更好的 AI 机器,近日麻省理工大学甚至提议我们需要“比以前更了解生物大脑及智力产生的过程。现在这一阶段,我们已经可以开始理解将神经科学、认知科学和计算机科学应用到智能机器设计的理念。”
人工神经网络的第一个里程碑就是“感知”(Perceptron),一个感知机器实际上就是对神经元基本概念的模拟,这是一种能够进行自动决策的机器。比单层感知机更复杂的多层感知机就是我们我们常说的深度网络,它是进行数据处理和模式识别的关键。
深度神经网络能够对这些数据进行处理的原因在于数据本身具有的复杂的机构很适合被 NN(Neural Network,神经网络)识别,因此机器能够进行自主的学习,而不需要人类预先设计识别这些结构的函数。
在深度卷积网络(DCNN)中,信号在多级网络里一级级传递,从而使得微观到宏观的特征都得到分辨和识别,各层神经元之间没有相互联系,所以它们能够同时看到一个图像从细节到抽象的结构,所以甚至能够抓住一些人类都难以注意的细节和模式。
神经科学
神经科学和人工智能(AI)领域互相联系结合,由此产生了计算神经科学和统计机器学习领域。
在计算机科学和 AI 中,统计机器学习是指系统从数据“学习”模式的算法,这在神经科学中被称为是“理论神经科学”(或“计算神经科学”或“系统神经科学”),它们采用了完全相同的模型和数学框架,只不过它们研究的方向换成了人类大脑罢了。
从心理、认知和问题解决的角度讲,认知科学就像神经科学和人工智能之间的另一座桥梁。数字计算机的原始设计的灵感就来自于反思和内省的心理运作,而这一领域在后来就慢慢发展成了认知科学。
物理学
物理学家把神经网络看成无数神经细胞相互作用组成的一个整体,就如同理想气体是无数分子的组合或金属晶体是原子的组合类似。
虽然单个神经细胞只有一个简单的作用,就是把接收到的信号转化为一定的输出,但是这样一个简单的东西通过大量加和的网络效应却可以产生智能这种十分复杂的现象,这就是物理学中所说的涌现性。
所谓简单的东西堆在一起足够多,突然之间产生了一个更加复杂和高级的现象。这种由于尺度跨越造成的飞跃性变化,物理学认为是自然界各种复杂的东西形成的秘密所在。
从物理学相变的角度看神经网络也可以帮助我们理解很多常常百思不得其解的问题,例如,我们是如何睡觉的。从清醒到进入睡眠,人脑会发生一个剧烈的变化,这个变化其实跟物理学里面水结冰的现象很像,是物体从自由的状态转化为极为有序状态的一个过程。
如果你观察人类从清醒到睡着的脑电波变化,就会发现波形在某一个点上突然发生了改变。除了睡眠,冥想、爱上一个人等等,或许都可以看做是这种大量神经单元在某种条件和刺激下从一个整体状态转变为另一个整体状态的相变过程。
除了上面说过的涌现性和相变,物理学对人工智能的贡献还有非线性动力学,非线性动力学的方程式甚至能够精准地对神经细胞放电这个极为复杂的理化过程进行预测,这就是著名的 Hodykin-Hulex 模型。
对于神经网络的动力学解释主要基于物理的混沌理论,因为神经网络作为一个高维系统,它的行为正好符合混沌的框架。
当任何一个神经元受到扰乱时,所产生的后果不可预料。我们都知道生物的神经网络可以极为精准而稳定地决定动物的各种行为,因此看似混沌的网络实际上是能够被精准预测的。
这里的思维就和物理学中的降维的思想不谋而合,高维度的网络系统在执行某个任务的时候,可以被化解到更低的维度里用动力学来解释。
生物学
生物学中有关神经网络的研究或许是最复杂的,因为生物学研究者了解细节和功能的方式就是通过解剖、实验以及各种成像技术来理解的。这种对于细节的严谨态度在神经网络中也有同样的体现,关于神经元之间相互连接的精密地图为神经网络的构建提供了参考和借鉴。
生物学对于神经网络提供的更有趣的还在于对学习现象的解释。神经细胞之间额连接——神经突触是会随着时间的变化而不停改变的,这种微妙变化是神经活动导致的,如果一个细胞经常向另一个细胞放电,那么它们之间的联系就会加强,它们所代表的信息就会联系起来,这就是学习的生理基础。
生物学和人工智能之间更奇妙的联系还在于,人工智能反过来启迪了生物神经网络的发展,正如费曼所说“你要想真正理解一个东西,就自己造出一个来”。
信息学
从信息学的角度看,神经网络就像是一个具备整合各种信息的工具。对于人类来说,之所以进化出神经网络,就是因为我们面对的现实世界充满了各种错综复杂的信息,因此我们需要把多种不同的信息整合在一起并对其做出相应的判断就至关重要。
从信息学的视角来看,贝叶斯分析时其中应用最广的角度。所谓贝叶斯分析,就是把新增加的证据和之前形成的信念不停进行综合来对当下的判断做出选择。
要实现这种新旧知识的综合,就需要在不断收集新信息的同时还要对旧知识进行储存和调用,另外和需要根据前两者的综合对未来的趋势做出判断,改变当前大脑中的连接网络状态。上面的几个步骤,就分别对应人类的感知、记忆、行为和学习几种行为。
不少分属理工科类的学科在 AI 发展的最早期都发挥了很大作用,但是随着人类都 AI 的发展和了解不但深入,以及仿生方法的更深层次的应用,除了以上提到的几种目前已经对 AI 发展产生了明显作用的学科分支外,其他的人类学科,包括社会学、犯罪学、语言学甚至是作为终极学科的哲学都已经开始展现了它们对 AI 发展的重要理论和思维模式借鉴。
第一类:无记忆的简单响应式机器
大多数“入门基本型”的 AI 系统都属于纯粹的响应式机器,它们既不具备形成记忆的能力也不具备借鉴过去经验的能力,因此也无法从过去的经验中获得当前决策的有效借鉴。
IBM 的超级电脑“深蓝”曾经于 20 世纪 90 年代末期击败人类国际象棋大师加里·卡斯帕罗夫(Garry Kasparov),它就是响应式机器的完美代表。
“深蓝”可以识别棋盘上的棋子,并知道如何移动棋子。它甚至还能预测自己和对手的下一步棋路,并在诸多可能性中选择最优方案。但是“深蓝”没有“过去”的概念,也没有此前的记忆。
除了偶尔利用国际象棋的具体规则,比如反对重复同样的步骤 3 次外,“深蓝”几乎会忽略此前发生的一切。它的重点就是关注当前棋盘上的棋子,并为下一步移动做出选择。
第二类 AI:具有部分有限记忆的 AI 机器
这类 AI 可以短暂回顾过去的经验,比如无人驾驶汽车系统中的 AI。举例来说,它们会观察其他汽车的速度和行进方向。但是它们现在还无法立刻完成这个动作,而是需要识别特定目标,并监督它们一段时间。
这些观察会被添加到无人驾驶汽车预先编程的模拟世界中,包括车道标记、交通灯以及其他重要元素。但是这些有关过去的简单信息只是短暂的,不会被储存在汽车已经了解到的经验库中,因此他们也无法充分建立起记住经验和积累驾驶经历的能力。
第三类 AI:心智理论机器
这很可能是目前已经建造的 AI 机器与将来要建造的 AI 机器之间的差异最大的地方。未来的 AI 机器将更加先进,它们不仅会自己建立模拟世界,还会模拟世界上其他对象和实体。在现实世界,这被称为“心智理论”,即理解世界上的人类和其他生物都有思想和情绪,而这些思想和情绪可影响他们的行为。
这对人类形成社会时至关重要,因为它们允许我们进行社会交流。如果不相互了解动机和意图,不考虑其他人对自己或环境的了解,最好的情况下是协作非常困难,最坏的情况是根本不可能有协作。
如果 AI 系统要想走在人类中间,它们必须能够理解我们每个人都有不同的想法和感受,并期望自己被如何对待。为此,它们必须对自己的行为进行相应调整。
第四类 AI:具备自我意识的 AI 机器
AI 发展的最后阶段就是建立能够形成代表它们自己的模拟世界的系统。最终,AI 专家不仅需要自己理解意识,还要建造拥有自我意识的机器。从这种意义上说,第四类 AI 是第三类 AI 所代表的“心智理论”机器的延伸,同时也是意识被称为“自我意识”的原因。
有意识的存在可以意识到他们自己,了解它们的内部状态,能够预测其他人的感受。我们假设有人在后面狂按喇叭代表愤怒和不耐烦,因为我们那样做时也代表着同样感受。没有心智理论,我们就无法做出这些推论。
现在距离创造具有自我意识的机器可能还很遥远,因此目前的重心更应该放在理解记忆、学习以及基于过去经验作出决定的 AI 能力上。这些不仅是理解人类智慧的重要过程,而且在我们设计和开发次时代的 AI 机器中,这一点也尤为重要。
本文来自: 钛媒体