人工智能,是2017年最热的科技线月Google的人工智能系统AlphaGo以3比0战胜世界围棋第一人柯洁,到7月份Facebook的CEO马克扎克伯格(Mark Zuckerberg)和特斯拉的CEO埃隆马斯克(Elon Musk)为人工智能隔空论战。最后埃隆马斯克直指马克扎克伯格对人工智能知之甚少。
那么,人工智能真的可以具有类人的智能吗?今年5月底,《麻省理工技术评论》(MIT Technology Review)发表的人工智能发展前瞻时间表给了这样的回答:除了战胜人类围棋高手的目标已经达到外,语言翻译(2024年),撰写高校论文(2026年),驾驶卡车(2027年)乃至撰写纽约时报排行榜畅销书(2049年)和完成外科手术(2053年)都赫然在列。
最近几个月,有关人工智能的终极警告见诸媒体:如“霍金警告:人工智能可能让人类灭绝”,“保安机器人自杀 人工智能对人类来说是福是祸”,“细思恐极!两个人工智能系统用人类无法理解的语言进行了交流”等,那么,人工智能技术真的已经在人类可控的边缘吗?
答案是否定的:目前我们掌握的人工智能技术还非常粗糙和原始。如果把人工智能和人类使用工具的历史相比,我们目前还处在人工智能的“石器时代”。
所谓弱人工智能,就是像目前的各种对话机器人如Siri,还有围棋系统AlphaGo和IBM的认知系统 Watson。它们需要依赖于海量数据,并在设计者精心构建的环境下进行模型训练,最终对给定目标基于明确任务展现强大的计算和认知能力。目前人类出现的所有人工智能系统都在此阶段,无一例外。
所谓强人工智能,目前业界没有统一的定义。但总的来说强人工智能应该不再局限于单一的明确目标,它应该能够自主进行非结构化数据的学习,并完成通用的任务。训练过程不再局限于格式化的数据输入,而是可以像训练猫、狗一样进行模糊训练。
我认为,人工智能系统应该达到高级哺乳动物甚至人类婴儿的智力水平,这才谈得上强人工智能系统,这就包括了类似于批判性的分析问题和抽象的思考能力。
显而易见,目前无论是谷歌、亚马逊还是别的互联网创新企业,他们研究的人工智能项目与此都还相去甚远。
超级人工智能目前是意见分歧最大的阶段。但总的来说,作为发展的最高阶段,人工智能系统应该已经适用阿西莫夫的机器人三定律,即:机器人不得伤害人类,或因使人类受到伤害;除非违背第一定律,机器人必须服从人类的命令;除非违背第一及第二定律,机器人必须保护自己。
所以,超级人工智能应该具有自我的认知能力,它将以我们目前无法理解的方式来构建和运行。同时,作为目前已知的智能和认知领域的唯一杰作大脑,在超级人工智能到来时,大脑本身的工作方式和针对其的人工模拟技术一定已经实现。很难想象人类会创造一种新的和大脑工作机理完全不同的人工智能系统。
我认为更大的可能性是人类基于对大脑构造的深刻认识和全面仿真基础上构建出真正的超级人工智能系统。
根据这样的阶段划分,我们就知道目前所有的已经应用和还在研究的人工智能技术无一例外都是弱人工智能,其核心能力和大多数人所理解的智能相去甚远。
其一,目前的弱人工智能必须精确学习,指定输入。人类智能来自于学习,而人类的学习过程往往是模糊学习,正误混杂。对于目前的人工智能系统,学习的过程其实是通过输入已知数据完成对模型的调整(通常被称为训练模型)。任何错误的已知数据都会导致模型偏离最终的理想结果。在没有人工干预的前提下,模型本身没有任何过滤错误数据影响的能力。
微软公司在去年推出了一款名为“Tay”的人工智能系统,其设计能够模仿一名19岁的美国少女与Twitter用户在线聊天,微软希望Tay能够通过与人类对话进行自我学习并不断完善,从而更好地与人类交流。但是在Tay上线小时,Tay开始频繁爆出粗口,其中不乏种族歧视、侮辱女性以及污秽不堪的词句,最终微软不得不将其紧急下线。
微软的Tay人工智能系统发生与预想结果重大偏离的核心原因就是现有的弱人工智能技术无法面对模糊学习和错误信息的挑战。
有关弱人工智能的指定输入有这样一个实例:主人设定扫地机器人iRobot每天凌晨1点半自动启动清理房间,这样起床后就能享受到干净的室内空间。但当某天晚上他的宠物狗把大便拉在了地板上。第二天早上主人看到宠物狗的大便均匀地抹平在iRobot走过的每一个房间角落。
对于扫地机器人这种弱人工智能设备,传感器采集的都是预设好数据,任何模型之外的因素如宠物狗的大便,都是视而不见的。
对于精确学习、指定输入的弱人工智能,任何超范围的输入和训练数据集中的噪声数据对于其都可能带来一场灾难。
其二,目前的弱人工智能是单一能力的“雨人”式智能。美国电影《雨人》描写了一个患有自闭症、生活几乎无法自理的人同时拥有超强的记忆力,甚至可以利用自己的超强能力到赌场赢钱。这种一边是天才、一边是弱智的“雨人”式智能,就是对于目前弱人工智能的最好写照。
从人工智能技术出现到现在,所有已知的人工智能系统都在追求给定场景下、特定业务问题的解决。所以,从数据收集、模型选择、模型训练到实际应用,目前的人工智能系统都是设计解决单一任务的。
以Google的AlphaGo为例,它除了会下围棋,其他什么都不会。哪怕是需要解决类似的问题如下国际象棋,整个系统包括算法就都需要重构。
类似的情况同样存在于绝大部分现有的人工智能系统中。比如对于自动驾驶系统,它的任务就是根据各个传感器的动态输入决定对于方向盘、油门和刹车等系统的操控。如果我们需要开发一个非轮式的行走机器人,那么原有自动驾驶系统积累下来的“知识”全无用处,从输入数据到核心算法全部都要推倒重构。
对于具有“雨人”式智能的这种单一功用人工智能系统,其实更应该称其为人工智能辅助系统,因为几乎没有任何应用场景的弹性,其实和公众心目中认知的人工智能天差地别。
其三,神经网络算法离“类脑计算”还非常遥远。“类脑计算”,指的是以大脑相似的方式工作,并完成相应的计算工作。
神经网络是目前人工智能领域最热的算法,没有之一。仅从神经网络的名字就容易联想到人脑,人脑不就是由亿万个神经元细胞构成的神经网络吗?通过神经网络构造的系统是不是可以完成“类脑计算”,拥有类似人脑这样的高级智能呢?
再加上Google的AlphaGo系统就是使用卷积神经网络和相关的深度学习技术构建核心算法,最终超越了所有人类目前能够达到的围棋水平,不由得更容易让公众以为神经网络和“类脑计算”有什么关系。
其实神经网络只是人工智能算法的一种,并且也不是占压倒性优势的算法。目前的神经网络与人类大脑的区别,比算盘和超级计算机的区别更大。主流神经网络算法包含的单向信息流动和输入输出节点模式,更是对大脑神经元工作方式的拙劣模仿。人类目前对大脑的核心工作原理几乎是一无所知,所以神经网络和大脑相比只是形似而已。
如果有一天人类破解了大脑的核心工作原理,是非常有可能创造出类似大脑的强人工智能甚至超人工智能系统的。当然,人类也有可能创造出不同于大脑工作机制的全新人工智能系统。但在我看来,摆着现成的智能实物(大脑)抄都抄不会的话,凭空创造一个人工智能体系的难度就更大了。
除了神经网络以外,目前主流的人工智能算法还包括回归、聚类、决策树、随机森林等。KDnuggets统计,数据科学家们常用的算法包括10种。
笔者从1998年就开始接触数据科学,目前仍然任职某500强企业的高级数据科学家。我的看法是,目前人工智能领域并没有真正越阶的突破。
近几年人工智能特别火爆的根源一方面是通过一些创新的技术如深度学习等,让模型在训练过程中能够快速逼近,从而支持海量的数据训练任务并大大缩减模型训练时间,最终在特定场景下能够匹敌甚至超越人的智力水平。
但目前人工智能所采用的各种模型算法如神经网络、随机森林、贝叶斯分类和支持向量机等,都是十几年甚至几十年前就已经出现的,并不是新鲜事物。现有的模型算法如果没有越阶的突破,从弱人工智能到强人工智能的阶段式跨越是不太可能发生的。
目前,网上流传的各种关于人工智能的惊悚话题都是以讹传讹的夸大之词。试想,目前基于单一任务的弱人工智能系统,怎么可能会产生系统的自我意识,就更谈不上“自杀”、“交流”这样带有主观认知的行为了。传感器故障或者是模型训练失败导致的错误输出,才有可能是这些“惊悚事件”发生的最大根源。
人们在最近十年捡起人工智能这一“石块”并开始打磨作为智能工具,未来一定会逐步进入智能的青铜时代、黑铁时代乃至蒸汽时代。但有限的模型和相应的弱人工智能决定了人类还处在人工智能的“石器时代”。