几年前,Max Tegmark 站在南肯辛顿科学博物馆门外哭了。他刚刚参观了一个展示人类知识增长的展览,观看了从查尔斯巴贝奇差分机到阿波罗11号复制品的一系列展品。让他流泪的不是这些里程碑技术的外表奇观,而是它们所展示的对真相的顿悟。
“我就像被砖块击中了一样。”他回忆说,“每当我们深入了解了自然中的某些东西,我们自己身心的某些方面就会变得过时、多余。 一旦我们理解了肌肉如何工作,我们就会以机器的形式造出更好的肌肉;也许当我们理解我们的大脑如何工作时,我们也将造出更好的人造大脑,这样我们自己的大脑也会变得完全过时。“
Tegmark 进一步问自己: 如果我们创造出了超越我们智慧的超级智能,人类将变成什么样呢?
这个问题曾在科幻作品中一再出现。 然而,随着AI成为科学事实,这个问题具有了非同寻常的意义和紧迫性。Tegmark认为,我们必须研究围绕人工智能的社会问题,特别是出现所谓超级智能的可能性。Tegmark 与他的朋友、Skype联合创始人Jaan Tallinn,利用来自科技亿万富豪 Elon Musk的资金设立了未来生命研究所,研究人类面临的存在风险。它位于马萨诸塞州剑桥。Tegmark本人是麻省理工学院的教授。
要看清AI的前景,一个巨大的困难在于,AI的概念已迷失于种种神话和误解。Tegmark试图解决这个问题,仔细地展开 AI 所涉及的与智慧,记忆,学习,意识相关的想法,逐一解释它们,让这些概念不再神秘。
“我认为,好莱坞对我们的引导是错误的。”他说。 “这种对机器人的意识和邪恶的恐惧是杞人忧天。 高级人工智能的真正可怕之处不是邪恶,而是无能。 如果你拥有超级智能的AI,那么根据设定,它将非常好地实现它的目标;但我们需要确保,这些目标与我们的目标一致。 我并不仇恨蚂蚁,但如果你让我负责在蚁巢上建设绿色能源水电站,这对蚂蚁来说将是毁灭性的。 在面临超级智能时,我们可不想让自己处于这些蚂蚁的位置。”
《生命3.0》并不是一部关于超级AI碾压人类的哀歌。实际上,它对超级智能的潜力是乐观的。不过,什么是超级智能? 甚至,什么是智能? Tegmark把智能定义为“完成复杂目标的能力”。 因此,普通计算机已具有智能。 但是,它们的智能仍很狭隘。
目前,计算机在某些领域处理信息时远远超出人类。 例如,世界上最好国际象棋手已无法战胜现代计算机象棋程序。但是,如果让这个程序与儿童玩最简单的井字棋游戏,它就会无能为力。人类,即使人类中的孩子,都在广泛领域中拥有通用智力。而电脑的处理能力只限于规定的任务。
所以对普通计算机来说,它们只会达到我们通过编程所要求它们达到的那种聪明程度。 但是,随着进入AI时代,计算机开始改变了。 在Google的AI子公司DeepMind等地方,电脑已可以通过自学习 ,进行反复尝试和进步。 到目前为止,这类技术只在视频游戏和围棋中得到体现,但将来可能会扩展到其他媒体。 如果它扩展得足够远,将对我们如何看待对自己、如何看待生活,以及其他根本问题产生深远的影响。
Tegmark 研究这些问题的方式是,设想一个具有发展阶段的生命历程。他把最原始的生命形式,如细菌,他称之为Life 1.0。 这是一个最简单的生命阶段,生命只是在不停复制,而适应只有通过自然进化才有可能。
生命2.0阶段或所谓文化阶段是人类所在的地方:人类能够学习,适应不断变化的环境,并能有意地改变这些环境。然而,我们还不能改变我们的身体自身,不能改变我们的生物遗传。Tegmark将这种对比比喻成软件和硬件之间的对比。 我们已经能设计自己的文化软件,能设计我们“走路,阅读,写作,计算,唱歌和说笑话”的能力;但是我们的生物硬件,包括我们的大脑和身体的特征,仍受到自然进化的限制。
第三个阶段,即生命 3.0阶段,是高科技阶段。在这个阶段,后期人类不仅可以重新设计自身的软件,还可以重新设计自身的硬件。 Tegmark 写道,这种形式的生命将是“自己命运的主人,最终完全摆脱自然进化的束缚”。
这种新的智能将是不朽的,并将在整个宇宙中扩散。 这将是一种我们尚不知道的生命形式。 但是,这到底是生命吗,还是别的什么东西?作为一名物理学家,Tegmark 可不是关于生命的感伤主义者。 他是一名唯物主义者,将世界乃至宇宙视为由不同层次的粒子组成,具有不同层次的活动。 在他看来,普通人的生物性智能与自我维持的机器智能之间没有任何有意义的、道德上的区别。
Tegmark描述了Life 3.0的无限可能性的未来。在书中,有时他的写作是梦幻般的;有时他又会像理论家一样,试图构想我们大多数人难以想象、不乐意想象的东西。
简单来说,我们正处于AI 的早期阶段,面临自驾车、智能家居控制单元等自动机器。 但是,如果趋势持续快速发展,那么,在30年,50年或200年后的某个时刻, 计算机将以达到人类的一样的通用智能。
一旦电脑达到这个阶段,他们的改善将迅速加快,因为它们将能够用已有的处理能力来计划如何提高自己的处理能力。 这就是 Bostrom 在他2014年的“ 超级智能”一书中所阐述的观点。这种智能大规模扩张的结果,将是超级智能或所谓奇点的到来。
然而,超级智能的来临并不是不可避免的。 有很多人认为电脑永远不能与人类智能相匹配,有些人认为如果电脑朝这个方向发展,人类本身也会学会适应。 但是,Tegmark认为,我们迫切需要认真思考超级智能来临的可能性。
“我们处于这样的时代:真正戏剧性的大事可能在几十年内发生。对我来说,这是人类开始为此准备的最好时候,这样才能让超级智能成为一个好的力量。 设想一下,如果我们30年前就为气候变化做好准备,那么气候的现状会好得多。“
像Bostrom一样,Tegmark认为AI的发展比气候变化问题更为迫切。 然而,如果我们正在创造一种我们不可能理解的智能,我们所做的准备对未来的超级智能又能有多大的影响呢? 我们如何才能尝试限制那种超出我们想象的智力?
“在我们担心超级智能的长期挑战之前,我们需要解决一些非常短期的问题。完美并不是好的敌人,即使做不到完美,我们也能让现实变好一点。在任何情况下,我们都不希望飞机撞进高山或建筑物。 当事故飞机飞行员 Andreas Lubitz 感到抑郁崩溃时,他告诉他的自动驾驶仪,让它下降100米,飞机的电脑系统居然执行了!然后就带来了灾难。这说明,这个电脑对于人类的目标是完全无知的。尽管我们现在已经拥有飞机安全驾驶技术,在这种技术下只要飞行员试图撞击什么东西,飞机就会进入安全模式,将着陆目标锁定在最近的机场。但这样的技术在这起灾难中完全无用。我们应该着手,让机器能够理解这种幼儿园级的基本道德规范。“
不过,在此之前,还有更紧迫的工作要做。 “我们如何才能将今天的容易出错、可攻破的计算机转变成我们可以真正信任的强大AI系统? 这是非常重要的。 我觉得我们作为一个社会对这个问题太轻率了。世界各国政府应该将这个领域作为计算机科学研究的重要组成部分。“
他认为,通过放弃人工智能研究来防止超级智慧兴起,这并不是一个可靠的方法。 “人类在2017年的生活的每一个方面都比石器时代更好,这都是因为技术。技术正在发生,没有人会停止技术发展。如果有人问你是不是反对AI,这就像询问你,是不是反对火这个东西,这很可笑。我们都喜欢火,它让我们的家庭保持温暖,但我们也都想防止火灾。“
在这本书中,Tegmark认为,Google的 Larry Page可能成为有史以来最有影响力的人物:“我的猜测是,如果超级智能在我的有生之年就诞生并吞噬天地,这一切将起源于 Larry Page 所做出的决策。“
Larry Page 像 Musk一样,富有思想,真诚关心人类的未来困境。但毫无疑问,他首先是一个商人,最关心的是利润和打败竞争对手。而事实证明,目前关于AI的决策权力仍过多地掌握在科技亿万富豪,而这些人并不能代表人类的利益。
关于近期的AI政策,Tegmark的建议是:第一,资助关于AI安全的研究,第二,禁止致命性的智能自主性武器,第三,扩大AI的社会服务,让AI创造的财富能使每个人都得到好处。”
如前所述,今天的行动将极大影响未来的AI道路。但是,采取这三点计划,似乎能让未来变得不那么让人担忧。