我们采访了麦克斯•泰格马克(Max Tegmark),他是《生命3.0:活在人工智能时代的人类》(Life 3.0: Being Human in the Age of Artificial Intelligence)一书的作者。

哲学家,计算机科学家,甚至连伊隆•马斯克(Elon Musk)都担心这个世界有朝一日会被人工智能毁灭。有些学者认为这可能是人类所面临的最紧迫的生存危机,另一些学者则对这种假设的危险嗤之以鼻,认为这不过是一些毫无根据的危言耸听的说法而已。

似乎存在着两种对立的观点:人工智能悲观主义和人工智能乐观主义。但这种简单的二分法具有误导性。对人工智能抱有最大担忧的人同时也相信,假如我们能够创造出一种 “友好的” 超级智能 —— 即其目标体系跟人类的目标体系相吻合 —— 那么它就能发挥出令人难以置信的积极作用。用斯蒂芬•霍金的话来说,假如创造人工智能不是人类历史上最糟糕的事,那么它就可能会是最好的事。

1510647892912053.jpeg麦克斯•泰格马克。 图片由他本人提供。

在他的 新书《生命3.0:活在人工智能时代的人类》(Life 3.0: Being Human in the Age of Artificial Intelligence)里,美国麻省理工学院的宇宙学家、生命未来研究所(Future of Life Institute)的联合创办人麦克斯•泰格马克(Max Tegmark)对与人工智能相关的许多问题 —— 从人工智能对就业市场的影响和我们打仗的方式,到超级智能的电脑程序是否有可能威胁到整个人类的生存 —— 进行了全面探讨。我通过 Skype 和泰格马克聊了聊人工智能带来的威胁和可能性。

为了清晰地表达作者观点,以下采访内容进行了精简和编辑。

Motherboard:许多权威专家都对人工智能可能带来的负面后果表示担心。您有哪些担忧?

泰格马克:如果人类能够驾驭自己不断发展的智慧,并在与日益升级演进的人工智能的较量中占据上风,我对我们能够用人工智能创造出一个光明的未来还是很乐观的,但这需要周详的计划和努力的工作,天上不会掉馅儿饼。所以我的乐观并不天真,不是那种无论发生什么明天太阳都会照常升起的乐观,而是假如我们把事情做对,就会有好的结果。对我来说最有意思的问题不是纠结于情况会变好还是变糟,而是应该考虑我们现在可以采取什么具体步骤让人工智能最大限度地发挥积极作用。 

您能给我举两个这种具体步骤的例子么?

第一,给人工智能安全性的研究投资;第二,努力通过谈判达成一项限制致命自动武器的国际条约;第三,确保自动化技术所创造的巨大财富能够惠及每个人。人工智能安全性的研究方面,如何把现在满是漏洞并且容易遭到黑客攻击的电脑改造成我们真正能够信任的可靠的人工智能系统?笔记本电脑崩溃的时候你觉得很烦,未来如果控制着自动驾驶飞机或核武器的人工智能崩溃了的话,可就不止是 “烦” 那么简单了。

随着人类逐步迈入未来,设法让机器在变得更加智能的情况下理解、接纳并遵循我们的目标将变得尤为重要。未来如果你要自动驾驶汽车把你尽快送到机场,结果抵达的时候你已经因为车开得太快而吐了一身,还被警方的直升机追赶,你会说 “我没让你这么干!”,而人工智能则会回答[这时泰格马克模仿着机器人的声音] “您就是让我这么干的。” 那时候你就会知道让机器理解你的目标有多难了。

第三,随着我的孩子们越长越大,他们对乐高积木渐渐不感兴趣了,但我们得确保智能机器在越来越聪明的同时还能够遵循它们的既定目标,而不会对善待人类这个目标感到厌倦。 

说到政府,希拉里•克林顿在她的新书里说她确信人工智能会对人类构成一系列不可忽视的威胁,而她又没法以一种让自己听上去不那么夸张的方式来谈论人工智能。关于政府应当如何应对人工智能造成的风险方面您有什么见解?

的确,我觉得人工智能这个话题在刚刚过去的这次美国总统大选中没被提及是很令人震惊的,尽管这显然是与就业有关的最重要的一个问题。当我们努力把人工智能的目标和人类的目标相匹配的时候,我们谈论的究竟是谁的目标?你的目标?我的目标?伊斯兰国的目标?希拉里•克林顿或是唐纳德•特朗普的目标?这个问题不该只让我这样的计算机爱好者来考虑,因为每个人都会受到影响,显然哲学家,伦理学家,甚至每个人都该加入这一讨论。

同时还有许多问题真的有待经济学家,心理学家,社会学家还有其他方面的专家共同面对,以保证科技的发展可以惠及每个人。我们得设法确保那些工作被自动化技术所取代的人不会变得更加贫穷,这种情况在某种程度上已经发生 —— 许多经济学家说导致特朗普当选和英国脱欧的不平等现象,在很大程度上是由自动化技术的发展造成的。但光给人民钱是不够的,因为钱买不到幸福。工作带给我们的不仅是收入,还有使命感和与社会的联系。我们最终想要建立一种什么样的社会使我们所有人都能永久享用人工智能技术?这是一个非常有意思的话题。

说到特朗普,您现在是否担心会发生核冲突?我觉得他不过脑子的那些 “炮火和怒火” 的言论可能是我听美国政府官员说过的最恐怖的事。

是的,我认为核武器和人工智能实际上是同一个问题的两个例子:我们人类正在慢慢发明出越来越厉害的技术。为了保证用来驾驭先进技术的智慧能够跟上技术的不断发展,我们也变得越来越挣扎。我们当初发现和使用火这种没那么厉害的技术的时候,就搞砸了好几次然后才发明出灭火器。但随着核武器和超级人工智能这种真正强大的技术的出现,我们再也不敢指望从错误中汲取教训了。

现在,有些人将这种观点误解为反对技术进步的勒德派(Luddite)危言耸听的说法,对我而言,它仅仅是个工程安全问题。NASA 之所以能把宇航员安全地送上月球是因为他们对可能出错的地方进行了系统全面的考虑,并想方设法来避免发生那些状况。对核武器和异常强大的人工智能我们都必须这么做。纵观当今各国领导人管理那14000枚氢弹的方式,总让我觉得像是我们给幼儿园一个班里的孩子们送了一箱手榴弹。

所以我对您提出的在智慧与科技的较量中人类所面临的困境表示赞同。

在很大程度上,智慧中包含了棘手问题的解决方案。所以我认为请人思考这些棘手问题以便在我们真正需要的时候给出答案尤为关键。有些非常难以解决的问题可能需要花上30年才能攻克,也就是说如果有可能在30年内拥有超级智能技术,我们现在就应该开始着手研究,而不是等到超级智能技术成熟之后。

如果人类齐心协力,智慧在与科技的较量中占据上风,那么我们的未来将会变得有多美好?

正是因为觉得大家对人工智能所可以发挥的积极作用关注得太少了,我才想写一本充满乐观主义精神的书。假如一味盯着人工智能的缺点,人就会被恐惧吞噬,而社会则会形成两极分化。但如果大家都热切期待美好的未来,就能促进合作,而这正是我们此时此刻所迫切需要的。我喜欢人类文明是因为它是智慧的产物,所以如果可以通过人工智能进一步发挥我们的聪明才智,我们就有可能解决现在困扰着我们的各式各样的问题,从治愈绝症到获取可持续能源,修复气候,消除贫穷,实现正义。

作为一名物理学家,我从骨子里也无法抗拒更为宏伟的景象:在这颗小小星球上,我们总在为下一场总统大选喋喋不休,而实际上我们却有潜力让生命之花在地球上长盛不衰并遍及包含着无数个太阳系和银河系的整个宇宙。人工智能的优点是令人惊叹的,远超科幻作家们的想象力。

那些表示 “噢不,这太恐怖了,咱们别再发展科技了” 的人,他们的这种想法不仅不切实际,而且真的只是饮鸠止渴。因为如果我们不发展科技,那就不是我们会不会灭绝,而是我们会不会因为小行星撞击地球,超级火山喷发,或是别的什么原因而被从这颗星球上彻底地消灭的问题了。

编辑: 邢逸帆

Translated by: 威廉老杨

© 异视异色(北京)文化传播有限公司
版权所有,未经授权不得以任何形式转载及使用,违者必究。