推 荐 文 章
当前位置: >> 首页 >> 自然·生态 >> 霍金逝世一周年:关于人类和宇宙,他离开前留下了这些最后答案(下)
霍金逝世一周年:关于人类和宇宙,他离开前留下了这些最后答案(下)
发布时间:2019-03-14 10:01:20 浏览次数:369

霍金逝世一周年:关于人类和宇宙,他离开前留下了这些最后答案

英国皇家造币厂为了纪念霍金在黑洞方面的开创性研究,推出铸有“黑洞”的50便士纪念币。

外星生命形式,

为什么地球没被它们访问甚至被殖民过?

       问:宇宙中存在其他智慧生命吗?

       史蒂芬•霍金:当我们探索银河系时,我们遇到一种外星生命形式的机会是多少?如果关于地球上生命出现的时间尺度的论证是正确的,那么应该存在许多其他恒星,其行星上拥有生命。其中一些恒星系统可能在地球之前50亿年就形成了。那么为什么银河系没有爬满着自我设计的机械或生物的生命形式?为什么地球没被它们访问甚至被殖民过?顺便说一句,我不太相信不明飞行物携带来自外太空生物的说法,因为我认为外星人的任何访问都会更加明显得多——而且可能也更不愉快得多。 

       那么为什么我们没被访问过?也许生命自动发生的概率就是如此之低,以至地球是银河系中或者在可观察的宇宙中唯一出现生命的行星。另一种可能性是存在合理概率形成自我复制系统,比如细胞,但大多数这些生命形式并没有演化出智慧。我们过去认为智慧生命是进化的不可避免的后果,但如果它并非如此又怎么办?人存原理应警告我们要警惕这些论点。进化更可能是一个随机过程,智慧只是众多可能的结果之一。 

       甚至智慧是否具有任何长期生存价值,这一点尚不清楚。如果地球上的所有其他生命都被我们消灭,细菌和其他单细胞生物可能继续存在。从演化的年表来看,也许地球上的生命不太可能进化出智慧,因为从单细胞到多细胞生物,它花了很长时间——25亿年,而多细胞生物是智慧的必要前提。这是太阳爆炸之前可用总时间的很大一部分,所以它与生命进化出智慧的概率很低的假设相符。在这种情况下,我们可能会在银河系中发现许多其他生命形式,但我们不太可能找到智慧生命。 

       另外,如果小行星或彗星与这个星球相撞,这是生命不能发展到智慧阶段的另一种可能原因。1994年,我们观察到了肖梅克•利维彗星与木星的碰撞。它产生了一系列巨大的火球。有人认为,大约6600万年前一个小得多的天体与地球的碰撞,造成恐龙的灭绝。一些小的早期哺乳动物幸存下来,但任何像人类一样大的东西几乎肯定会被消灭。很难说这种碰撞发生的频率,但平均每两千万年可能是一个合理的猜测。如果这个数字是正确的,那就意味着地球上智慧生命的发展只是因为在过去的6600万年中地球没有发生重大碰撞。银河系中的其他行星发展的生命可能没有足够长的无碰撞时期来进化成智慧生物。 

       第三种可能性是存在生命形成并演化为智慧生命的合理概率,但系统变得不稳定,智慧生命自我毁灭。这将是一个非常悲观的结论,我非常希望它不是真的。 

       我更喜欢第四种可能性:外太空还有其他形式的智慧生命,但我们却被忽视了。2015年,我参与了突破聆听计划的启动。突破聆听使用射电观测来寻找智慧的外星生命,并拥有最先进的设施、慷慨的资金和数千小时的专用射电望远镜时间。它是有史以来旨在寻找地球以外文明证据的规模最大的科学研究计划。突破性信息是一个国际竞争,旨在创造可让先进文明阅读的信息。但我们需要警惕,直到我们进一步发展之前,不要回答外星生命。在我们现阶段,遭遇更先进的文明,可能有点像美洲原住民遭遇哥伦布一样——我想他们认为他们的生活因之变得更糟。

霍金逝世一周年:关于人类和宇宙,他离开前留下了这些最后答案

霍金在突破聆听计划启动现场。

不离开地球,

就像在荒岛上不想逃生的漂流者一样

       问:我们应去太空殖民吗?

       史蒂芬•霍金:我们为什么要进入太空?花费那么多努力和金钱就为了获得一些月球岩石的正当理由是什么?难道在地球上没有更好的事业吗?显而易见的答案是因为它一直在我们周围。不离开地球就像在荒岛上不想逃生的漂流者一样。我们需要探索太阳系,找到人类可以居住的地方。 

       在某种程度上,这情况就像1492年之前的欧洲一样。人们可能会认为让哥伦布出发而徒然无功是浪费金钱。然而,新世界的发现对旧世界产生了深远的改变。试想一下,如果那没有发生的话,我们将吃不到巨无霸或肯德基。向太空扩散将产生更大的效应。它将彻底改变人类的未来,并可能决定我们究竟是否拥有任何未来。它不会解决我们在地球上的任何直接问题,但它会给我们一个新的视角,让我们向外而不是向内看。但愿它会将我们团结起来去面对共同的挑战。 

       这将是一个长期的战略,我的意思是,这个长期时间是数百年甚至数千年。我们在30年内可以在月球上建一个基地,50年内到达火星,200年内探索外行星的卫星。所谓的到达,我的意思是指载人的航天器。我们已经在火星上运行漫游器,并让探测器着陆土星的卫星泰坦上,但如果我们正在考虑人类的未来,我们就得自己去那里。 

       进入太空绝不便宜,但它只需要世界资源的一小部分。自从阿波罗登月以来,NASA的预算考虑到物价因素实际上基本保持不变,但它从1970年占美国GDP的0.3%下降到2017年约为0.1%。即使要认真地努力进入太空,我们得增加国际预算20倍,也还只占世界GDP的一小部分。 

       也许有人认为更应该用我们的钱来解决这个星球的问题,例如气候变化和污染,而不是浪费它去寻找一颗新行星却可能毫无结果。我并不否认应对气候变化和全球变暖的重要性,但我们可以在做到这一点之余,仍然将世界GDP的0.25%用于太空。难道我们的未来不值百分之一的四分之一吗? 

       在20世纪60年代,我们认为,太空探索值得付出巨大努力。1962年,肯尼迪总统承诺美国将在10年内登陆月球。1969年7月20日,巴兹•奥尔德林和尼尔•阿姆斯特朗降落在月球表面。它改变了人类的未来。我当时27岁,是剑桥大学的一名研究员,我错过了它。我正在利物浦参加一个关于奇点的会议。登月发生的那个时刻,我正在听取雷内•托姆关于突变论的演讲。那时还没有回放电视,我们也没有电视机,但是我两岁的儿子向我描述了他看到的登月直播。 

 霍金逝世一周年:关于人类和宇宙,他离开前留下了这些最后答案

大学时代的霍金,在牛津划艇队

       太空竞赛有助于产生对科学的迷恋并加速我们的技术进步。今天的许多科学家就是受到登月的感染而进入科学领域的,他们的志向是更多地了解我们自己和我们在宇宙中的位置。它给了我们关于我们世界的新观点,促使我们将整个星球视为一个整体。然而,在1972年的最后一次登月之后,由于没有进一步载人航天飞行的未来计划,公众对太空的兴趣减弱了。在西方,这伴随着对科学的普遍失望,因为虽然它带来了巨大的好处,但并未解决日益占据公众注意力的社会问题。 

       一般而言,一个新的载人航天飞行计划可以大力恢复公众对太空和科学的热情。机器人任务要便宜得多,并提供更多的科学信息,但它们没有摄取公众想象力的同等能力。它们没把人类传播到太空中去,我得争辩说这才是我们的长期战略。在2050年前建立月球基地,以及在2070年前达到载人登陆火星的目标,将重新启动太空计划,并带来一种目的感,就像在20世纪60年代肯尼迪总统的月球计划一样。在2017年底,埃隆•马斯克宣布SpaceX计划在2022年前建造一个月球基地并完成火星任务,而特朗普总统签署了太空政策指令让NASA重新集中进行探索和发现,所以我们也许会更早实现目标。 

 霍金逝世一周年:关于人类和宇宙,他离开前留下了这些最后答案

       美国东部时间3月8日8时45分左右,Space X载人“龙”飞船的返回舱顺利落在距佛罗里达东海岸约321千米的卡纳维拉尔角海域。图为当日8时41分,返回舱降落伞打开。 图片来源于NASA。

       我们正站在新时代的门槛上。人类到其他行星上殖民不再是科学幻想。这会变成科学事实。人类作为一个单独的物种存在了大约200万年。文明始于大约1万年前,并且发展速度一直在稳步增长。如果人类要再继续下去100万年,我们的未来就要大胆前进到之前无人去过的地方。 

       我希望是好的。我不得不如此。我们别无选择。

我担心的是,

AI会自己起飞并不断加速重新设计自己

       问:人工智能会不会超过我们?

       史蒂芬•霍金:智力是人之为人的核心。文明所提供的一切都是人类智慧的产物。 

       DNA传递代际的生命蓝图。愈加复杂的生命形式从眼睛和耳朵等传感器输入信息,在大脑或其他系统中处理信息,决定如何行动,然后向譬如肌肉等输出信息以作用于外界。在我们138亿年的宇宙历史中的某个时刻,发生了一件美妙的事。这种信息处理变得如此聪明,以使生命获得意识。我们的宇宙现在已经醒来,意识到自己。微末如星尘的我们,居然对我们生活于其中的宇宙有了如此详细的了解,我认为这是一个胜利。 

       我认为蚯蚓的大脑运作与电脑计算之间没有显著差异。我还相信进化意味着,在蚯蚓和人类的大脑之间不存在质的差异。因此,电脑原则上可以模仿人类智慧,甚至更好。某些东西获得比其祖先更高智力显然是可能的:我们演化得比我们的猿类祖先更聪明,而爱因斯坦比他的父母聪明。 

       如果电脑继续遵守摩尔定律,它们的速度和记忆容量每18个月加倍,结果是在接下来的100年的某个时刻电脑很可能在智力上超过人类。当人工智能在AI设计中变得比人类做得更好,这样它可以在无人帮助的情况下以递归的方式改善自己,我们就可能会面临智力爆炸,最终导致机器在智力上超过我们更甚于我们超过蜗牛。当那种情形发生时,我们需要确保计算机的目标与我们的目标相互一致。人们也许会轻率地将高智能机器的概念斥为只不过是科学幻想,但这可能是一个错误,还可能是我们最糟糕的错误。 

       当今一个广泛共识是,人工智能研究正在稳步发展,其对社会的影响可能会增加。潜在的好处是巨大的,我们无法预测当AI可能提供的工具放大这种智能时,我们会获得什么。彻底消除疾病和贫困是可能的。由于AI的巨大潜力,重要的是研究如何在避免潜在陷阱的同时获得收益。创建AI的成功将是人类历史上的最大事件。 

       不幸的是,它可能也是最后一个,除非我们学会如何规避风险。将AI用作工具包可以增强我们现有的智能,在科学和社会的每个领域开拓进步。但是,它也会带来危险。到目前为止开发的原始形式的人工智能被证明非常有用,我却害怕创造出匹配或超越人类的某种东西的后果。我担心的是,AI会自己起飞并不断加速重新设计自己。人类受到缓慢的生物进化的限制,无法竞争,将会被超越。在未来,AI可以发展自身的意志,那是一种与我们相冲突的意志。其他人相信人类可以在相当长的一段时间控制技术的速度,让AI实现解决许多世界问题的潜力。对此,我还不是这么确定,虽然众所周知,关于人类,我是一个乐观主义者。 

       例如,在短期内,世界军事力量正在考虑开始自动武器系统的军备竞赛,该系统可以选择和消除他们自己的目标。虽然联合国正在辩论将禁止这种武器的条约,自动武器支持者通常忘了问最重要的问题。军备竞赛的可能终点是什么,那是人类想要的吗?我们真的希望廉价的人工智能武器成为明天的卡拉什尼科夫冲锋枪,卖给黑市上的罪犯和恐怖分子吗?考虑到我们对越发先进的人工智能系统实行长期控制的能力,我们是否应该武装它们并将我们的防御交给它们?2010年,电脑化的交易系统创造了股票市场的闪电崩盘;电脑触发的防御领域崩溃会是什么样子?现在是停止自动武器军备竞赛的最佳时机。 

 霍金逝世一周年:关于人类和宇宙,他离开前留下了这些最后答案

1956年的达特茅斯会议(Dartmouth Conference)常常被公认为人工智能的起源。2006年,会议五十年后,当事人重聚达特茅斯。

       从中期来看,人工智能可以使我们的工作自动化,带来巨大繁荣和平等。更长远地看,我们对于可以实现的事情没有根本的限制。没有任何物理定律可以排除比以人脑中的粒子排列更高级的计算方式组织粒子的方法。爆炸式过渡是可能的,但它的结局可能与电影不同。正如数学家欧文•约翰•古德在1965年意识到的那样,在科幻作家维纳尔•维格称之为技术奇点之处,具有超人智慧的机器甚至可以进一步重复改进他们的设计。人们可以想象这样的技术胜过金融市场,发明超过人类研究人员,操纵超过人类领导者,并甚至可能用我们无法理解的武器制服我们。而AI短期对我们的影响取决于谁控制它,长期影响取决于它究竟是否可能被控制。 

       总之,对于人类,超级智能的问世是有史以来要么最好要么最坏的事。人工智能的真正风险不是恶意,而是能力。一个超级聪明的AI会非常擅长实现目标,如果这些目标和我们的不一致,我们就遇到了麻烦。你可能不是蚂蚁邪恶的仇敌,会去恶意踩踏它们,但如果你负责水力发电的绿色能源项目,而在该地区有一个蚁丘要被淹掉,对于蚂蚁那就太糟糕了。不要将人类置于那些蚂蚁的境地。我们应该提前计划。如果一个先进的外星人文明给我们发短信说,“我们几十年后到达”,我们会不会就回复“行,当你到了这里给我们打电话,我们会开灯欢迎”呢?大概不会,但这或多或少正是我们在对付AI时所做的。除了一些小的非营利性机构之外,很少有人致力于这些严肃的研究。 

       当我们发明火时,我们反复被火搞砸了一些事情,然后发明了灭火器。鉴于拥有更强大的技术譬如核武器、合成生物学和强人工智能,我们应该改为预先计划未来,并希望第一次就把事情弄妥,因为这可能是我们仅有的机会。我们的未来是一个技术日益增长的力量和使用它的智慧之间的竞争。让我们确保智慧胜利。

 霍金逝世一周年:关于人类和宇宙,他离开前留下了这些最后答案

《十问:霍金沉思录》

作者:(英)史蒂芬•霍金

译者:吴忠超

版本:湖南科学技术出版社 2019年3月