当前位置:中研头条> 科技

霍金的遗愿清单:警惕人工智能、加紧离开地球 霍金都曾有过哪些预言?

2018/3/15 11:47:43     来源:澎湃新闻,新华网      编辑:liufeng
据英国《卫报》等多家媒体报道,英国著名理论物理学家史蒂芬·威廉·霍金于当地时间14日凌晨去世,享年76岁。

轮椅上的斯蒂芬·霍金终于离开了地球,可以和爱因斯坦、牛顿他们一起打打牌了。

霍金的子女在14日凌晨发布的一份声明中说:“我们非常伤心,我们敬爱的父亲今天去世了。”声明还说,“他是一位伟大的科学家,一位杰出的人,他的工作和遗产将继续流传于世”。

霍金以黑洞研究和量子宇宙论等享誉科学界,被誉为继爱因斯坦之后最杰出的理论物理学家。在2013年发布的纪录片《霍金》中,他说:“每一天都可能是我的最后一天,我渴望每一分钟都不被虚度。”

霍金的遗愿清单,霍金都曾有过哪些预言,霍金预言,霍金遗愿

美国计算机科学家安德鲁·恩称,霍金对待生活的态度应当被人们学习。他引用霍金的一句话说:“我不畏惧死亡,但我也不急于死亡,还有很多事情我要去做。”

天体物理学家尼尔·德格拉塞·泰森表示,霍金的死留下了一片“科学的真空”。但泰森在自己的推特上也写到,“这个真空并不是空无一物。你可以把它想象成一种真空能量,它弥漫在时空的每一个角落,无边无际。”

霍金的女儿露西·霍金在谈到自己的父亲时表示,虽然人们常常会对父亲有些敬畏,但其实“你可以问他任何问题”。在女儿的眼中,霍金身上所表现出来的毅力和坚持,以及他的幽默风趣,始终在激励着人们。

霍金曾先后三次到访中国。1985年,霍金到中国科学技术大学和北京师范大学访问,并在中国科学技术大学做了天体物理的学术报告。

2002年,霍金在北京、杭州作主题为《膜的新奇世界》(Brane New World)科普报告,向公众阐释他的关于天体演化的“M理论”。

2006年6月,霍金在香港科技大学体育馆主持一个题为“宇宙的起源”的演讲时,轰动一时。当月19日,霍金在人民大会堂向北京公众讲述《宇宙的起源》。

霍金在中国十分受欢迎,他在2016年开通微博与中国粉丝互动,目前微博有超过400万个粉丝,不少人在他的微博留下悼念字句。

霍金21岁时患上肌肉萎缩性侧索硬化症(卢伽雷氏症),全身瘫痪,不能言语,手部只有三根手指可以活动。医生断言他只能活两到三年。然而霍金并没有被病魔打倒,他不仅继续了他的科学事业,而且还结婚并成为了三个孩子的父亲。

在过去的二十年里,霍金是明星,除了继续探索宇宙理论,他也出现在各种场合,为所有关切人类命运的主题发声。而在他去世前的这几年中,霍金最关注的话题就是:离开地球和警惕人工智能。

现在我们就梳理下霍金通过各种渠道谈论这两个话题的言论。

关于离开地球,早在2011年霍金在接受美国视频共享网站BigThink访谈时就称地球将在两百年内毁灭,人类要想活命只能移民外星球。

2017年11月5日,北京腾讯WE大会的现场。霍金通过视频指出了人类移民太空的原因所在:一个原因是,对我们来说,地球变得太小了。在过去二百年中,人口增长率是指数级的,即每年人口以相同比例增长。目前这一数值约为1.9%。 这听起来可能不是很多,但它意味着,每四十年世界人口就会翻一番。 2022年,我将庆祝自己80岁的生日,而在我人生的这段历程中,世界人口比我出生时膨胀了四倍。这样的指数增长不能持续到下个千年。 到2600年,世界将拥挤得“摩肩擦踵”,电力消耗将让地球变成“炽热”的火球。这是岌岌可危的。然而我是个乐观主义者,我相信我们可以避免这样的世界末日,而最好的方法就是移民到太空,探索人类在其他星球上生活的可能。

而在2017年7月,霍金就痛批美国总统特朗普退出气候问题《巴黎协定》的决定,可能将导致不可逆转的气候变化,警告称此举或将让地球变成一个金星一样的温室星球。霍金在接受BBC专访时表示,我们正在接近全球变暖不可逆转的临界点,特朗普的决定可能将地球推过这个临界点,变成像金星一样的星球,温度高达250度,并且下着硫酸雨。

也是在2017年6月播放的纪录片《远征新地球》(Expedition New Earth)中,霍金说,在未来一百年内,人类为生存必须离开地球,在太空寻求新家。

离开地球,霍金也不是光嘴皮子吓唬吓唬大家,2016年4月12日在纽约宣布启动“突破射星”计划,将同俄罗斯商人尤里·米尔纳(Yuri Milner),以及美国社交网站面簿创始人兼总裁扎克伯格(Mark Zuckerberg)合作建造能以五分之一光速飞往比邻星的微型星际飞船。

除了地球即将面临的各种风险,霍金更关切人类正在创造一个毁灭自己的怪物:人工智能(AI)。

2017年3月,霍金在接受英国《泰晤士报》采访时再次发出警告,“人类需要控制以人工智能为代表的新兴科技,以防止它们在未来可能对人类生存带来的毁灭性威胁。”他还说,“自从人类文明开始以来,侵略便一直存在,往往出现在相对具有生存能力优势的不同群体之间,而未来人工智能进一步发展便可能具备这种‘优势’”,霍金解释自己的警告时说道,“他们本身也是生根于达尔文的进化论之中。因此人类需要利用逻辑和理性去控制未来可能发生的威胁。”

2016年10月19日,剑桥大学“莱弗休姆的未来智能中心(LCFI)”正式投入使用。霍金在庆祝典礼上发表了演讲。霍金在演讲中批评了人工智能的无节制发展,他认为,人工智能技术的确有希望带来巨大的福利,比如根除疾病和贫困,但是它同样也可能带来危险,比如强大的自主式武器,或者帮助少数人压迫多数人。“我们花了大量的时间来学习历史。”霍金说,“让我们面对现实,大部分的历史是愚蠢的。所以对于那些学习未来智能的人应该表示欢迎。” “我们生活的每一个方面都会改变。总之,创造AI的成功可能是我们文明历史上最大的事件。”霍金说。

2016年1月26日和2月2日在BBC电台第四频道播出霍金瑞思系列演讲(Reith Lectures),在演讲中他直言,科学技术的进一步发展会惹出更多的新麻烦。同样在这个演讲中,霍金依旧认为科技进步是人类的新威胁。他甚至提及若人类最终得以在其他星球建立家园,或许还能幸存下来。

“尽管地球在某一年遭受灭顶之灾的可能性很低,但随着时间的推移,在未来几千或几万年,这会是可以预见的事情。那时,我们应该已经进入太空、住到其他星球上。所以地球上的毁灭并不意味着人类的终结。”“然而,至少在未来数百年里我们还无法在太空世界建起人类的地盘。所以我们现在必须非常小心。”

2015年,霍金曾联合思想家乔姆斯基马斯克等数千名知识分子发表联名公开信中警告:必须取缔“机器人杀手”的研发和应用,人工智能方面的军备竞赛可能是人类的灾难,它将助长战争和恐怖主义,加剧世界动荡局势。

这封公开信由未来生活研究所(Future of Life Institute)发起,这个团体致力于缓解“人类面临的生存风险”,警告人们启动“人工智能军备竞赛”的危险。公开信中谈到“人工智能技术已经达到了这样一个地步:如果没有法律限制,那么这种系统的部署在未来几年中就可以实现,并不需要等待几十年。”

而早在2014年12月,霍金接受英国广播公司(BBC)采访时就明确表示:“制造能够思考的机器无疑是对人类自身存在的巨大威胁。当人工智能发展完全,就将是人类的末日。”

霍金也许对人类和科技的未来是悲观的,他并不信任人类真的能控制科技这个怪物,但令人讽刺的是,一旦人类用科技毁掉了这个星球,他所能仰赖的也只有科技能帮这个种族在外星球继续繁衍。

宇宙起源

2006年霍金曾表示,爱因斯坦的广义相对论无法解释宇宙如何由大爆炸形成,如果把广义相对论和量子论相结合,就有可能解释宇宙是如何起始的,“这是回答我们为何在此,我们从何而来的宇宙学核心问题”。

他和物理学家罗杰·彭罗斯一起证明了奇点定理,认为宇宙起源于一个时间和空间消失、物质密度无限大的奇点。

在霍金想象中,宇宙起源有点像沸腾水中的“泡泡”。他认为,宇宙的开端,可能出现了许多“小泡泡”,然后再消失。“泡泡”膨胀的同时,会伴随着微观尺度的坍缩。一些坍缩的“泡泡”,由于不能维持足够长的时间,来不及发展出星系和恒星,更不用说智慧生命了。但一些“小泡泡”膨胀到一定尺度,就可以安全地逃离坍缩,继续以不断增大的速率膨胀,形成了我们今天看到的宇宙。

“我们已经观察到,宇宙的膨胀在长期变缓后再次加速,现有理论仍不能很好地解释这个现象。宇宙学是一个非常激动人心的学科。我们正接近回答古老的问题:我们为何在此?我们从何而来?”他说。

黑洞理论

1974年,霍金提出了着名的“霍金辐射”学说,该学说是霍金对天体物理学作出的最大贡献之一。

霍金在该学说中指出,黑洞在特定条件下会放射出一种微小的放射物,最后所有的黑洞将随着时间的推移慢慢地蒸发掉。但是根据量子力学所描述的微观粒子的运动规律,黑洞及被其“吞噬”掉的物质是不会简单消失的。

30多年来,霍金试图以各种推测来解释这些相矛盾的观点。他还曾提出,黑洞中有关量子力学的规律是不同的。但是他的这一观点遭到了他的同事和其他国家科学家的质疑。

霍金在经过长时间的研究后在2004年柏林的一次会上提出,一些被黑洞吞没的物质随着时间的推移,慢慢地从黑洞中“流淌”出来。也就是说,黑洞既“破坏”也“建设”。

人类未来

霍金2008年曾在美国乔治·华盛顿大学大胆预言,假如人类的历程再走100万年,“人类的足迹必将进入那些从未涉足过的宇宙空间”。他说,新世界的发现对旧世界产生了深远影响,“否则我们就不会见到现在满世界的麦当劳和肯德基了”。

霍金说,人类向外太空扩展将带来比发现新大陆的“地理大发现”更巨大的影响,彻底改变人类未来。他认为,人类将在30年内在月球上建立基地,以开展长期的宇宙探索活动;在200年至500年内,人类将发明新的推进系统,让在太阳系外的宇宙空间开展载人探索变得可能。

“请(对宇宙)充满好奇,”他说,“我们必须为了人类继续走向太空。如果不逃离我们脆弱的星球,我们将无法再生存1000年。”

霍金说自己时常在想一个问题:“我们人类(在宇宙中)是孤单的吗?”“答案很可能是‘不’。”

这位身体无力却思想飞扬的科学家说,如果外星生命有足够智慧,以至于能向太空中发送信号,那么他们肯定也聪明到了可以制造破坏性核武器的地步了。他本人倾向于这样一种假设——宇宙间的原始生命是非常普遍的,但是智能生命却相当罕见。

人工智能

霍金坦承人工智能的初步发展已证明了其有用性,但他担心这类技术最终会发展出与人类智慧相当甚至超越人类的机器。“到时它(机器)将可能以不断加快的速度重新设计自己,而人类则受制于生物进化速度,无法与其竞争,最终被超越。”

2014年,霍金曾与另外几位科学家为英国《独立报》撰文,称人们目前对待人工智能的潜在威胁“不够认真”。“短期来看,人工智能产生何种影响取决于谁在控制它。而长期来看,这种影响将取决于我们还能否控制它。”如何趋利避害是所有人需要考虑的问题。

不过也有科学家认为,霍金对人工智能的未来过于悲观。他们指出,至少在相当长的时间里,人类会完全掌控这类技术的发展,利用它来解决许多现实问题,而要让人工智能技术得到“充分发展”,还有很长的路要走。

让我们别忘记霍金的预言和警告。

  • 中研网
    发现资讯的价值
  • 中研研究院
    掌握产业最新情报

中研网是中国领先的综合经济门户,聚焦产业、科技、创新等研究领域,致力于为中高端人士提供最具权威性的产业资讯。每天对全球产业经济新闻进行及时追踪报道,并对热点行业专题探讨及深入评析。以独到的专业视角,全力打造中国权威的经济研究、决策支持平台!

广告、内容合作请点这里:

寻求报道 ››

【版权及免责声明】凡注明"转载来源"的作品,均转载自其它媒体,转载目的在于传递更多的信息,并不代表本网赞同其观点和对其真实性负责。中研网倡导尊重与保护知识产权,如发现本站文章存在内容、版权或其它问题,
烦请联系:jsb@chinairn.com、0755-23619058,我们将及时沟通与处理。

行业研究院

更多>>

2018-2023年中国医生集团行业投资策略分析及前景预测报告

第一章 医生集团行业发展概述 第一节 行业定义及

2018-2023年中国血球计数仪行业投资策略分析及前景预测报告

第一章 国际医疗器械行业发展概况分析 第一节 国际

2018-2023年中国杉木行业市场形势分析及投资风险研究报告

第一章 杉木行业概述 第一节 杉木行业定义 第二节