您的位置:首页 >要闻 >

斯蒂芬·霍金 (Stephen Hawking) 将人工智能视为对人类的威胁

屡获殊荣的物理学家斯蒂芬·霍金 (Stephen Hawking) 教授于周三去世,他一直警告不要人工智能 (AI) 及其对人类日益增长的统治地位。他在2017年11月中告诉wired.com: “地球变得太小了,人类必然会自我毁灭,人工智能取代了我们,成为地球上的主导。”

“我担心人工智能可能会完全取代人类。如果人们设计计算机病毒,就会有人设计出自我改进和复制的AI。这将是一种超越人类的新生命形式,“霍金说。这位理论物理学家过去一直在说,人工智能的发展是如此之大,以至于有一天机器会比人类更占主导地位。

他指出,一项新的太空计划应该是人类的首要任务,“以期最终殖民适合人类居住的行星”。“我相信我们已经到了不归路的地步。我们的地球对我们来说变得太小了,全球人口以惊人的速度增长,我们正处于自我毁灭的危险中,“霍金警告说。2016年,在剑桥大学人工智能中心的开幕式上,霍金教授说,人工智能可能是人类有史以来最好或最糟糕的发明。

3月早些时候,这位著名的英国物理学家说,大爆炸之前什么都没有。霍金在国家地理频道的电视脱口秀节目 “明星谈话” 中发表讲话时,就宇宙出现之前发生的事情提出了自己的理论。霍金的理论基于宇宙没有边界的假设。在演出期间,霍金争辩说,在大爆炸之前,真正的普通时间被想象的时间所取代,并且呈弯曲的形式。

“它总是接近什么都没有,但并没有变成什么都没有,” 他说。此外,霍金将扭曲的时间与古希腊哲学家欧几里得的时空理论进行了类比,这是一个没有尽头的封闭表面。以地球为例,他说: “人们可以从南极开始想象和实时。南极以南什么都没有,所以在大爆炸之前周围什么都没有。“

“从来没有一场大爆炸从无到有。从人类的角度来看,这似乎是这样的,“霍金说,暗示我们认为的很多东西都源于以人为中心的观点,这可能会限制人类对世界的知识范围。

相关推荐

猜你喜欢

特别关注