设为首页 | 加入收藏 | 今天是2024年11月15日 星期五

聚合智慧 | 升华财富
产业智库服务平台

七禾网首页 >> 产业&金融精选

霍金:人工智能的威胁就像核武器 世界将发生10大变化!

最新高手视频! 七禾网 时间:2017-11-14 09:12:53 来源:七禾网

来源:本文内容参考字霍金的讲话和采访


著名科学家霍金,被誉为“宇宙之王”,他认为:人类迄今为止最为深刻的影响就是人工智能的崛起,对于人工智能,他有以下十点深刻的思考:


1

在我的一生中,我见证了很多社会深刻的变化。其中最深刻,同时也是对人类影响与日俱增的变化就是人工智能的崛起。

人工智能可能是人类文明史上最伟大的事件,它要么是人类历史上最好的事,要么是最糟的。如果我们不能学会如何避免风险,那么我们会把自己置于绝境。

如果有人设计计算机病毒,那么就有人设计不断自我完善、直到最终超越人类的人工智能,其结果将是一种新的生命形式。

人工智能的真正风险不是它的恶意,而是它的能力。一个超智能的人工智能在完成目标方面非常出色,如果这些目标与我们的目标不一致,我们就会陷入困境。”


2

人工智能对人类的影响,可以从短期、长期两方面来分别讨论。

短期担忧——智能自主武器、隐私

人工智能的全方位发展可能招致人类的灭亡。比如最大化使用智能性自主武器。

目前,世界上九个核大国可以控制大约一万四千个核武器,它们中的任何一个国家都可以将城市夷为平地,放射性废物会大面积污染农田,最可怕的危害是诱发核冬天,火和烟雾会导致全球的小冰河期。

这一结果使全球粮食体系崩塌,末日般动荡,很可能导致大部分人死亡。我们作为科学家,对核武器承担着特殊的责任。正是科学家发明了核武器,并发现它们的影响比最初预想的更加可怕。

除此之外就是隐私的担忧。由于人工智能逐渐开始解读大量监控数据,这些都会被机器人洞察的一览无余。


3

长期担忧——人工智能系统失控的潜在风险

人工智能遵循的一个逻辑是,“计算机在理论上可以模仿人类智能,然后超越”。这一天很快会到来。

未来,人工智能可以发展出自我意志,一个与我们冲突的意志。

我们无法知道我们将无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭。但事实就是:聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。

人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。这将给我们的经济带来极大的破坏。


4

在过去二百年中,人口增长率是指数级的,目前这一数值约为1.9%。 这听起来可能不是很多,但它意味着,每四十年世界人口就会翻一番。 2022年,我将庆祝自己80岁的生日,而在我人生的这段历程中,世界人口比我出生时膨胀了四倍。

这样的指数增长不能持续到下个千年。到2600年,世界将拥挤得 “摩肩擦踵”,电力消耗将让地球变成“炽热”的火球。这是岌岌可危的。

我相信我们可以避免这样的世界末日,而最好的方法就是移民到太空,探索人类在其他星球上生活的可能。

人类作为独立的物种,已经存在了大约二百万年。我们的文明始于约一万年前,其发展一直在稳步加速。如果人类想要延续下一个一百万年,我们就必须大胆前行,涉足无前人所及之处!


5

在某种程度上,今天的情况就如同1492年前的欧洲。当时的人们很可能坚信,哥伦布的探险注定是徒劳无功。 然而,新世界的发现,对旧世界带来了深远的影响。对于那些被剥夺权利地位、走投无路的人来说,新世界成为了他们的乌托邦。

人类向太空的拓展,甚至将会产生更深远的影响,这将彻底改变人类的未来,甚至会决定我们是否还有未来。它不会解决地球上任何迫在眉睫的问题,但它将提供解决这些问题的全新视角,让我们着眼于更广的空间,而不是拘泥眼下。


6

当我们进入太空时,会有怎样的发现呢?

会找到外星生命,还是发现我们终将在宇宙中踽踽独行?我们相信,生命在地球上是自然而生的,是在漫长的进化后,实现了与地球资源的高度契合。因此,在其他条件适宜的星球上,生命的存在也必定是可能的。

去年,我们推出了长期研发计划——“突破摄星”,目标是让星际旅行变成现实。“突破摄星”是人类初步迈向外太空的真正机会,为了探索和考量移居太空的可能性。

这项创新背后的想法,是以光束来驱动纳米飞行器的前进。这样产生的速度虽然不及光速,但也能达到其五分之一,约合每小时1亿英里。这样的系统可以在一小时内抵达火星,几天内到达冥王星,一周内就可以追上并超过旅行者号探测器,并在仅二十年后到达半人马座阿尔法星系。


7

人工智能的成功有可能是人类文明史上最大的事件。但人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。

我相信我们团结在一起,来呼吁国际条约的支持或者签署呈交给各国政府的公开信,科技领袖和科学家正极尽所能避免不可控的人工智能的崛起。所以,监管和立法在AI的发展过程中十分重要。


8

通过达尔文式的演化过程,侵略性深深根植于我们的基因之中。然而,如今的技术发展已经加快到了某种程度,使这种侵略性可能会以核战争或生物战争的形式毁灭人类。我们需要用逻辑和理性来控制这种与生俱来的本能。

你可能并不是一个讨厌蚂蚁的人,但也会无意中踩死蚂蚁,而如果你负责一个水力发电的绿色能源项目,项目所在的区域内也可能会有许多蚂蚁巢穴被水淹没,对蚂蚁来说就非常不幸。我们要避免人类处于这些蚂蚁的境地。


9

人类面临的最大威胁是我们自身的弱点,即贪婪和愚蠢。这些人性的基本属性,将使在人工智能时代的境况将变的更加糟糕,因为当机器被设定程序后就知道适可而止,知道就流勇退,但是人类很难,除非是那些极高修为的人,才能突破人性的弱点,但是机器人可以轻而易举的回避这些弱点。


10

我们还应该扮演一个角色,确保下一代不仅仅有机会还要有决心,在早期阶段充分参与科学研究,以便他们继续发挥潜力,帮助人类创造一个更加美好的的世界。


责任编辑:翁建平

【免责声明】本文仅代表作者本人观点,与本网站无关。本网站对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。

本网站凡是注明“来源:七禾网”的文章均为七禾网 www.7hcn.com版权所有,相关网站或媒体若要转载须经七禾网同意0571-88212938,并注明出处。若本网站相关内容涉及到其他媒体或公司的版权,请联系0571-88212938,我们将及时调整或删除。

联系我们

七禾研究中心负责人:刘健伟/翁建平
电话:0571-88212938
Email:57124514@qq.com

七禾科技中心负责人:李贺/相升澳
电话:15068166275
Email:1573338006@qq.com

七禾产业中心负责人:果圆/王婷
电话:18258198313

七禾研究员:唐正璐/李烨
电话:0571-88212938
Email:7hcn@163.com

七禾财富管理中心
电话:13732204374(微信同号)
电话:18657157586(微信同号)

七禾网

沈良宏观

七禾调研

价值投资君

七禾网APP安卓&鸿蒙

七禾网APP苹果

七禾网投顾平台

傅海棠自媒体

沈良自媒体

© 七禾网 浙ICP备09012462号-1 浙公网安备 33010802010119号 增值电信业务经营许可证[浙B2-20110481] 广播电视节目制作经营许可证[浙字第05637号]

认证联盟

技术支持 本网法律顾问 曲峰律师 余枫梧律师 广告合作 关于我们 郑重声明 业务公告

中期协“期媒投教联盟”成员 、 中期协“金融科技委员会”委员单位