【霍金预言】霍金:AI的出现可能给人类带来灭顶之灾
来源:智能 发布时间:2018-11-15 点击:
【www.joewu.cn--智能】
金融屋财经网(www.joewu.cn)10月22日讯
英国著名物理学家霍金(Stephen Hawking)再次就人工智能(AI)发声,他认为:“对于人类来说,强大AI的出现可能是最美妙的事,也可能是最糟糕的事,我们真的不知道结局会怎样。”
英国当地时间10月19日,剑桥大学“莱弗休姆的未来智能中心(LCFI)”正是投入使用。霍金在庆祝典礼上发表了演讲。LCFI的一项重要使命是要化解AI风险,破解AI难题。
“我们花了大量的时间来学习历史。”霍金说,“让我们面对现实,大部分的历史是愚蠢的。所以对于那些学习未来智能的人应该表示欢迎。”
目前,人工智能在全球领域得到了各国政府的重视。但霍金一直对外称应该对AI持谨慎态度,提高警惕,因为人类有可能会因为自己建立的智能而灭亡。
霍金在演讲中批评了人工智能的无节制发展,他认为,人工智能技术的确有希望带来巨大的福利,比如根除疾病和贫困,但是它同样也可能带来危险,比如强大的自主式武器,或者帮助少数人压迫多数人。
“我们生活的每一个方面都会改变。总之,创造AI的成功可能是我们文明历史上最大的事件。”霍金说。
剑桥LCFI中心的学术总监Huw Price在接受《卫报》采访时称,中心的研究重点非常集中。“我们一直在尝试组织出现终结者这样的基因,但就像它的名字一样,它会不断的来来回回。”
其实,这并不是霍金第一次就人工智能发出警告。在今年6月份,霍金在《拉里·金现场秀》视频访谈节目中,谈到了他对人类未来的担忧。
他说:“我不认为人工智能的进步一定会是良性的。一旦机器到达能够自我进化的临界阶段,我们就无法预测它们的目标是否会与我们的一致。人工智能有可能比人类进化得快。我们需要确保人工智能的设计符合伦理,要有切实的安全措施。”
这位物理学家一直对人工智能的风险安全问题直言不讳。更早前,他在接受英国广播公司采访也延续了一贯的理念:“全人工智能的出现可能给人类带来灭顶之灾。”
除了霍金外,人工智能领域里的许多先驱都提出了人工智能的风险问题。硅谷“钢铁侠”马斯克也表达了对人工智能的担忧。他曾与霍金一起,建立了人工智能防范联盟。
推荐文章
- 【南山铝业股票】南山铝业:并购完善铝产业链,深耕铝加工行业
- [药品终端网]从终端场景到人才战略 乐视金融已握有一手好牌
- 2017年鸡年纪念币价格_2017鸡年纪念币发行数量规格汇总
- 【瑞声科技股票 老虎证券】老虎证券股票学院:美国大选与美股投资的爱恨情仇
- [北京城建股票]北京城建:未来业绩可期待 强烈推荐评级
- 【通润装备股吧】通润装备:股票期权促跨越式发展
- 住房公积金贷款新政策2019_广州2016住房公积金贷款新政策
- 【002197证通电子股吧】证通电子(002197):10月26日大宗交易数据一览
- 风口行业_风口之上的轻松筹,如何发展至今
- 精华制药股票|精华制药三季报延续高增长 中药制剂持续向好