人类会如何灭亡?霍金的这三种警告引人深思

时间:2016-05-16 10:13:47 

【点击图片进入下一页或下一篇】

 1.人工智能

霍金一直以来都对人工智能(AI)相当担忧,甚至认为AI是「人类历史上最严重的错误」。他认为人工智能的潜力无限,完全有可能超越人类的智慧水平,摆脱人类的控制。霍金曾直言不讳地说「AI的全面发展将导致人类的终结!」霍金的这个观点不无道理,获得了很多精英人士的支持,其中「现实版钢铁侠」埃隆·马斯克就曾声援称「AI是人类生存最大的威胁!」霍金对AI的威胁最到位的一句评价是——「人工智能的短期影响取决于谁控制了它,而长期影响则取决于它到底能不能被控制。」

看不过瘾?点击下面链接!
本站微信公众号:gsjx365,天天有好故事感动你!

上一页1234下一页

相关猎奇

美图欣赏

猎奇排行榜