【点击图片进入下一页或下一篇】
1.人工智能霍金一直以来都对人工智能(AI)相当担忧,甚至认为AI是「人类历史上最严重的错误」。他认为人工智能的潜力无限,完全有可能超越人类的智慧水平,摆脱人类的控制。霍金曾直言不讳地说「AI的全面发展将导致人类的终结!」霍金的这个观点不无道理,获得了很多精英人士的支持,其中「现实版钢铁侠」埃隆·马斯克就曾声援称「AI是人类生存最大的威胁!」霍金对AI的威胁最到位的一句评价是——「人工智能的短期影响取决于谁控制了它,而长期影响则取决于它到底能不能被控制。」
- 看不过瘾?点击下面链接! 【本站微信公众号:gsjx365,天天有好故事感动你!】