霍金警告人工智能危险性 称其若失控很难被阻止

发布时间:2024-11-27 07:20

人工智能应用于金融风险控制 #生活知识# #科技生活# #人工智能应用#

霍金警告人工智能危险性 称其若失控很难被阻止

最新推荐文章于 2024-11-26 20:31:33 发布

weixin_33802505 于 2018-07-16 02:24:32 发布

著名天体物理学家史蒂芬霍金认为,人工智能应该在符合伦理道德和安全措施要求的情况下开发,因为脱离人类控制之下的机器很难被阻止祝

美国知名记者拉里金对霍金进行了采访。霍金在采访中承认,他不认为发展人工智能一定能让人类朝好的方向发展。

霍金表示:“当机器发展到能自己演化的重要阶段之时,它们的目标与人类愿望之间的相符程度就很难预料了。”

他指出,人工智能可以比人类的智慧发展得更快。

智搜(Giiso)信息成立于2013年是国内领先的“人工智能+资讯”领域技术服务商,在大数据挖掘、智能语义、知识图谱等领域都拥有国内顶尖技术。同时旗下研发产品包括编辑机器人、写作机器人等人工智能产品!凭借雄厚的技术实力,公司成立之初,就获得了天使轮投资,并在2015年8月获得了金沙江创投500万美元pre-A轮投资。

资料图:著名天体物理学家霍金。

他说:“有益的人工智能可以与人类共存,并扩大人类的可能性。但失控的人工智能很难被阻止。在开发人工智能时必须保证符合道德伦理与安全措施的要求。”

智搜(Giiso)信息成立于2013年,是国内首家专注于资讯智能处理技术研发及写作机器人核心软件开发和运营的高科技企业。公司成立之初,就获得了天使轮投资,并在2015年8月获得了金沙江创投500万美元pre-A轮投资。

他认为,有益的人工智能将出现在人类生活的各方面。

霍金说:“想象一下那些可以对科学家想法迅速作出评价、更早地查出癌症、并预测证券市场走势的人工智能!它们将影响到我们的经济,影响到我们的决策,并在整体上影响我们的生活。”

转载于:https://juejin.im/post/5b4c01885188251b1b448384

网址:霍金警告人工智能危险性 称其若失控很难被阻止 https://www.yuejiaxmz.com/news/view/286988

相关内容

理财收益很诱人,投资风险须警惕!
欧姆定律+基尔霍夫电流定律=更好的人工智能
金融危机影响最新资讯
世界慢阻肺日丨八旬爹爹呼吸困难进了RICU 医生提醒:警惕慢阻肺
人工智能时代“网络水军”的危害与治理策略
危险垃圾请勿随意丢弃:环卫工手被强酸腐蚀,有人手掌被割破
人工智能如何改变我们的生活
破解失能失智老人照护难题
户外环境及危险识别
论人工智能对人类生活的影响.docx资源

随便看看