侵权投诉

搜索
更多>> 热门搜索:
当前位置:

OFweek工控网

机器人

正文

人工智能机器人:世界的又一次“技术大爆炸”

导读: 当这件事最终发生时,那或许将成为人类历史上发生过的最好或是最坏的事,因此把这个问题弄清楚将具有极大的价值。我们或许将花上几十年的时间才能找出问题的答案,那么就让我们从今天开始启动这项研究,而不是拖到超级机器人即将被启动的前一天晚上。

  尽管网民们早在7月份就已经向这位科学家提出了这个问题,但霍金直到最近才对此进行了回复。在这次活动中网民们提出的问题五花八门,从人工智能一直到他个人最喜欢的歌曲曲目。

  有网民向霍金教授提问:您觉得什么是生活中最大的谜?霍金回复道:“女人。我的私人助理提醒我,尽管我拥有物理学博士学位,但应该让女人继续保持她们的神秘。”

  在回复提问时,霍金也再次重申了他此前所一直坚持的观点,那就是人工智能技术未来必将对人类构成威胁。但他也强调表示这其中最大的危险将不会是机器人们将有计划的摧毁人类,而是源自它们抛开人类自主决策的能力。

  霍金认为,机器人不太可能对人类产生敌对意图,但最终将对人类利益造成损害的将会是它们开始追求自身设定的目标的行为。霍金表示:“真正的风险不在于敌意,而在于能力。超级人工智能机器人将极善于达成自己所设定的目标,而如果它所设定的目标与我们的目标并不相互吻合,那么我们就有麻烦了。举个例子,你有时候踩死一些蚂蚁,但这并非出于你对蚂蚁们的主观恶意,但如果你恰好准备在某个地区修建一个水电

  站,而那片地区正好有一个蚁穴——对于蚂蚁们来说,这可真是个坏消息。”他说:“不要把我们人类自己放到那些蚂蚁的位置上去。”

  霍金教授目前担任英国剑桥大学应用数学与理论物理系研究主管,他表示,一台人工智能计算机最终将会进化出对生存的渴望。他说:“未来一台高度先进的人工智能设备将逐渐发展出求生的本能,并将努力获取实现其自身所设定目标所需要的资源。因为生存下来并获取更多资源将能够增加其实现其他目标的机会。对于人类而言这将导致问题的发生,因为我们的资源将会被掠夺。”

  霍金指出,如果人工智能机器人获得了能够在不依赖人类而进行自我完善和升级的能力,那将导致一次机器人世界的“技术大爆炸”,最终机器人们的技术能力将远远超越人类,就如同我们的技术能力远远超越蜗牛一样。

  在2012年庆祝霍金教授70岁生日的一次访谈活动中,他承认自己一天里的大部分时间都在想女人。他说:“她们完全是个谜。”这张照片是霍金与他的第一任妻子简在一起。

1  2  下一页>  
声明: 本文由入驻OFweek公众平台的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

我来说两句

(共0条评论,0人参与)

请输入评论

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

  • 机械
  • 自动化
  • 单片机
  • 猎头职位
更多
文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号