侵权投诉

搜索
更多>> 热门搜索:
订阅
纠错
加入自媒体

机器人的道德标准与发展面临的风险

2013-08-17 09:51
木中君
关注

  纵观人类科技史,任何一项科学技术成果在发挥积极作用的同时,也会带来一定的消极作用。比如近年来,一些国家开始将机器人应用于军事领域,甚至有可能将其发展为“杀人机器”。如何为研发机器人设立道德及法律规范,以保障机器人产业健康发展成为学界和社会各界深刻反思的话题。

  山西大学科学技术哲学研究中心教授殷杰告诉记者,与其他新兴的智能行业一样,智能机器人技术也承载价值、伦理、社会和文化因素,若不对机器人技术进行规范,同样会给人类社会带来负面影响。

  中国社会科学院哲学研究所研究员刘钢对记者表示,机器人的发展要控制在人类的道德准则内,必须保护人类的整体利益不受伤害,这是健康发展机器人的前提条件。早在1940年,美国科幻作家阿西莫夫就提出了机器人三定律:一是机器人不应伤害人类,二是机器人应遵守人类的命令,三是机器人应能保护自己。刘钢认为,给机器人提出的这三条伦理性纲领,今天越来越适用于机器人的研发。

  “对机器人或人工智能的研究一定要有制约,尤其是在机器人逐渐进入家庭的今天,如何保证安全是需要考虑的首要问题。”刘钢认为,必须对机器人的研发进行法律层面的限制。2012年11月,国际人权组织“人权观察”联合美国哈佛大学发表了一份报告,呼吁国际社会禁止研发全自动武器系统,即所谓“杀人机器人”。报告指出,应设立国际性法规禁止研发、生产及使用全自动武器,并通过国家立法与政策制定来约束研发、生产及使用全自动武器。刘钢强调,当机器人拥有了一定的学习能力,人类必须对其有所制约,不能将权力全部交给机器人,否则人类可能会面临极大风险。

声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号