外媒称,随着人工智能技术越来越先进,人们愈发担心,机器人可能变成一种威胁。据加利福尼亚大学伯克利分校计算机学教授斯图尔特·拉塞尔说,这种危险是可以避免的,如果我们能够解决如何把人类价值变成可编程的代码。
▲10月20日,在美国加利福尼亚州拉古纳比奇举行的一场科技大会上,情感机器人“佩珀”和一位与会者拍手。
据报道,拉塞尔说,在机器人领域,“道德哲学将是一个非常重要的产业部门”。他指出:“随着机器人从事更加复杂的任务,我们绝对有必要把我们人类的道德转化为人工智能语言。”
比如说,如果机器人在房子里做杂务——预计未来几十年将会出现这种场面——的话,你可不想机器人把宠物猫放进烤箱里,给饥肠辘辘的孩子们做顿大餐。拉塞尔说:“你会希望给那个机器人预先载入一大套人类价值。”
人们已将基本的人类价值编入了一些机器人的程序。玛丽女王大学计算机学教授彼得·麦克欧文说,可移动机器人就被编入了与人类保持适当距离的程序。
他说:“这是机器人行为可被视为体现某种价值的一个极为简单的例子。如果机器人在你和别人说话时靠近你们的私人空间,你就会认为,这不是一个有教养的人会做的事情。”
创造更复杂的、具备道德规范的机器人是可能的,但条件是我们要找到把人类价值设定成明确规则的办法。
麦克欧文说:“这种价值设定工程要有研究人类价值的专家参与进来,其中包括哲学家、心理学家、人种学家以及外行人士。就像你把专业知识转化成一套规则一样,你可以将这个讨论组提供的信息转化成一系列规则。”
此外,机器人还可以选取根据有关人类行为的大套数据制成的模型来学习人类价值。
麦克欧文说,只有在程序员不负责任的情况下,机器人才会成为一种危险。
他说:“就机器人违反人类价值这一问题,人们最担心的是,如果人类因为没有进行充分测试而没有给机器人正确编程的话,机器人就不会有充分的安全保障,它们就会有办法去打破某种禁忌。”
湘ICP备2022002427号-10 湘公网安备:43070202000427号
© 2013~2024 haote.com 好特网