首页 > 业内资讯 > 纽约时报:你们把人工智能搞错了!

纽约时报:你们把人工智能搞错了!

时间:2016-02-11 | 来源:虎嗅网 | 阅读:60

话题: 人工智能

纽约时报:你们把人工智能搞错了!

我们最好这样假定,在宇宙中思考是多样化的行为,即便是外星人也会思考,人类并非是特殊的个案。相对于人类教育机器如何思考,人工智能真正的哲学问题是,机器如何教育人类在一个更完整和真实的维度里思考。

人类中心主义困境

过去我们总是根据模拟人类思维的能力来定义人工智能存在,在未来看来,这种想法其实只是一种奇怪的物种偏见。在这种想法下,早期人工智能研究者试图在机器中重建人类思维,但这根本行不通。相反,现代的研究者认为,如果机器能在特定领域里把事情做好,就可以被称作“智能的”,而不是它能在多大程度反映出人类思想。Stuart Russell和PeterNorvig(现任谷歌研究院主任)在他们重要的著作《人工智能》中就指出了,对生物形态的简单模仿并不足以应用于复杂精巧的现代科技:飞机并不以鸟类的方式飞行,我们在测试飞机是否是“真正的”飞行器时,当然也不会去看看鸟类是否会把飞机与同类混淆。既然如此,为什么人们对人工智能采用了这样的判断标准呢?现代务实的人工智能研究并不会把图灵测试作为成功的标准,然而在流行文化中,这种人类中心主义的测试却在长期受到重视。人们对于人工智能的想象大多数还停留在迪士尼电影中会说话的动物这一层次上,而这其实不过是一种幼稚的口技而已。

纽约时报:你们把人工智能搞错了!

有人会说:把模仿人类形态作为人工智能的先决条件不够科学,是一种“前哥白尼”时代的观点。那么这种观点真正的问题在哪里呢?如果在未来,我们日常所见的人工智能都具有某种人性,情形会怎么样呢?好的方面是我们会与机器智慧建立一种更为真诚而清醒的关系,而坏的方面是,如果我们对生命体抱有这样的幻想,将会损失更多可能性。有些哲学家已经思考赋予有感情的机器以伦理权利了,但我想要说的不是这个,事实上,我们在思考这些人工智能体的时候,应该寻找更为真实的视角。

马斯克、盖茨和霍金关于人工智能威胁的言论引起了广泛的关注。他们的观点很重要,但是,恐怕大多数读者都误解了他们。如果我们像1942年阿西莫夫“机器人三大定律“一样,寄希望于给机器人编程,禁止它们伤害人类,首先我们就要让机器人能够理解什么是“人类”,以及什么是“伤害”。机器人并不需要做什么恶毒的行为就可以伤害到人类,一个最简单的例子就是:它们只要把人类正常含义的指令以一种机械而极端的方式执行,就足以带来一场灾难。人工智能真正的威胁不在于机械故障或者对于反人类道德的举动,而是在于它们智力强大,却对人类漠不关心。如果我们像以前那样,依据它们与人类的相似性来定义人工智能,并假定它们全心专注于人类事务,我们就更加面临着这方面的风险。

好特安卓客户端V1.0 安卓版

TOP

软件

76
好特安卓客户端运营中
好特安卓客户端:提供IT业界资讯APP应用程序
2.28 MB  08.12  赞(999999999)
安全无广告  需网络
推荐

最新好玩手游

更多

手游风云榜

更多

资讯阅读

更多


湘ICP备2022002427号-10 湘公网安备:43070202000427号
© 2013~2024 haote.com 好特网