约翰希尔勒(John Searle)“中文房间”实验
当然,“中文房间”实验也引起了起了人们对于人工智能的一些争论。 但在这场争论中,人们并没有排除人工智能体自主道德设计的可能性,而实际上人工智能体的设计与智能体作为道德主体的建立还是有区别的。关于意识、理解力等概念的认识与如何才能使机器人的行为符合道德规范的实际议题基本上是不相干的。
那么,我们再来看看人类道德在机器人领域是否有一定的适用性。道德规范在我们的日常生活中普遍存在,也存在于有组织的社会活动中,在马克思看来,道德是对特定经济基础反应的上层建筑。
但由于人工智能科学日新月异,以及自主机器人广泛的存在与应用,自主机器人早已参与了我们缤纷多彩世界中的生活,世界不论怎样都已不得不讨论自主机器人的道德地位了。
温德尔瓦拉赫与科林艾伦教授合著的《道德机器:如何让机器人明辨是非》一书中对于机器人是否应当或者能够担负起道德责任、人工道德智能体(AMAs)提出了解决方案:一种是自上而下式的理论进路,是指通过将机器人所要掌握的知识与能力转化为一系列算法规则,把这些规则植入机器人的“大脑”,从而获得“认知”;另一种是自下而上式的发展进路则是通过模拟孩童的成长过程,让机器人在不同环境的相互作用中习得复杂行为与认知的能力与知识。
从目前服务类(如公务员)机器人的表现来看,其深度学习、高度自动化等依然是其固有痼疾的基础上,谈论机器人自身的道德主体性也许行之过早了。
机器人公务员真的能够毫无偏见吗?
从日本AI机器人竞选市长到新西兰机器人“萨姆”,无一不是宣扬其具有公正性、无任何私情。然而,在还未到达“超人工智能”的当下,机器人难以形成自身思想之前,算法的偏见,似乎一直都是难以克服并为人诟病之处。
所谓的“算法偏见”是指在看似没有恶意的程序设计中,却不自觉的带有设计人员或开发