首页 > 政策法规 > 政策法规 > Google再与军方合作,AI伦理的边界在哪里?

Google再与军方合作,AI伦理的边界在哪里?

来源:整理 时间:2022-08-12 06:16:51 编辑:派代电商 手机版
广告——来自谷歌智能广告工具 Adsense 给出的结果。

而这种危险并不仅仅是“另眼相看”本身——毕竟将一张黑人的照片打上“猩猩”的标签,只是有点冒犯罢了。而人工智能的决策正走入更多与个人命运切实相关的领域,切实影响着就业、福利以及个人信用,我们很难对这些领域的“不公平”视而不见。

同样,随着AI入侵招聘领域、金融领域、智能搜索领域等等,我们所训练出来的“算法机器”是否能够真正的万无一失。在求贤若渴的当代社会,算法是否能够帮助公司选出千里挑一的那个人,这都有待考究。

那么,歧视的来源是哪里?是打标签者的别有用心,是数据拟合的偏差,还是程序设计哪里出了bug?机器所计算出的结果,能为歧视、不公、残酷提供理由吗?这些都是值得商榷的问题。

3.数据保护是AI伦理的底线

网络空间是一个真实的虚拟存在,是一个没有物理空间的独立世界。在这里,人类实现了与肉体分离的“数字化生存”,拥有了“数字化人格”。所谓数字化人格就是“通过个人信息的收集和处理勾画一个在网络空间的个人形象”——即凭借数字化信息而建立起来的人格。

而在AI环境中,基于互联网和大数据的支持,其拥有着用户大量的使用习惯和数据信息。如果说“过往数据”的积累是机器作恶的基础的话,那么资本力量的驱动则是更深层次的原因。

Facebook信息泄露事件中,一家名为剑桥分析(Cambridge Analytica)的公司使用人工智能技术,针对任意一个潜在选民的“心理特征”投放付费政治广告;而投什么样的广告,取决于一个人的政治倾向、情绪特征、以及易受影响的程度。很多虚假的消息在特定人群中能够迅速传播、增加曝光,并潜移默化地影响人们的价值判断。技术主使克里斯托弗威利最近向媒体揭发了这个人工智能技术的“食粮”来源——以学术研究为名,有意攫取的 5000 多万用户数据。

退而言之,即使不存在数据泄露问题,对用户数据的所谓“智能挖掘”也很容易游走在“合规”但“有违公平”的边缘。至于AI伦理的边界,信息安全成为每一个互联网时代下“信息人”的最基本底线。

反思

在最近大火的一段关于AI伦理的视频中,艺术家Alexander Reben没有任何动作,但是通过语音助手下达命令:“OK Google,开枪。”

然而,不到一秒的转瞬之间,Google Assistant扣动了一部手枪的扳机,击倒了一颗红苹果。随即,蜂鸣器发出刺耳的嗡嗡声。

嗡嗡声响彻双耳。

是谁开枪击到了苹果?是AI还是人类?

在这个视频中,Reben告诉AI开枪。Engadget在报道中说,如果AI足够智能以预测我们的需求,或许有一天AI会主动除掉那些让我们不开心的人。Reben说,讨论这样一个装置,比是否存在这样一个装置更重要。

人工智能不是一个可预测的、完美的理性机器,他的伦理缺陷由算法、人们使用的目标和评估。但是,至少从目前来看,机器依然是人类实然世界的反应,而不是“应然世界”的指导和先驱。

显然,守住AI伦理的底线,人类才不会走到“机器暴政”的那一天。

附:谷歌的“七条准则”

1. 有益于社会

2. 避免创造或增强偏见

3. 为保障安全而建立和测试

4. 对人们有说明义务

5. 整合隐私设计原则

6. 坚持高标准的科学探索

7. 根据原则确定合适的应用

[完]

智能相对论(微信id:aixdlun):深挖人工智能这口井,评出咸淡,讲出黑白,道出深浅。重点关注领域:AI+医疗、机器人、智能驾驶、AI+硬件、物联网、AI+金融、AI+安全、AR/VR、开发者以及背后的芯片、算法、人机交互等。


文章TAG:Google广告搜索

最近更新

相关文章

政策法规排行榜推荐