而且,此研究存在的一个问题在于,研究的机制是通过两张图片二选一其中最让机器觉得“更可能是同性恋”的照片,这种对比判断其实是从 50% 的随机几率开始计算的,因此与单纯对一张图的分析有着很大的区别。
这其实就造成了一个问题,在真正人类识别的时候,其准确率有多少,而这种非此即彼的识别方式,其评判标准仍有许多地方需要商榷。
2.算法歧视依然是个“大问题”
算法歧视,一直是人工智能应用过程中的一大问题,以搜索为例,在谷歌上搜索“CEO”,搜索结果中没有一个是女性,也没有一个是亚洲人,这是一种潜在的偏见。
显然,人工智能也并不是真的纯“人工”。 机器学习的方式和人类学习一样,从文化中提取并吸收社会结构的常态,因此其也会再建、扩大并且延续我们人类为它们设下的道路,而这些道路,一直都将反映现存的社会常态。
而无论是根据面容来判断一个人是否诚实,或是判断他的性取向,这些算法都是基于社会原有生物本质主义(biological essentialism),这是一种深信人的性取向等本质是根植于人身体的理论。毕竟,一个AI工具通过数据积累和算法模型可以通过照片判断一个人的性取向,系统准确率高达91%,这其中所带来的性取向偏见是不能低估的。
今年年初,来自巴斯大学和普林斯顿大学的计算机科学家就曾用类似IAT(内隐联想测验)的联想类测试来检测算法的潜在倾向性,并发现即使算法也会对种族和性别带有偏见。甚至,连Google 翻译也难逃偏见,算法“发现”并“学习”了社会约定俗成的偏见。当在特定语言环境中,一些原本是中性的名词,如果上下文具有特定形容词(中性),它会将中性词转而翻译为“他”或“她”。
如今的人工智能还基本局限于完成指定任务,而有时候许多实际应用内容不是非此即彼的,在许多抉择中,人类选择依然存在道德困境,如若将决定权交与算法,其存在的诟病之处更是不言而喻。
3.数据使用,掌握“火候”是关键
如果说让AI野蛮生长是为了解决人们工作效率的问题,那么当人工智能逐渐落地于各行业后,“体面”已经逐渐取代效率,成为AI应用的关键词。
当然,如果企业能够全方位的保护用户隐私,这既有着技术上难度,也缺乏一定商业驱动力,因此,目前来看,如果平衡两者之间的关系才是关键。
实际上,在牵制巨头破坏用户隐私方面,欧洲国家已经走得很远,这体现在这些年他们与Facebook、Google等巨头对抗的一个个集体诉讼案例中:
2014年8月,Facebook在欧洲遭6万人起诉,一位奥地利隐私保护人士发起了一项针对Facebook欧洲子公司的大范围集体诉讼,指控Facebook违背了欧洲数据保护法律,FB被质疑参与了美国国家安全局的“棱镜”项目,收集公共互联网使用的个人数据。
今年1月初,德国政府一家数据保护机构周三表示,该机构已针对Facebook采取法律行动,指控Facebook非法读取并保存不使用该社交网站的用户的个人信息。德国汉堡数据保护办公室专员表示,由于Facebook在未经许可的情况下收集并保存不使用该社交网站的用户个人信息,这有可能导致Facebook被罚款数万欧元。
显然,目前用户对于自身数据的保护意识正在不断加强,其在不断保护自身数据的同时也加强隐私防范。毕竟,AI识别性取向目前只是研究而没有落地产品。
而且,从网站上扒图并不是什么技术活,让机器做选择题的概念,也像极了十多年前哈佛某个宅男做的校园选美网站。其中滋味,冷暖自知吧。
智能相对论(微信id:aixdlun):深挖人工智能这口井,评出咸淡,讲出黑白,道出深浅。重点关注领域:AI+医疗、机器人、智能驾驶、AI+硬件、物联网、AI+金融、AI+安全、AR/VR、开发者以及背后的芯片、算法、人机交互等。