中国伦理在线 头条

人工智能:伦理的时代已经结束?

2020-07-02 03:45 http://ethics.ruc.edu.cn/ 张伟东

摘要: 欧洲委员会任命的人工智能高级专家组、经济合作与发展组织(OECD)的人工智能专家组、新加坡人工智能和数据的道德使用咨询委员会、英国上议院的人工智能专责委员会和美国奥巴马政府的人工智能政策路线图, 以讨论人工智能的伦理, 人工智能的所有应用都仅仅基于非约束性的伦理准则与伦理价值

 文章来源:Euractiv 

原标题:Artificial Intelligence: The time for ethics is over  

链接地址:  https://www.euractiv.com/section/digital/opinion/artificial-intelligence-the-time-for-ethics-is-over/?from="groupmessage"  

作者:Alexandra Geese  

译者:侯辰茹      

背景资料    

2019年4月8日,欧盟人工智能高级专家组发布了于2018年12月起草并征询了五百余条建议与评论的《可信人工智能伦理准则》(Ethics Guidelines for Trustworthy Artificial Intelligence)。根据这一准则,受到信任的人工智能(AI)应该是:(1)合法的;(2)合伦理的;(3)稳定的。(来源:https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai)     

640 (9).png

Alexandra Geese  Alexandra Geese 

是绿党的欧盟议会议员。她在2019年的选举中当选,目前作为欧盟内部市场和消费者保护委员会以及预算委员会的全职成员工作,主要关注于数字政策、基本权利以及性别预算。(来源:https://eu.boell.org/en/person/alexandra-geese)    

组织伦理辩论一直以来都是一个对企业来说延迟和避免严格监管规范的有效途径。Alexandra Geese (来自Green MEP[1])写道,欧洲现在需要为其公民提供强有力的、可执行的权利。    

如果规则的力量太弱,那么我们的权利和自由将承受极大的损害风险,这也适用于目前对人工智能的运用。迄今为止,人工智能的所有应用都仅仅基于非约束性的伦理准则与伦理价值。在目前的立法过程中,欧洲将有机会为人工智能建立一个拥有明确规范的法律框架。我们需要强有力的工具去保护我们的基本权利和民主。       

在过去的几年里,世界各国政府都在忙于建立专门委员会、理事会或专家组,以讨论人工智能的伦理:欧洲委员会任命的人工智能高级专家组、经济合作与发展组织(OECD)的人工智能专家组、新加坡人工智能和数据的道德使用咨询委员会、英国上议院的人工智能专责委员会和美国奥巴马政府的人工智能政策路线图。纽约是最早成立一个名为“自动决策系统策略组”的特殊委员会的城市之一。它用了一年多的时间通过了对自动决策的定义。但直到现在,它还是没能对城市中所有正在使用的人工智能系统进行清晰的概述。    

同时,许多公司通过建立伦理委员会、撰写相关规则、并支持类似算法偏差或“人工智能的公平”等主题的研究,取得了进行自主监管的入场券。近些年来,企业界一个接一个地被塑造为“伦理洗礼机器”(Ethics washing machine[2])。脸书(Facebook)资助了德国慕尼黑大学的人工智能伦理学家,同时谷歌、思爱普(SAP)和微软(Microsoft)也都接受了伦理指导原则和行为规范。    

我不想对这些有利的事实提出质疑,但是很明显,这些对伦理讨论的关注长期以来都是在为企业提供一个争取时间并避免严格监管的有效途径。很多情况下,如果缺少强有力的强制措施和组织的框架内的独立的监管机制,依靠伦理和自我监管并不能有效地让企业承担它们的责任。    

在过去的几年中,我们可以通过大量事实观察到:当举证责任仍然在受害者一方时,也当损害的责任无法始终在复杂的人工智能支持系统中被建立时,现有的法律并不足以防止歧视——他们甚至不会意识到自己所经历的“算法歧视”。最容易受到来自人工智能系统的歧视的人同时也最可能是没有经济能力和自信去发起一场结果不确定的诉讼的人。自动化的决策工具经常会加剧我们社会中的种族和性别歧视。试想一下在美国被用来预测被告是否会再次犯罪的COMPAS系统——人们发现它会对黑人被告产生歧视。在伦敦的艾伦·图灵研究所和牛津大学最近进行的一项研究中,研究人员发现目前欧洲的法律不足以保护人们免受由算法造成的歧视所带来的损害。    

对欧洲的政策制定者而言,要起草一份观点清晰、措施具有针对性、能够跟上技术发展的脚步且不会造成任何附加损害的法律并不容易。但这个挑战也是欧洲的一次机遇。现在,我们有机会成为第一块将人类置于数字政策的中心的土地,并且将会牢记强大的推动“伦理议程”的利益力量。我们需要为未来的人工智能用户提供强有力的、可实现的权利,因为它们对我们生活的方方面面都将产生越来越大的影响。       

这也是为什么立法过程需要尽可能多地实现参与性与包容性。欧盟委员会不久前进行了一次公共咨询,以期为其欧盟的人工智能进程进行准备。理论上,欧盟公民会对此作出回应,但不幸的是,欧盟委员会的公共咨询并不容易实现,因为要想回答一系列包含非常技术性的内容的问卷之前,你甚至必须要先创建一个账户。    

因此,欧盟的政策制定者应该寻求其他的平台,并更多地接纳那些受人工智能影响很大却不太可能出现在谈判桌前的群体。这也将有助于增强政治透明度与对欧盟决策的信任。只有到那时,我们才可能确保我们的权利和自由被置于了欧盟各项条约和宪章的规定之下,而非被名为“原则和价值”的简单的道德规范所涵盖。     

注释:  

[1]欧洲议会党团“绿党”  [2]Ethics-Washing 被用于形容科技公司将伦理或道德扩大化至所有其人工智能产品所能涵盖的领域的现象。详见参考资料:  a.https://www.google.com/amp/s/venturebeat.com/2019/07/17/how-ai-companies-can-avoid-ethics-washing/amp/  b.https://blog.vornconsulting.com/2019/04/25/das-ethic-washing-der-grossen-tech-unternehmen/    

责任编辑:张伟东

返回首页
相关新闻
返回顶部