头条

人工智能伦理三问:如何对待机器和自身的关系?

当前,人工智能浪潮方兴未艾,在很多领域展示出巨大应用前景。然而,随着人工智能技术的不断发展,它引发的伦理争议也不断出现

近日,中国发展研究基金会发布报告——《未来基石——人工智能的社会角色与伦理》。针对人工智能伦理问题,报告在提出一系列建议的同时,也希望推动问题的充分讨论。

对人工智能的讨论足够了吗

迄今为止,我们对人工智能可能会带来的挑战仍知之甚少,严肃的公共讨论还十分缺乏

要理解人工智能的社会影响,首先要认识人工智能在社会发展中的独特作用。在人类发展进程中,知识的增长和社会协作体系的扩展起到了重要作用,而这一切都离不开人类大脑提供的智能基础。

报告认为,人工智能的发展,将带来知识生产和利用方式的深刻变革,人工智能不仅意味着前沿科技和高端产业,未来也可以广泛用于解决人类社会面临的长期性挑战。从消除贫困到改善教育,从提供医疗到促进可持续发展,人工智能都大有用武之地。

例如,人工智能可以大幅度降低医疗服务的成本,缓解医疗人才不足的局面。在教育领域,人工智能能够分析人们获取知识的方式,然后利用这些信息开发出相应模型,来预测人们的投入和理解程度。人工智能还可以改变贫困地区高水平教师不足、教学质量低下的局面,促进教育公平。

此外,人工智能可以服务于残障人士。例如,微软最近在ios应用程序商店推出了一款名为“seeing AI”的产品,帮助失明和弱视人群应对日常生活中的问题。“seeing AI”的开发团队包括一名在7岁时就失明的工程师,这一应用程序尽管还处于早期阶段,但已证明人工智能可以捕捉用户周围的图像并即时描述。比如,它可以读取菜单、清点货币等,从而帮助残障人士提高生活能力。

然而,迄今为止,我们对人工智能可能会带来的挑战仍知之甚少,严肃的公共讨论还十分缺乏。社会公众对人工智能的想象在很大程度上仍被科幻小说和影视作品所主导,而对于人工智能在未来可能产生的影响,更是缺乏认知和关切。在政策层面,对于人工智能的关注很大程度上仍集中于技术和经济层面,缺乏整体性的思考和讨论。尽管有少数哲学和社科领域的学者开始关注人工智能带来的伦理问题和社会挑战,但这些讨论并未进入公共政策视界,而且讨论的重点也多集中在超级人工智能这样仍相对遥远的议题上。

报告认为,在人工智能问题上,围绕可能出现的挑战,无知、忽视、偏狭、误解交织在一起,可能会导致真正的风险。

人工智能会带来哪些伦理挑战

从人文视角来看,人工智能带来了一些有可能撼动社会基础的根本性问题

中国发展研究基金会副理事长兼秘书长卢迈表示,人工智能发展将进一步释放社会活力,中国应积极拥抱人工智能,充分利用好它对生产力的解放效应。但是,把握机遇的前提是了解并预防风险,这需要我们在伦理学和社会治理上下功夫。

中国发展研究基金会秘书长助理、研究一部主任俞建拖认为,社会应该正视人工智能带来的挑战,并超越纯技术和经济的视角,从社会和人文视角去探讨人工智能带来的影响。

报告认为,从人文视角来看,人工智能带来了一些已经在发生或即将发生、有可能撼动我们社会基础的根本性问题。

随着人工智能的不断发展,我们对于人的理解越来越物化和去意义化,人和机器的边界越来越模糊,我们需要思考这种边界模糊的后果。我们该如何对待机器和自身的关系?人和机器应该整合吗?如果人对快乐和痛苦的感受可以通过其他物理和化学手段来满足,那么,人还有参与社会互动的需要和动力吗?

人工智能还带来了新的社会权力结构问题。借助人工智能,企业可以赋予每个用户大量的数据标签,并基于这些标签了解人的偏好和行为,甚至超过用户对自己的了解,这是巨大的权利不对称。

此外,人工智能可能会造成偏见强化。在社交媒体中,人工智能将观点相近的人相互推荐,新闻推送也常常存在路径依赖。当人们的信息来源越来越依赖于智能机器,偏见会在这种同化和路径依赖中被强化。

人工智能还使社会的信息和知识加工处理能力被极大放大,信息和知识的冗余反而使人陷入选择困境。如果人参与社会互动的次数和范围缩小,而人工智能越来越多介入到知识的生产中,知识与人的需求之间的关系将变得越来越间接,甚至会反过来支配人的需求。

尽管人工智能也会推动进一步的专业化分工和创造新的工作机会,但并非所有人都有能力迈过技术性和社会性壁垒。尤瓦尔·赫拉利在《未来简史》中警告,未来社会可能会出现“无用阶级”,这种担心并非全无道理。

人工智能也对传统的法律法规和社会规范提出了挑战。譬如,无人驾驶汽车一旦出现事故,我们究竟该归因于开发产品的企业、产品拥有者还是人工智能产品本身?

如何构建人工智能的伦理规范

考虑到人工智能的深远影响,需要全社会共同努力,制定开发和应用的伦理规范和政策方向

人工智能正帮助人类社会向充满不确定性的未来疾驰。在冲进未知之门之前,需要给它装上刹车,让它真正能行稳致远,这个刹车就是伦理规范和公共政策准则。

当前,已经有一些人工智能领先企业关注人工智能开发和应用的伦理问题。微软公司总裁施博德表示,要设计出可信赖的人工智能,必须采取体现道德原则的解决方案,因此微软提出6个道德基本准则:公平、包容、透明、负责、可靠与安全、隐私与保密。谷歌公司也表示,在人工智能开发应用中,坚持包括公平、安全、透明、隐私保护在内的7个准则,并明确列出了谷歌“不会追求的AI应用”。

报告认为,这些企业的前瞻性探索十分重要。但是,考虑到人工智能对未来社会的深远影响,还需要全社会和各国政府的共同努力,制定人工智能开发和应用的伦理规范和政策方向,为其未来健康发展奠定基础。

为此,报告提出了一系列建议:在社会层面,高校和研究机构开展前瞻性科技伦理研究,为相关规范和制度的建立提供理论支撑;各国政府、产业界、研究人员、民间组织和其他利益攸关方展开广泛对话和持续合作,通过一套切实可行的指导原则,鼓励发展以人为本的人工智能;人工智能企业应该将伦理考量纳入企业社会责任框架中;投资机构应将伦理问题纳入ESG(环境、社会和治理)框架,引导企业进行负责任的人工智能产品开发;社会组织可以通过培训、发布伦理评估报告、总结代表性案例等方式,推动人工智能伦理规范的构建。

报告建议,在公共政策层面,人工智能研发和应用的政策应该将人置于核心,满足人全面发展的需求,促进社会的公平和可持续发展;政府需要设立专项资金,支持大学和研究机构开展人工智能等前沿科技的伦理研究;政府还需要给予不同人群以学习了解人工智能的机会,推动全社会对人工智能的知识普及和公共政策讨论;优先鼓励人工智能应用于解决社会领域的突出挑战,包括减少贫困和不平等,促进弱势群体融入社会并参与社会发展进程;应组建由政府部门和行业专家组成的人工智能伦理委员会,对人工智能的开发和应用提供伦理指引,并对具有重大公共影响的人工智能产品进行伦理与合法性评估。

此外,对于人工智能的规范发展也需要更广泛的国际合作。清华大学公共管理学院院长薛澜表示,“人工智能的发展将在创新治理、可持续发展和全球安全合作3个方面对现行国际秩序产生深刻影响,需要各国政府与社会各界从人类命运共同体的高度予以关切和回应。只有加强各国之间的合作与交流,才可能真正构建起一套全球性的、共建共享、安全高效、持续发展的人工智能治理新秩序”。

报告也建议,各国政府应促进数据共享技术,为人工智能培训和测试提供共享的公共数据集。在个人信息得到保护的前提下,促进数据的自由流通;并加强国际合作,建立多层次的国际人工智能治理机制。各国政府应通过联合国、G20以及其他国际平台,将人工智能发展纳入国际合作议程,利用人工智能推动联合国2030年可持续发展目标的实现。(袁勇)