科研学术

分享到微信 ×
打开微信“扫一扫”
即可将网页分享至朋友圈
光明网 | 伦理先行:持续推进人工智能伦理治理
文:汤志伟 来源:新闻中心 时间:2023-10-26 1617

  10月25日,光明网-理论频道刊发了公共管理学院教授、博士生导师,电子科技大学(深圳)高等研究院执行院长汤志伟的文章《伦理先行:持续推进人工智能伦理治理》。文章提出,未来需要继续坚持伦理先行,做好风险防范,形成具有广泛共识的人工智能治理框架和标准规范。 

  10月18日,中央网信办发布《全球人工智能治理倡议》(下称《倡议》),围绕人工智能发展、安全、治理三方面系统阐述了人工智能治理的中国方案。《倡议》就各方普遍关切的人工智能发展与治理问题提出了建设性解决思路,在人工智能伦理治理方面,提出:“坚持伦理先行,建立并完善人工智能伦理准则、规范及问责机制,形成人工智能伦理指南,建立科技伦理审查和监管制度,明确人工智能相关主体的责任和权力边界,充分尊重并保障各群体合法权益,及时回应国内和国际相关伦理关切。”

  人工智能是人类发展的新领域。人工智能技术被视作第四次科技革命的核心驱动力,在全球掀起了新一轮产业变革浪潮,对经济社会发展和人类文明进步产生深远影响。根据中国信息通信研究院测算,2022年我国人工智能核心产业规模达到了5080亿元,同比增长18%,企业数量近4000家,国内人工智能已形成完整的体系,成为新的增长引擎。

  人工智能技术给经济社会发展带来巨大福利,也带来难以预知的各种风险和复杂挑战。人工智能技术发展的不确定性、技术应用的数据依赖性以及算法可解释性可能导致技术失控、隐私失密、公平失衡等问题,冲击着伦理规范。推动人工智能的健康发展必须重视其对社会伦理的影响,防范和治理其潜在伦理风险。对此,《倡议》也提到:“研发主体不断提高人工智能可解释性和可预测性,提升数据真实性和准确性,确保人工智能始终处于人类控制之下,打造可审核、可监督、可追溯、可信赖的人工智能技术。”

  习近平总书记强调;“科技是发展的利器,也可能成为风险的源头。要前瞻研判科技发展带来的规则冲突、社会风险、伦理挑战,完善相关法律法规、伦理审查规则及监管框架。”2017年,国务院发布《新一代人工智能发展规划》,指出到2025年初步建立人工智能法律法规、伦理规范和政策体系。2019年,《新一代人工智能治理原则——发展负责任的人工智能》发布,提出和谐友好、公平公正、敏捷治理等在内的八条原则。2020年,国家科技伦理委员会正式成立,是新时代国家科技伦理治理的重大战略决策。2021年,《新一代人工智能伦理规范》发布,分别阐述了人工智能的管理规范、研发规范、供应规范和使用规范。2022年,《关于加强科技伦理治理的意见》发布,提出五项基本要求与五项科技伦理原则,部署四大重点任务,为进一步完善科技伦理治理体系作出指导。2023年,《生成式人工智能服务管理暂行办法》发布,成为我国人工智能产业首份监管文件。种种举措表明,我国在人工智能伦理治理上持续发力。基于《倡议》内容,我们未来仍需要继续坚持伦理先行,做好风险防范,形成具有广泛共识的人工智能治理框架和标准规范。

  一、研判人工智能伦理风险

  人工智能的可控性风险。这种风险来源于对技术失控的担忧,指的是人工智能技术的发展超出人类控制范围而产生的风险。人工智能技术的发展日新月异,人工智能算法已经融入自主性、情感性、意向性等人格要素,理论上存在着从弱人工智能发展到强人工智能、超人工智能的可能性。以智能机器人为代表的“人工生命”普遍出现,使人类较以往更担心技术脱离控制,但从现有人工智能成果的技术条件来说,人工智能技术只能应用于强力法封闭原则与训练法封闭原则下的场景,出现不可控技术仍属于“远虑”。

  人工智能的使用性风险。这种风险指应用人工智能而存在的风险,主要源于人工智能技术的非正当使用,比如技术滥用与技术误用。以人脸识别技术为例,人脸识别算法可以帮助警方搜寻在逃罪犯,但人脸识别技术是否完全可靠,结果是否百分百准确,在现阶段并不能保证。美国纽约、新泽西两大州的调查人员,通过面部识别软件,找到与嫌疑人照片高度匹配的人,但是最终却抓错并将“罪犯”关押十天。还有研究团队利用唇曲率、眼内角距以及口鼻角度等面部识别系统预测某些人具有犯罪倾向,得出黑人的犯罪概率远远高于其他人,引起极大争议,以机器学习相面极有可能得到“可能的假象”与“客观的谬误”。此外,“换脸”等深度伪造问题层出不穷,而面部信息关系到个人隐私与财产安全,人脸识别技术何时、何处、该在何种程度使用都还需要进一步规范。

  人工智能的社会效应风险。这种风险来自于与人工智能治理相关的重大社会问题,是人工智能技术对社会产生的负面效应。人工智能广泛的商业化应用带来一系列的产业变革,当负效应超过正效应后,将对社会产生巨大影响。比如在经济就业方面,取代大量劳动力、导致失业浪潮、产生“无用阶层”;在国家治理方面,利用人工智能技术优势操纵舆论,网络窃密、网络勾连威胁政治安全;在文化艺术方面,人工智能写作、绘画等技术形成的作品多处拼凑抄袭,看似降低“创作”门槛背后,却可能让艺术的创新探索止步不前;在生态环境方面,人工智能技术下的数据作为生产要素,可以减少自然资源和资本等传统要素的依赖,但是人工智能发展依赖的基础设施消耗并未减少。

  二、优化人工智能伦理治理

  健全人工智能伦理风险评估机制,增强风险防范能力。当前人工智能技术已经产生或即将产生各类伦理风险,需要得到正视与重视。一方面,正视伦理风险的客观性,正确认识人工智能技术带来的伦理风险,不盲目地悲观或者片面地乐观,引导理性认知,加强人工智能伦理风险教育,客观全面地评估人工智能伦理风险。

  另一方面,建立伦理风险评估机制,梳理风险源头、风险类型、风险强度,思考风险产生原因、风险解决措施,防范未发生的风险,对人工智能应用的负面影响开展预见性风险评估,提前做好风险预案。面对人工智能技术的不确定性,优化人工智能伦理风险评估机制,需要集合多方力量、采用多种方法,科学开展风险评估工作。政府、高校、研究院所等机构可以联合起来,建立风险评估指标,为人工智能技术应用划定风险等级,针对不同风险等级使用不同的安防策略和技术。开展人工智能伦理风险防范的前瞻性研究,可以采用“技术制约技术”的方式,建立对抗性学习算法研究,建立人工智能伦理风险防控系统,预防人工智能技术在应用场景中的潜在伦理风险。

  打造人工智能伦理风险治理群落,促进多方协同共治。人工智能的伦理风险涉及面广,复杂程度高,风险治理涉及智能技术、伦理哲学、公共管理等多领域,需要政府、企业、高校、行业组织、公众等多主体搭建多方协同共治的组织网络,明确不同主体的权责义务,建构多主体合作治理的紧密关系,形成集群治理效应。

  政府作为管理部门需要发挥政策引导与监督审查作用,比如政策制定者在制定人工智能伦理治理的相关政策时可以面向社会公众、企业、科研团体等其他主体,开展听证、征询和协商活动,提高其他主体在政策制定过程的参与度。人工智能企业作为技术前线需要提高自律自治能力,增强风险意识与责任意识,在企业内部设立人工智能伦理委员会,培养人工智能伦理研究员,开展伦理风险自查,落实人工智能技术可信可靠要求。人工智能行业组织需要针对行业发展情况建立行业伦理规范,在政府引导下制定相关技术标准,促进企业落实主体责任。高校、科研院所等科研共同体可以积极参与伦理规范制定,研究人工智能伦理风险治理的算法工具,还可以发挥教育作用,开展人工智能伦理教育以及人工智能技术的科普活动。

  完善人工智能伦理风险治理体系,推动敏捷治理。除《倡议》外,《新一代人工智能治理原则》《新一代人工智能伦理规范》与《关于加强科技伦理治理的意见》的治理要求中都提到了“敏捷治理”。推动“敏捷治理”,要尊重人工智能发展规律,持续优化管理机制、完善治理体系。一方面,完善人工智能伦理风险监管机制,将伦理风险监管融入人工智能全生命周期,实现全流程全链条监管,建立问责机制,明确问题责任人;另一方面,将人工智能伦理风险治理标准化、规范化,形成多级制度配套体系,以具体的标准将宽泛的治理原则可操作化。

  此外,还需要根据人工智能技术发展,动态调整伦理风险处理方式,针对人工智能商业化应用的新兴问题,及时制定伦理风险治理办法。欧盟在2021年提出了《人工智能法》提案,促使人工智能治理从软性约束向实质硬性要求转变。目前我国出台了《中华人民共和国个人信息保护法》《中华人民共和国数据安全法》等数字技术领域的专门立法,为个人隐私安全风险治理填补立法空白,但相关立法较为零散,并且具有滞后性。因此,还需要推动人工智能伦理风险治理的法治化进程,增强立法前瞻性,建立一套规范的法律体系。

  作者:汤志伟 电子科技大学公共管理学院教授、博士生导师,电子科技大学(深圳)高等研究院执行院长

  电子科技大学智慧治理研究院研究员叶昶秀、龚泽鹏对此文亦有贡献。本文系国家社会科学基金重点项目“人工智能商业化应用的社会影响与治理体系研究”(22AZD135)的阶段性成果。

  文章链接:https://share.gmw.cn/theory/2023-10/25/content_36917360.htm


编辑:李果  / 审核:李果  / 发布:陈伟

"