AI向善,何为善、如何为、谁来为? ——2026中国数字经济发展和治理学术年会上的主旨演讲
来源:新浪财经
AI向善,何为善、如何为、谁来为?
——2026中国数字经济发展和治理学术年会上的主旨演讲
(中国社会科学院大学教授、国务院原副秘书长、年会主席团主席江小涓,2026年3月7日)
各位老师、同学、各位嘉宾:
大家上午好!
非常高兴能够来到西南政法大学跟大家交流,我相信大家一定能够体会到目前数字发展问题关注度和共识已经很高,治理问题变得更加突出。今天和大家做一些初步的分享,主题是《AI向善:何为善、如何为、谁来为》。
一、何为善:社会科学的视角
长期以来,关于AI向善的讨论已经很多,理念上的共识度相当高。例如,从2016年联合国教科文组织发布《机器人伦理报告(Preliminary Draft Report of COMEST on Robotics Ethics)》到2025年的巴黎AI行动峰会,人们对AI治理的理念有高度共识。诸如安全性、透明性、非歧视、可解释、可追溯、公平公正、包容开放、尊重隐私、共享利益、以人为本、人类控制等理念不断被重复讨论,但对于如何实现、谁来执行这些“善”落地的讨论较为不足,主要由当事企业和相关技术团体在“对齐”这个框架中进行讨论,片面且多变,缺少一般性稳定性。我感觉需要将这个问题放到社会科学知识体系内进行讨论分析,广义的“善”正是诸多社会科学研究的立意和主题。技术是否向善,根本在于是否促进经济发展、社会进步和民众幸福,也就是能否增进人类福祉。社会科学不仅能提出理念上的向善之道,在普适的知识体系中提出评价标准、实现路径和行为主体等方面,更有学术积淀和理论能力。
1、合理是善:高效配置资源、增加社会福利和公平分配
“合理”是经济学的核心概念,经济学将“资源配置效率提高、社会福利增加和相对公平分配”定义为合理。在这个目标下,经济学有明确的评价标准和指标:提升全要素生产率、提高投入产出比、收入增长、促进创新投资等,都是资源配置效率的衡量指标;教育和医疗水平提升、社会保障体系的完善等,都是社会福利增加的衡量指标。以这些指标衡量,AI在提升全要素生产率和社会福利增长等方面有明显贡献,技术之善大耶。
如何实现“合理之善”,经济学有实现路径和行为主体。诸如让市场在AI发展相关领域发挥配置资源决定性作用就是实现路径,这必然要求企业是行为主体。当然,市场不仅有企业这个主体,还要有好的“市场环境”如平等竞争、公平准入,因此必然要求市场规制健全与完善。
用公平分配来衡量,AI还称不上“善”。基尼系数、收入差距等,都是经济学用来衡量发展成果是否相对公平分配的指标。用这些指标衡量,AI的影响目前负面为主,也就是存在“不善”之影响。一方面财富更加集中在创新成功的极少数手中,另一方面AI产生的替代作用主要影响中低收入群体,目前还看不到AI继续发展能有改善或扭转之效果。从过往技术进步的过程看,解决这个问题AI企业自身要努力,同时需要政府更好发挥作用,在以替代劳动为主要效果的AI技术应用和AI新创就业机会之间保持必要的平衡,并在完善长期社会保障制度方面更好地履行政府责任。
2、用益是善:超出GDP边界的消费者获益
有些技术进步的收益无法用标准意义上的GDP增长来衡量,却能带来大量消费者剩余或称之为用益,通俗地讲就是给人民群众带来便利快乐幸福等诸多获得感,AI这方面的影响极为突出。
AI带来了便利之善。AI带来的便利极为显著,但相当部分没能反映在GDP之中。例如,消费者基于网络、AI模型和智能体的大量自助服务为使用者带来很大便利,却并没有产生可以计入GDP的经济行为,相反却替代了原先可以计入GDP的服务,具体如自助订票取代了订票服务,免费网络信息取代报刊订阅,电子邮件取代邮寄信件等,还有大量的免费服务。文化产业是最有代表性的产业,娱乐平台和生成式模型让每个人都能欣赏更多的音乐、图书、视频和更丰富的文化产品,文化消费量极大增加。与此同时,以GDP衡量的文化产品市场规模却并未同步增长。例如美国唱片业协会数据显示,美国音乐产业收入从1999年的146亿美元下降到2016年的75亿美元,数字音乐为消费者带来的诸多福利无法用GDP衡量。虽然提供各种免费服务的平台会向消费者推送广告并创造GDP,但许多研究发现后者远不及被替代服务和新增福利的GDP规模。显然,AI带来了用益之善。
AI带来了平权之善。AI将海量普通消费者带入原本只有高收入和高知识群体才普遍拥有的消费领域和创意领域。例如,在文化消费领域,文字阅读能力差的消费者可以选择让AI提供或生成图像和视频等形态丰富的文化产品;收入低的消费者可以使用平台的免费服务欣赏他们在线下不可及的昂贵文化产品和服务(如在高端剧院的演出等)。再如,在文化创意领域,那些文化创作“专业”能力不足的普通人,也能将极富创意的灵感转化为自己创造的文化产品并与人分享。社交网络上的网红不仅销售其产品与服务,还与粉丝交流分享生活方式、情感、时尚、情怀及梦想等等,为消费者带来精神与心理需求方面的更多满足。
用益之善以免费、自娱、互助等方式呈现,无法用GDP增长或收入增加来衡量,但可以用条件价值评估法或意愿价值评估法来衡量。可以询问消费者如果这些用益需要购买,他们愿意付多少钱,或者让他们放弃某些可免费获得的用益时需要补偿他们多少钱。例如收到多少补偿他们愿意放弃使用“小红书”类app或者使用免费大模型,并由此计算出全社会得到的使用之益。有研究表明,低收入者获得的用益与他们的货币收入之比要显著高于高收入者的相应比例,表明AI确有平权和提升低收入者福利之善。
用益也有不善。有些带来一时心理愉悦感的消费会带来身体和精神的深层、长期损害。例如沉溺于网络游戏、厚重的信息茧房导致认识受限等,这类问题的伤害性社会有高度共识,当事人也深受其害却难以自拔。技术持有方和使用方要有克制和自律的责任,没有应对之策就不要做出这些不善之举,有不良后果就要以技术之力加以约束限制。如同产品生产者负有产品质量责任,不能出售危害健康和危及生命的产品。同时,还需要政府与社会协同给予应对处置。对那些全社会有共识的“恶”——如挑战人类价值观底线、侵害个人隐私、宣扬恐怖主义等言行——公权力部门就要进行强力处置。
3、合意是善:科技长期后果的社会共识度
社会科学多学科都有“合意”研究,例如社会学视阈中的社会共识代表着一种较高程度的社会合意。本文将“具有最大公约数的社会共识和由此决定的社会团结”定义为合意,并用合意性讨论AI时代的科技伦理问题。
科技伦理问题久已有之,但在AI时代特别突出,其性质有根本变化。过去我们讲科学是“发现自然规律”,那些都是自然秩序中内生之规律,是自然界万亿年间各种力量博弈和演进形成的规律。现在AI努力构建自然界和人类社会演进中并不存在的状况,创造新的秩序,不少探索意在改变人类自然状况或者人类社会状况。比如在“AI for science”应用最密集的生命科学领域,很多科学研究试图改变我们的生理、繁衍、认知结构,甚至干预意识的形成,导致人类在意识形成和相关行为方面的主体性与控制力都发生改变,还有些要构建我们不知其长期后果的新生命体。这些新事物的诞生会产生什么后果,或许发明它们的科学家也说不准。细想一下,它和过往的科学发现不太一样。此种情景下,人类对某种科学发展方向是否认同就变得很重要,这就是本文所讲的合意性。我曾经对某位我很敬佩的科学家表示,他要做的某项研究,我作为无知的科技发烧友很好奇和向往,作为经济学家一时无法判断,但回到“人”这个天然身份,我想说你这项研究完全“不合意”。
当科学家们试图改变经千万年演进形成的人类特征和自然规律时,已经是与人人相关的重大问题,公众必须知情和参与,表达合意与否。这种科学腔调很重的讨论或许难以用类似意愿价值评估法来推进,需要公共透明开放的“集体性磋商”。科学家有责任向公众说明其全部可能后果,而不仅仅讲其有利之处,同时要允许全社会进行充分讨论,形成具有最大公约数的社会共识。各方充分表达并持续博弈才能找到“合意性”的趋近路径和现实位置,不能听由技术逻辑成为主导因素,更要防止由少数责任感不强和预见能力不足的科技专家仓促做出不可逆转的不当“创新”。总之合意之要求,对这类AI向善问题来说必须在场。
二、机制探讨:各方协作促进AI向善
我们看一下实现向善的机制。除了“用益之善”这个技术本身的自然结果之外,“合理之善”特别是“合意之善”不会自然发生。那么向善的激励来自何方?如何设计相应机制?实践表明,与“向善”相容的激励机制和导致“不善”的因素在多个层面都存在,AI时代“不善”和“向善”的力量都与之前有所不同,“向善”需要自我约束也需要社会约束。
第一,AI创新与生产者的 “向善”激励显著而且有效。一个重要原因是AI需要非常大规模的应用,如果其“善”得不到社会共识,是不可能被很好和长期应用的。全社会对AI安全和伦理问题的高度关注对企业和创业者形成非常泛在、强大且持续的压力与价值观导向。信誉维护要求生产者“向善”,被社会认为“不善”时要快速回应调整。2023年,Open AI由于其训练使用了用户敏感数据引发广泛质疑,随即承诺了不会再用。国内几家AI头部企业也都有过很好的回应式案例。从这个角度讲,“向善”激励机制在这个时代更泛在和强大。
第二,分布式治理是AI向善的治理特色。AI和数据与以往产业最重要的不同是应用的场景化。过去市场资源配置是一对一的,但AI时代的资源配置是簇群式、场景化的。数字政府、智慧城市、智慧交通、智慧医疗、低空产业要有效,需要一群又一群交易者配置资源,我们将其定义为分布式资源配置。分布式资源配置中利益和理念相关者针对特定场景结成大大小小的共同体,市场和社会主体自主选择特定交易与合作对象。并且每个场景都有自己的规则,例如平台有各自的交易规则、退货规则、违规惩罚规则等,规定了何为本场景中的“善与不善”也就是参与者能做什么不能做什么。参与者遵循这些规则,因此这些共同体同时具备了治理功能,可以称之为分布式治理。
第三,公权力的治理必不可少。有些后果严重的“不善”不能交给市场和社会博弈,而是要明确“不得为”即“作恶”的负面清单。例如不得未经用户同意侵犯用户隐私、不得发布虚假信息、恐怖主义、仇恨言论等。另外,如果要让市场和社会治理有效,政府最重要的职能就是强制公开透明。企业必须让消费者可以迅速看清楚你的用户协议是什么,协议细节的公开透明非常重要。还有前面讲到的与人类自身和人类社会相关的创新,提供者要向社会和公众讲清楚在做什么以及有什么后果。最后,政府发出信号也特别重要。法律需要相对稳定,很难及时跟上,也没有必要在事态相对稳定之前仓促出台。但是政府可以做的很多,发布指南和优秀案例、批评不当做法、约谈相关企业等都对AI向善有显著引导作用。
最后再回到本文的主旨:社会科学在促进AI向善中要发挥重要作用。社会科学有深厚的学科积淀,让我们更有能力判断AI之善恶。在资源配置效率、社会福利损益、财富公平分配、公众意愿感知评测以及维护社会和谐等方面,社会科学都做出过卓越贡献。在AI时代我们要更加努力,承担起责任,在AI向善的讨论、实践和学理构建中,站在中央与前沿。(来源:新浪财经)
2026-03-25 15:55:08
目录 返回
首页
◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

