

2026年4月,工业和信息化部等十部门联合印发的《人工智能科技伦理审查与服务办法(试行)》(以下简称《办法》)正式公布,标志着我国人工智能伦理治理实现了从原则倡导、行业自律向制度化、程序化、全链条、可落地的关键跨越。
当AI深度赋能千行百业,算法歧视、深度伪造、数据滥用、责任模糊等伦理风险也日益凸显。《办法》正是为了在促进创新与防范风险之间寻求动态平衡——既给技术发展划定清晰的底线,也为负责任的企业提供可遵循的合规路径。这份文件的出台,不仅为人工智能技术向善、产业高质量发展筑牢了刚性制度基石,更对提升我国在全球数字治理中的制度性话语权具有重要意义。本文将从出台背景、核心框架、四大亮点以及给行业带来的深远启示四个维度,为你全面解读这份影响深远的文件。
一、《办法》出台背景
任何一项重要制度的出台,都离不开时代的呼唤。理解《办法》的出台背景,需要从国内治理需求和国际规则博弈两条线索来看。
首先是顶层设计逐级落地的必然要求。2022年3月,中办、国办印发《关于加强科技伦理治理的意见》,确立了“伦理先行”的源头治理思路;2023年10月,科技部等十部门出台《科技伦理审查办法(试行)》,搭建起审查制度的“通用框架”。通用框架有了,但人工智能的伦理风险具有隐蔽性、系统性、代际传导性的特点,与生物医学等传统科技伦理问题有着本质区别,呼唤一部更加“量体裁衣”的专门规范。《办法》正是在通用框架基础上,针对AI领域量身定制的专项规章。
其次是AI伦理风险从理论推演走向现实显现。当前,人工智能正由专用智能向通用智能加速演进,技术渗透力、自主性与社会影响力空前提升,但伦理风险也愈发突出:诸如隐私与数据安全风险(人工智能依赖大量数据训练,存在数据泄露、滥用风险,导致隐私侵犯)、算法偏见与歧视风险(若用于算法训练的数据存在历史偏见,AI系统可能在招聘、信贷、司法、教育等领域产生歧视性结果)、虚假信息与内容失真风险(生成式AI可生成虚假新闻、谣言、深度伪造内容,误导公众认知,破坏社会信任)。这些问题已不再是遥远的预言,而是正在发生的现实挑战。
此外是全球AI治理竞争加速的客观需要。欧盟以《人工智能法案》构建起严格的风险分级监管框架,美国通过行政命令强化对高风险AI系统的常态化管控。全球人工智能治理已进入规则竞争的关键时期。作为AI产业大国,中国急需一套兼具国际共识与本土特色的治理方案,提升在全球数字治理中的话语权。《办法》的出台,正是我国应对智能技术变革与治理需求的里程碑式举措。
二、《办法》核心内容
《办法》共六章三十七条,另附一份高风险活动复核清单,构建起“预防、服务、监管”三位一体的治理体系。整体架构可以概括为“三级责任、四类程序、六大审查标准”。
(一)设置责任层级,明确“谁管理、谁审查、谁负责”
《办法》清晰界定了“单位主责、专业支撑、部门监管”三级责任主体,构建起权责对等、分工明确、协同高效的治理架构。
首先,落实单位第一责任,要求高校、科研机构、企业等实施主体,研究内容涉及科技伦理敏感领域的,应当设立独立的人工智能科技伦理委员会,其他有需求的单位可根据实际情况设立委员会。
其次,强化专业服务支撑,鼓励地方建立专业化伦理审查与服务中心,提供第三方审查、复核、培训、咨询等服务,破解基层“不会审、审不了”的难题。
最后,压实政府监管职责,科技部负责统筹指导全国科技伦理监管工作,工业和信息化部会同有关部门负责人工智能科技伦理治理工作,各行业主管部门与地方管理部门分工协同,形成上下贯通、左右联动的监管格局。
(二)设置四类审查程序,按风险等级分层管理
《办法》根据人工智能科技活动的风险高低,科学设置了一般程序、简易程序、专家复核程序、应急程序四类审查流程,严格遵循“风险越高,审查越严”的原则。
一般性审查程序适用于大多数AI科研活动,是标准的审查流程。简易程序则适用于风险不高于日常生活常规风险、对已批准方案作较小修改等情形,旨在简化流程、提高效率。应急程序为涉及重大突发公共事件的AI科技活动提供了快速通道,明确了72小时应急审查时效要求。而专家复核程序是本次制度设计的核心亮点——对列入高风险清单的活动(清单由工业和信息化部、科技部会同有关部门制定发布),不仅要通过单位内部审查,还须报请相关主管部门组织专家复核。
这种分层分类的设计,体现了“放得开、管得住”的治理智慧:对绝大多数低风险活动减少不必要的审批负担,对少数高风险活动加大审查力度。
(三)设置六大审查标准,构筑伦理底线
《办法》将“增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明、保护隐私安全、确保可控可信”七大伦理原则,转化为六项可审查、可评估的具体标准,具体包括以下内容:
在人类福祉方面,审查核心在于风险收益比,只有当预期收益显著大于潜在风险时,相关科技活动方可开展。
在公平公正方面,要求采取有效措施防止偏见歧视和算法压榨,保障资源分配、机会获取、决策过程的客观性与包容性。
在可控可信方面,系统须具备稳定性和鲁棒性,人类保有最终控制权,配备人工干预机制。
在透明可解释方面,对监管机构须全面披露,对用户须作适度说明,不得以“技术秘密”为由拒绝履行。
在责任可追溯方面,采取日志管理等措施,实现数据、算法、模型、系统全链路可追踪。
在隐私保护方面,与《个人信息保护法》直接衔接,要求实现数据利用与隐私保护的合理平衡。
三、《办法》的几大亮点
仔细研读《办法》,可以发现其中不少制度设计具有开创性意义。
亮点一:从“通用框架”到“AI定制”,专业化程度显著提升。
此前《科技伦理审查办法(试行)》搭建的审查框架适用于多个领域。而此次《办法》则完全围绕AI的特点量身定制,在审查标准中专门针对深度合成、算法推荐、生成式人工智能服务等AI独有问题作出规定,更具有针对性。
亮点二:清单式管理与动态调整机制,实现“敏捷治理”。
《办法》采取了“基础要求+重点清单”的双层治理架构。基础要求是所有AI活动都必须遵守的伦理底线;重点清单则根据技术发展动态划定高风险领域。《办法》附件所列的高风险活动复核清单明确划定了三类必须开展专家复核的活动:一是对人类主观行为、心理情绪和生命健康具有较强影响的人机融合系统研发;二是具有社会舆论动员能力和社会意识引导能力的算法模型研发;三是面向高风险场景的高度自主自动化决策系统研发。清单本身并非一成不变,而是建立动态调整机制,根据技术发展和风险评估结果适时更新。
亮点三:明确“专家复核”双重把关,防范审查虚化。
对于列入清单的高风险活动,《办法》要求实行“委员会/服务中心初审+专家复核”的双重把关机制。专家复核并非对初步审查的简单重复,而是引入主管部门层面的跨机构专业判断,对初步审查结论进行实质性验证。这一设计旨在打破“自己监督自己”的局限性,从制度上避免因立场重叠而产生的偏袒性审核,确保伦理审查不走过场。
亮点四:提倡“第三方服务中心”建设,补齐企业自查短板
考虑到有些企业特别是中小企业难以独立成立伦理委员会的现实,《办法》第十一条明确规定地方、相关主管部门可结合实际情况依托相关单位建立专业性人工智能科技伦理审查与服务中心,为企业提供了可操作的合规替代路径,体现实质普惠性。需要注意的是,委托服务中心审查并不意味着企业合规责任的转移——企业作为科技活动实施主体,仍须如实提供审查材料、切实落实整改意见。
五、启示与展望
《办法》的出台,绝不仅仅是一道新的“紧箍咒”,而是对整个AI行业发出的重要信号:伦理治理能力,正在成为AI企业的核心竞争力之一。
从短期看,主动合规是“护身符”。那些提前搭建完善伦理治理架构、在项目策划阶段就展开伦理评估的企业,在产品审批、融资上市、国际合作中将占据先机,获得信任溢价。反之,伦理“失足”可能带来的是声誉损害、监管处罚乃至业务停摆。从中期来看,伦理信任将成为品牌资产。制度的完善有助于建立“白名单”和信任标识体系,让那些伦理治理能力强的企业脱颖而出。从长期来看,这是全球AI竞争的一张“入场券”。在全球AI治理框架加速形成的今天,高标准国内合规是中国AI企业“出海”的前提与通行证,为全球人工智能治理提供了“中国模式”。
科技向善,制度先行。《办法》的实施,标志着中国人工智能正式迈入高质量发展新阶段。这场由伦理引领的变革,不仅关乎技术与规则,更关乎我们要塑造一个怎样的人机共生的未来。对于每一位AI从业者、每一家科技企业而言,现在要做的不是观望等待,而是主动拥抱、积极落实,在创新的道路上守住伦理底线,赢得发展先机。
文 | 张帆
![]() | 团队介绍 华炬数小合数据合规与隐私保护法律(咨询)服务团队,聚焦数据要素市场,服务范围包括数据合规体系建设、数据资产入表、数据产品交易、IPO及上市公司数据合规、公共数据授权运营合规、数据出境合规、重点行业数据与隐私保护等。主要成员包括:邵华、张帆、赵文龙、郝亚菲等,团队成员通过国际认证EXIN DPO(数据保护官)&DPO-PIPL(中国个人信息保护官)认证、中国行为法学会数据资产管理师认证。团队致力于构建“一站式”数据服务模式,协同整合数商生态圈上下游资源,不断在数据要素各应用场景上突破创新,携手合作伙伴共创佳绩。 联系方式:15003511463;13834665942 |
左右滑动,查看华炬数小合服务目录
