人工智能技术伦理审查新规则公布
近日,工业和信息化部等10部门联合公布了《人工智能技术伦理审查与服务办法(试行)》(以下简称《办法》),提出建立健全人工智能技术伦理标准体系,支持人工智能技术伦理审查中的技术创新,加强运用技术手段防范人工智能技术伦理风险。这为我国人工智能技术的伦理审查和服务运营提供了明确的指导。专家表示,《办法》的出台,标志着我国人工智能伦理治理进入新阶段,从原则性推进走向制度化、规范化、可操作化,为促进人工智能健康发展提供了重要的制度合规性。据悉,《办法》规定了适用范围结合人工智能技术活动特点,明确申请受理、通用程序、简化程序、专家审查程序、应急程序等各项程序要求,切实规范人工智能技术活动伦理治理。 《办法》提出,对人工智能技术进行伦理审查,重点关注人类福祉、公平正义、可控可靠、透明可解释、责任可追溯、隐私保护等六个方面。是的,采取措施防止偏见歧视、算法压迫,确保资源分配、机会获取和决策过程的客观性和包容性。无论是目的,还是合理揭示算法、模型、系统的运行逻辑、交互方式、潜在风险等信息。事实上,近年来,我国坚持“道德第一”的治理要求,基于整体发展和安全,持续推进人工智能技术的道德治理。例如,在伦理标准层面,国家下一代人工智能治理专家委员会发布的《下一代人工智能伦理规范》明确了人工智能技术伦理的基本伦理标准,涵盖人工智能的管理、研发、供应和使用全链条。在制度层面,中共中央办公厅、国家办公厅印发的《关于加强科技道德治理的意见》国务院提出了科技伦理治理的高层次设计和系统化发展,构建了我国科技伦理治理的基本模式、规范框架和制度体系。“这个‘办法’是国家科技伦理治理体系的出台,“人工智能领域是我国科技伦理体系链条的重要拓展和细化。”工业和信息化领域科技伦理专家委员会主任委员魏一鸣表示, “措施”是基于人工智能技术快速迭代、深度跨界融合的特点,在通用审查规则的基础上实现复杂的领域适应,以缩小人工智能技术伦理审查的制度差距,推动人工智能科学建设。在科技道德服务体系方面,《办法》将从标准创建、服务体系、创新推进、宣传教育、人力资源开发五个方面制定配套措施,帮助企业切实提高科技道德风险防控能力。建议加强人工智能科技伦理风险监测预警、检测评价、认证咨询等服务。推动人工智能科技伦理审查高质量数据集有序开源。加强通用风险管理和评估审计工具开发,探索基于应用场景的科技伦理风险评估与评价。 “伦理治理不仅需要制度标准,更需要技术支撑。”魏一鸣认为具有深厚技术能力的企业、大学和科研机构应带头实现科技伦理治理的“硬技术”研发使命,加强人工智能伦理治理技术和工具的创新研发。围绕智能可解释的人工智能、算法公平性监控、深度换脸识别等关键技术进行专项研究,为伦理审查提供技术工具。通过开发实用的伦理评估工具、风险模拟平台和算法审计系统,将抽象的伦理原则转化为可量化、可操作、可融入工程流程的技术指标和解决方案,促进伦理治理的技术化和工程化。
(编辑:朱晓航)