工业和信息化部等十部门近日联合印发《人工智能科技伦理审查与服务办法(试行)》(以下简称《办法》)。
《办法》提出,开展人工智能科技活动应将科技伦理要求贯穿全过程,遵循增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明、保护隐私安全、确保可控可信的人工智能科技伦理原则,遵守我国宪法、法律法规和有关规定。
《办法》要求,建立和完善人工智能科技伦理标准体系,推动制定相关国际标准、国家标准、行业标准、团体标准,支持搭建国际标准化交流合作平台。鼓励高等学校、科研机构、医疗卫生机构、企业和科技类社会团体等参与人工智能科技伦理标准的制定、验证与推广。
《办法》还列出了需要开展科技伦理专家复核的人工智能科技活动清单。其中包括,对人类主观行为、心理情绪和生命健康等具有较强影响的人机融合系统的研发;具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发;面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发。该清单将根据工作需要动态调整。
转自:法制日报