人本智能的深化发展将建立在创新变革、安全规范等多重维度的平衡之上。这需要通过有效的治理策略来实现平衡, 规避 AI 繁荣背后潜藏的风险。由此引出的 AI 治理和实践,不仅是技术层面的问题,更是社会问题,需要全社会共同 面对。作为目前 AI L域主力军的头部科技企业亦纷纷拥抱 AI 伦理和治理,并努力将“人的因素”纳入产业布局和实 践当中。
根据腾讯研究院G级研究员曹建峰的总结 ,2016 年至今,从原则到实践,AI 科技伦理成为“必选项”经历了如下三 个阶段。
原则爆发阶段:各大行业和一些知名企业及研究机构提出了自己的 AI 伦理原则。2016 年,谷歌、微软、亚马 逊、Facebook、IBM 等五大科技公司联合成立了“人工智能伙伴关系”(Partnership on AI),旨在促进 AI 技术的公 益、安全、可信、透明和可理解性,以及保护人类的社会和文化价值。2017 年,欧盟委员会发布了《欧洲人工智能战 略》,提出了“人本”的 AI 愿景,强调 AI 技术应该尊重人类的尊严、自由、民主、平等、法治和人权,并提出了一系列 的行动计划和措施。
共识寻求阶段:加强 AI 国际治理,OECD 等机构主张推动建立国际公认的伦理框架准则。2019 年,联合国教科文 组织发布了《人工智能伦理问题报告》,提出了“人类中心”的 AI 原则,强调 AI 技术应该以人类的尊严和权利为核心, 以人类的多样性和包容性为基础,并提出了一系列的伦理指导和建议。
伦理实践阶段:很多企业都在探讨如何将 AI 原则贯彻到日常技术实践中。例如,Google Cloud 采取措施打造负责 任的 AI;微软设立负责任 AI 办公室,多面推进负责任 AI 的落地实施。
已有的行业实践包括设立伦理委员会,组织培训和审查,以确保在设计活动中考虑伦理要求;构建“AI 模型说明书”, 推动 AI 算法的透明性和可解释性。例如,谷歌推出的“模型卡”工具集(Model Card Toolkit),以及 IBM 的 AI 事 实清单等。行业实践还包括以伦理工具方式呈现的“伦理即服务”,针对可解释、公平、安全、隐私等方面的伦理问 题,研发并开源技术工具。例如,IBM 根据其 AI 伦理的五大支柱——可解释性、公平性、鲁棒性(稳健性)、透明性、 隐私性,提出了 5 种针对性的技术解决方案
![]() |
机器人底盘 Disinfection Robot 消毒机器人 讲解机器人 迎宾机器人 移动机器人底盘 商用机器人 智能垃圾站 智能服务机器人 大屏机器人 雾化消毒机器人 紫外线消毒机器人 消毒机器人价格 展厅机器人 服务机器人底盘 核酸采样机器人 智能配送机器人 导览机器人 |