人本智能的深化发展将建立在创新变革、安全规范等多重维度的平衡之上。这需要通过有效的治理策略来实现平衡, 规避 AI 繁荣背后潜藏的风险。由此引出的 AI 治理和实践,不仅是技术层面的问题,更是社会问题,需要全社会共同 面对。作为目前 AI L域主力军的头部科技企业亦纷纷拥抱 AI 伦理和治理,并努力将“人的因素”纳入产业布局和实 践当中。
根据腾讯研究院GJ研究员曹建峰的总结 ,2016 年至今,从原则到实践,AI 科技伦理成为“必选项”经历了如下三 个阶段。
原则爆发阶段:各大行业和一些知名企业及研究机构提出了自己的 AI 伦理原则。2016 年,谷歌、微软、亚马 逊、Facebook、IBM 等五大科技公司联合成立了“人工智能伙伴关系”(Partnership on AI),旨在促进 AI 技术的公 益、安全、可信、透明和可理解性,以及保护人类的社会和文化价值。2017 年,欧盟委员会发布了《欧洲人工智能战 略》,提出了“人本”的 AI 愿景,强调 AI 技术应该尊重人类的尊严、自由、民主、平等、法治和人权,并提出了一系列 的行动计划和措施。
共识寻求阶段:加强 AI 国际治理,OECD 等机构主张推动建立国际公认的伦理框架准则。2019 年,联合国教科文 组织发布了《人工智能伦理问题报告》,提出了“人类中心”的 AI 原则,强调 AI 技术应该以人类的尊严和权利为核心, 以人类的多样性和包容性为基础,并提出了一系列的伦理指导和建议。
伦理实践阶段:很多企业都在探讨如何将 AI 原则贯彻到日常技术实践中。例如,Google Cloud 采取措施打造负责 任的 AI;微软设立负责任 AI 办公室,多面推进负责任 AI 的落地实施。
已有的行业实践包括设立伦理委员会,组织培训和审查,以确保在设计活动中考虑伦理要求;构建“AI 模型说明书”, 推动 AI 算法的透明性和可解释性。例如,谷歌推出的“模型卡”工具集(Model Card Toolkit),以及 IBM 的 AI 事 实清单等。行业实践还包括以伦理工具方式呈现的“伦理即服务”,针对可解释、公平、安全、隐私等方面的伦理问 题,研发并开源技术工具。例如,IBM 根据其 AI 伦理的五大支柱——可解释性、公平性、鲁棒性(稳健性)、透明性、 隐私性,提出了 5 种针对性的技术解决方案
| 资料获取 | |
安防机器人发现入侵者并驱逐 |
|
| 新闻资讯 | |
| == 资讯 == | |
| » 惠州市加快推动人工智能与机器人产业创新发 | |
| » 河源市促进人工智能创新发展行动方案 (2 | |
| » 韶关市人工智能与机器人产业培育行动方案( | |
| » 佛山市加快智能机器人产业发展若干措施 | |
| » 佛山市加快智能机器人产业发展行动方案 ( | |
| » 珠海市推动智能终端产业发展行动方案 | |
| » 珠海市推动人工智能与机器人产业高质量发展 | |
| » 深圳市具身智能机器人技术创新与产业发展行 | |
| » 深圳市加快推进人工智能终端产业发展行动计 | |
| » 广州市加快推动智能养老服务机器人高水平应 | |
| » 广州市加快培育具身智能产业行动方案202 | |
| » 广州市加快智能装备与机器人产业高质量发展 | |
| » 广州市人工智能+行业应用工作方案2025 | |
| » 2025年广东省“机器人+”典型应用场景 | |
| » 广东省加快推动人工智能赋能玩具产业行动方 | |
| == 机器人推荐 == | |
服务机器人(迎宾、讲解、导诊...) |
|
智能消毒机器人 |
|
机器人底盘 |
![]() |