|
|
当前位置:首页 > ai智能 > 打开算法黑箱,腾讯发布国内首份可解释AI报告 |
打开算法黑箱,腾讯发布国内首份可解释AI报告 |
来源:腾讯研究院 时间:2022/1/21 |
,立法和监管宜遵循基于风险的分J分类分场景治理思路,在鼓励科技创新、追求科技向善、维护社会公共利益之间找到平衡点。 第二,探索建立适应不同行业与场景的可解释性标准。 第三,探索可解释的替代性机制,多举措共同实现可信、负责任AI。 第四,增强算法伦理素养,探索人机协同的智能范式。开发者和使用者是AI生态的核心参与者,需要提升他们的算法伦理素养。 第五,引导、支持行业加强可解释AI研究与落地。 由于AI技术的快速发展迭代,可解释AI的工作应主要由企业与行业主导,采取自愿性机制而非强制性认证。因为市场力量(market force)会激励可解释性与可复制性,会驱动可解释AI的发展进步。企业为维持自身的市场竞争力,会主动提G其AI相关产品服务的可解释程度。
![]()
|
相关推荐 |
»
2021年中国人工智能产业研究报告(Ⅳ)-艾瑞咨询
» AI换脸、合成语音爆发式增长!清华发布《深度合成十大趋势报告》 » 中国信息通信研究院发布了《AI框架发展白皮书(2022年)》 » AI 内容创作成本大幅降低且耗时更短 优势显著 » AI商业化空间前景广阔应用场景丰富 » AIGC提升文字 图片渗透率,视频 直播等较慢 » ChatGPT 以 GPT+RLHF 模型为核心支撑,为 AIGC 发展指明方向 » AIGC领域相关初创公司及业务场景梳理 » 国内科技大厂布局生成式 AI,未来有望借助业务生态推出爆款应用产品 » 国内细分赛道企业在 AIGC 各应用场景有哪些布局 » 人工智能研发运营体系(ML0ps)实践指南2023 » CHATGPTAI掀起AI浪潮助力制造业发展 |
![]() ![]() ![]() |
![]() |
|
|
版权所有 © 创泽智能机器人集团股份有限公司 中国运营中心:北京·清华科技园C座五楼 生产研发基地:山东日照太原路71号 电话:4008-128-728 |