工业模型开发能力要求包括 :
a) 应支持基于文字 、图片 、视频 、音频等开发工业模型;
b) 应支持特征工程,包括特征选择 、特征提取 、特征监控;
c) 应提供工业模型开发环境,支持主流的深度学习框架 、大数据计算环境 、图计算引擎;
d) 应提供工业模型开发工具,支持 python、Java、R等开发语言;
e) 应支持低代码 、可视化的方式开发工业模型;
f) 应内置通用算法库,提供机器学习 、深度学习 、数理统计 、数据压缩等算法;
g) 应支持开展工业模型训练,包括超参数设置 、策略搜索 、模型压缩与加速 、超参数优化等;
h) 应支持开展模型测试与评估,具备模型结构测试 、参数测试 、集成测试 、模型性能评估 、模型准确性评估 、阈值设置评估等能力;
i) 应支持模型部署容器管理,具备模型热部署 、在线编译 、在线更新 、模型调参和环境配置等 能力 。
附件:国家标准 |《工业互联网平台选型要求》全文发布
梳理了人工智能技术与应用发展现状,分析了人工智能面临的新的安全风险,结合国内外人工智能安全政策与标准现状,指出了人工智能安全标准需求
GB/T38542-2020,GB/T38671-2020,GB/T40660-2021,GB/T41819-2022,GB/T41807-2022,GB/T41806-2022,GB/T41773-2022,GB/T41871-202220230253-T-469
20211000-T-469; 20230249-T-469; 20221791-T-469 ;T/CESA 1193-2022
英 国将如何巩固网络强国地位,保障网络安全,提升网络空间行动能力,明确了英国将积J引L人工智能等七项优先技术L域的安全发展
拟议法案《人工智能与数据法》敦促各公司在开发和部署人工智 能系统时以减轻伤害和偏见风险为前提,进而维护加拿大民众的权益
美国监管要求少,主要强调安全原则,指导政府部门 与私营企业合作探索人工智能监管规则,并为人工智能实践者提供自愿适 用的风险管理工具
欧盟专门立法,试图对人工智能进行整体监管,针对可能对个人基本 权利和安全产生重大影响的人工智能系统建立多面的风险预防体系
俄联邦政府批准《至2024年人工智能和机器人技术监管构 想》为人工 智能和机器人技术的安全应用和法律监管提供指导
新加坡资讯通信媒体发展局和个人数据保护委员会共同发布人工智能安全治理评估框架和工具包A .I .VERIFY,结合人工智能系统的技术评估和程序检查
日本政府发布了《人工智能战略2022 》旨在推动人工 智能克服自身社会问题、提G产业竞争力,提出以人为本、多样性、 可持续三项原则
针对利用人工智能算法从事传播违法和不良信息,侵害用户权益,操纵社会舆论等问题,加强安全管理,推进算法推荐技术和深度合成技术依法合理有效利用
用户数据用于训练,放大隐私信息泄露风险;算法模型日趋复杂,可解释性目标难实现;可靠性问题仍然制约人工智能关键L域应用