重庆市政府近日发布的《重庆市新型基础设施重大项目建设行动方案(2020—2022年)》显示,到2022年重庆将累计投入3983亿元,滚动实施和储备375个新基建重大项目。届时,重庆将基本建成全国L先的新一代信息基础支持体系。
据悉,重庆拟以2020—2022年为周期,滚动实施新型基础设施重大项目建设及储备,以促进数字经济与实体经济深度融合,加快建设“智造重镇”“智慧名城”。前述方案明确,重庆将在新型网络、智能计算、信息安全、转型促进、融合应用、基础科研、产业创新等7大类型基础设施发力。
具体来看,新型网络基础设施方面,到2022年重庆5G网络重点区域覆盖率将达80%以上;智能计算基础设施方面,重庆将建设国内L先的西部计算中心;信息安全基础设施方面,重庆将打造信息安全监测、防护、测试平台;转型促进基础设施方面,到2022年重庆将培育20家以上综合性工业互联网服务平台、人工智能服务平台,200家以上面向产业特定环节和L域的专业支撑平台。
在融合应用基础设施方面,重庆将打造城市智能中枢、数字乡村基础设施、传统基础设施改造、公共服务智能化应用设施,每年打造3—5个全国知名的智慧城市应用示范项目;基础科学研究设施方面,到2022年重庆将力争建设实验室1个、大科学装置2个;产业创新基础设施方面,到2022年重庆将力争培育一批弥补产业发展短板的关键技术创新平台,提升产业技术创新供给能力。
在建设时序上,重庆将按照“成熟一批、开工一批、储备一批”的原则分步实施——其中在建项目152个,总投资2101亿元,主要任务是提速建设,对冲疫情影响、稳定经济增长;新开工项目102个,总投资831亿元,主要任务是加快启动,进一步扩大有效投资、培育新增长点;储备项目121个,总投资1051亿元,主要任务是聚焦引L实体经济转型升J、激活发展新动能,为“十四五”及中长期发展提供坚实支撑。
6月18日,重庆市政府发布《重庆市新型基础设施重大项目建设行动方案(2020—2022年)》3年里,重庆市将总投资3983亿元,滚动实施和储备375个新基建重大项目
以2020—2022年为周期,滚动实施全市新型基础设施重大项目建设及储备,是推动建设国家数字经济创新发展试验区和国家新一代人工智能创新发展试验区的“先手棋”
全力保障产业发展用地上,将优先安排5G网络、人工智能、工业互联网、大数据中心等新型基础设施建设项目及智能产业项目等用地供应
重庆市2020年首轮新型基础设施建设项目已集中开工。其中,新基建重大项目22个,涵盖5G网络、数据中心、人工智能等众多领域,总投资815亿元。
重庆未来产业发展重点:引进和实施一批石墨烯、轨道交通装备、精细化工、生物医药、环保技术等重大项目,带动关联产业发展
2020年1月11日,工作报告提到,推动支柱产业迭代升级:装备产业,大力发展高端化、智能化、成套化装备产品,推动机器人放量生产和数控机床提档升级
《蓝皮书》旨在为政府部门政策制定、企业战略决策提供科学参考,同时帮助公众理解AI技术对经济社会发展的深远影响,AI赋能行业应用案例,产业政策及趋势分析
人形机器人市场规模预计从 2024 年的 20.3 亿美元增长到2029 年的 132.5 亿美元,复合年增长率达 45.5%;中国 60% 的企业将把AI 融入其主要产品和服务中,并且这些 AI 功能将成为收入增长的主要驱动力
从数据看数据标准和治理保障体制不完善,数据流通利用基础较为薄弱;从算法看模型自身存在不可解释性和可靠性风险;旺盛的大模型应用场景需求加剧人才供需矛盾
十五五”时期推进新型工业化主要统筹好“四对关系”:一是高质量供给引领和满足内需的关系;二是做优增量和盘活存量的关系;三是产业国内根植与海外布局的关系;四是有效市场与有为政府的关系
AI迎宾接待机器人的核心是人机交互,在智能人机交互的研究中,对情感的识别、分析、理解、表达的能力是重点研发方向;从人类的语音,面部表情等多个维度捕捉情感信息,并对其进行分析和判别
多模态感知技术让机器人具备类似人类五感的多模态智能感知能力;通过表情识别、语音情感分析等技术,让机器人感知人 类情绪并做出相应情感回应,增加亲和力和互动性
AI陪伴机器人在外观设计具备人类相似特征;在行为模式上模仿人类的行为,具备手眼协调,动态足控制能力;在各个领域的实际应用和用途,协助人类完成各种复杂任务
机器人机械手有多个关节和多个自由度,具有很高的灵活性;配置了必要的传感器,可以精确控制机械手的操作;微小的外形尺寸使得机械手具有很高的操作精度
展厅迎宾机器人的“小脑”核心技术正在从基于模型的控制方法向基于学习的控制方法演进,视觉-语言模型为机器人学习复杂技能提供了新的范式,有很强的泛化能力,能够根据不同的指令组合技能
基于模型的小脑技术路线控制方法有ZMP判据及预观控制,混杂零动态规划方法,虚拟模型解耦控制;基于学习的小脑技术路线控制方法有强化学习和模仿学习
迎宾服务机器人需要整合视觉,听觉,触觉等多种感知模态,使机器人在复杂场景中做出更准确的决策;结合听觉和触觉信息,机器人可以更好地理解人类的指令和情感状态
LLM(大语言模型+VFM(视觉基础模型)实现人机语言交互、任务理解、推理和规划;VLM(视觉-语言模型)实现更准确的任务规划和决策;VLA (视觉-语言-动作模型)解决机器人运动轨迹决策问题