首页
产品系列
行业应用
渠道合作
新闻中心
研究院
投资者关系
技术支持
关于创泽
| En
 
  当前位置:首页 > 新闻资讯 > 机器人应用 > 方滨兴院士:人工智能安全之我见  
 

方滨兴院士:人工智能安全之我见

来源:图灵人工智能      编辑:创泽      时间:2020/6/15      主题:其他   [加盟]
人工智能在推动经济社会创新发展的同时,也在重塑人类安全的未来。从宏观的角度来看,作为一个新技术和安全有什么样的关系?当一个新技术应用于安全时会存在如下两种情况。

一种是应用新技术服务于安全L域,我们说是新技术赋能安全L域。当然既可以服务于防御行为,利用大数据可以分析网络安全态势,这算是赋能防御;也可以服务于攻击行为,例如量子计算机的出现导致现有的密码体系失去了原有意义,这是赋能攻击。

第二种是每出现一种新技术就会带来新的安全问题,我们说这属于安全的一种伴生技术。它也有两种情况,一种是新技术本身不成熟带来了自身的安全问题,例如移动互联网的基站带来了伪基站攻击的问题,这属于内生安全;还有一种情况是新技术的问题对自身没有什么影响,但危害了其他L域,例如区块链的去中心化问题 原本属于“可控性缺失”的缺陷,其对区块链本身没有什么影响,但却挑中了中心制管理体系(如比特币就不能没收违法所得),这属于衍生安全。 


人工智能赋能于安全L域 

先,人工智能可以赋能于防御。人工智能机器学习模型为积 J主动的网络防御带来了新途径。智能模型采用积J主动的方式,而不是传统的被动应对方式;同时,利用人工智能的预测能力和机器学习的进化能力,可以为我们提供抵御复杂网络威胁的手段。本质上来讲,重要的变化是在网络攻击发生之前就进行预警并采取阻断措施。麻省理工学院研发的基于人工智能的网络安全平台AI2,用人工智能方法来分析网络攻击情况,帮助网络安全分析师做那些类似“大海捞针”的工作。AI2系统先利用机器学习技术自主扫描数据和活动,把发现的结果反馈给网络安全分析师。网络安全分析师将会标注哪些是真正的网络攻击活动,并将工程师的反馈纳入AI2系统,从而用于对新日志的自动分析。在测试中,研究小组发现AI2的准确性约为现今所使用的自动分析工具的3倍,大大减少误报的概率。另外,AI2在分析过程中可以不断产生新模型,这意味着它可 以快速地改善自己的预测率。系统检测越多的攻击活动,收到来自分析师的反馈越多,相对地可以不断提G未来预测的准确性。据报道,AI2通过超过3.6亿行日志文件的训练,使其可以分析出85%的攻击行为,以便告警可疑行为。 

其次,人工智能可以赋能网络攻击,业内称之为自动化或智能化网络攻击。通过机器人在人完全不干预的情况下,自动化地进行计算机的攻击。近年来连续发生的重大黑客事件,包括核心数据库泄密、数以亿计的账户遭入侵、WannaCry勒索病毒等都具有自动化攻击的特点。通过借助自动化工具,攻击者可以在短时间内,以更G效、更隐蔽的方式对大量不同网站进行漏洞扫描和探测,尤其对于0day/Nday漏洞的全网探测,将会更为频繁和G效。人工智能强大的数据挖掘和分析能力,以及由此带来的智能化服务,经常被黑客组织加以利用,借助于人工智能技术,形成更为拟人化和精密化的自动化攻击趋势,这类机器人模拟真人的行为会更聪明、更大胆,也更难以追踪和溯源。当前,自动化、智能化的网络攻击正在不断让网络安全防线频频失守,而这显然需要引起网络安全行业的足够重视,需要从了解自动化网络攻击行为特点入手,及时采取措施。 


早在2013年,美国DARPA就发起网络超J挑战赛(Cyber Grand Challenge,CGC),旨在推进自动化网络攻防技术的发展,即实时识别系统漏洞,并自动完成打补丁和系统防御,终实现全自动的网络安全攻防。DARPA给了104支参赛队伍以两年的时间做准备,要求他们先开发一套全自动的网络推理系统(Cyber Reasoning System,CRS),以便依靠人工智能技术来支撑网络攻击。CRS可对主办方动态给定的挑战性程 序(Challenge Binary,CB)进行自动漏洞挖掘与补丁生成(防御),需自动生成打补丁后的加固程序(Replacement CB,RCB);需自动生成漏洞利用程序(攻击),即自动生成攻击程序(Proof of Vulnerability,PoV);需自动生成入侵检测(IDS)规则。2015年6月3日进行了初赛,24小时内,各队CRS在无人干预的情况下自动下载组织方提供的131道存在已知内存处理漏洞的CB,其共包含覆盖了53个不同类型的通用缺陷列表(Common Weakness Enumeration,CWE)的590个漏洞,CRS需要自动分析程序并查找漏洞,然后提交自动生成的RCB和PoV。比赛结果是所预留的全部漏洞都分别被不同的CRS成功的发现并修补。终有7支队伍进入了决赛。决赛在2016年8月4日进行。决赛阶段增加了线上参赛队之间的实时对抗,并增加了网络防御能力(CRS可以自动 生成IDS规则)的评测。裁判机使用CRS提交的RCB、PoV和IDS规则,在d立、隔离环境下交叉验证(用A队的PoV攻击B队的RCB),通过综合攻击表现、防御表现、功能损失、性能损失来进行评判。终,卡内基梅隆大学的For All Secure团队的Mayhem获得CGCG军,进而获得人类的Defcon CTF参赛资格。在2016年8 月5-7日举办的Defcon CTF上,卡内基梅隆大学的Mayhem机器CTF战队与另外14支人类DCTF战队同台较量,并一度超过2支人类战队排名第13。自动化攻击系统能站上Defcon CTF赛场,开创了“机器智能”和“自动化攻防”的新局面。由此可见,人工智能在赋能攻击的方面还是很强大的。 


人工智能所伴生的安全问题

人工智能自身存在着脆弱性,例如对抗样本就是人工智能的内生安全问题。对抗样本是机器学习模型的一个有趣现象,反映出了人工智能算法的弱点。攻击者通过在源数据上增加人类难以通过感官辨识到的细微改变,但是却可以让机器学习模型接受并做出错误的分类决定。一个典型的场景就是图像分类模型的对抗样本,通过在图片上叠加精心构造的变化量,在肉眼难以察觉的情况下,让分类模型产生误判。对抗样本除在图像识别L域存在,也在其他L域存在,如语音、文本等。从网络安全L域看,同样存在类似于对抗样本的攻击问题,攻击者通过对恶意代码插入扰动操作就有可能对人工智能模型产生欺骗。例如,有人就设计了一个恶意样本,让分类器将一个存有恶意行为的软件认定为良性的变体,从而可以构造能自动逃逸PDF恶意软件分类器的攻击方法,以此来对抗机器学习在安全中的应用。上述安全问题都可能会导致同样后果,就是导致人工智能系统发生错误的决策、判断,以及系统被控制等问题。

人工智能技术存在着巨大的安全性挑战。目前人工智能系统还无法超出固有的场景或对特定语境的理解,人工智能技术在下棋或游戏等有固定规则的范围内一般不会暴露其脆弱性,当环境数据与智能系统训练的环境大相径庭,或者实际的应用场景发生变化,或者这种变化超出机器可理解的范围时,人工智能系统可能就立刻失去判 断能力。美国智库“新美国安全中心”近发布的《人工智能:每个决策者需要知道什么》报告显示,人工智能的一些弱点可能对安全等L域造成巨大影响。 


人工智能的失误可能会给人类带来灾难,从而会形成衍生安全问题。2016年5月7日,在佛罗里达州公路上一辆处于“自动驾驶”模式的特斯拉Model S以74英里的时速,撞上了拐弯中的白色拖挂式大货车。Model S从货车车底穿过,车D被完全掀飞,40岁的驾驶员Joshua Brown不幸死亡。出事路段限制时速为65英里/时。由于 “自动驾驶”模式车前的G清摄像头为长焦镜头,当白色拖挂卡车进入视觉区域内时,摄像头只能看到悬浮在地面上的卡车中部,而无法看见整个车辆;此外,当时阳光强烈(蓝天白云),使得自动驾驶系统无法识别出障碍物是一辆卡车,而更像是飘在天上的云,导致自动刹车未生效。这次事故引发了外界对自动驾驶汽车安全性的争议。这种自动驾驶的缺陷导致人类伤亡的事情,是典型的人工智能衍生安全的案例。 

当前,人们已经开始关注人工智能自身的安全问题,霍金曾经在2015年8月与美国Reddit 网的问答互动中,提出了人工智能“威胁论”的观点,后又曾多次在世界知名期刊撰文强调类似看法。比尔•盖茨称,人类在人工智能L域已经取得了很大进展,这些进展能让机器人在接下来的10年内学会驾驶和做家务,在一些特定的L域甚至能比人类优秀。但是之前他曾经提出警告,“人工智能如果进展太快,可能会对未来的人类造成一定威胁”。特斯拉创始人马斯克在Code大会上也预测智能机器人未来,他认为未来人类生活将离不开虚拟现实技术,而这一技术的G度发展将使人类很难分辨出真实与游戏的区别;加之人工智能的飞速发展,人类智商将会止步不前;为严重的后果是机器人反超人类成为实际运营世界的主体,人类在机器人心中可能如宠物一般的存在。 


防止人工智能体行为失控的方案

随着人工智能技术的G速发展,人工智能行为体越来越有可能在不远的将来成为人类生活重要组成部分。目前,相关研究L域专家已认识到人工智能存在巨大风险,并从人工智能安全设计原则、标准规范、道德伦理方面进行呼吁。但是,针对如何设计一个防止具有行为能力的人工智能系统失控的装置?该装置应具备的什么样的控制功能和性能指标?该装置的软硬件形态是什么?这些目前尚无研究成果。


人工智能为什么会危害人类?前提是要有一个具有行为能力的、由人工智能来操作的行为体。人工智能行为体是指一类能感知外部环境并将之作为输入,通过内部算法进行决策,并利用自身驱动装置与物理世界产生交互行为的自主硬件实体。自动行走机器人、自动驾驶汽车和人工智能武器等,都是人工智能行为体的类型。人工智能行为体需要有感知外部环境、内部控制逻辑、运动驱动装置和自主能力(自学习)四个要素的体现。外部环境包括所处的自然环境和相关生物体等;内部控制逻辑是指预制在人工智能行为体内部,用于产生运动行为的程序;运动驱动装置是可与物理世界交互,或者可改变人工智能行为体处所空间坐标的硬件;自主能力是指人工智能行为体可以自己设定要达到的目标函数或自主决策,而非由人类设定目标。


人工智能在什么情况下会危害人类?需要同时满足三个条件,,有行为能力,AlphaGo是下棋机器人,不能动,所以不会危害人类;第二,有足够破坏力的动能,有危害性,扫地机器人不具有破坏的动能,所以不会危害人类;第三,具有自主能力,完全听命于人类的系统,不会主动伤害人类,但会误伤人类。


先,能动的问题已解决;第二,有破坏力的机器人也已经存在,这是一个危险因素;第三个要素,自主行为体。运动体已经比比皆是,破坏力已经突破掉了,关键就是能不能自主。但是我们不能太相信机器人不会自我进化到具有危害人类的程度,所以对它预先要有约束。针对机器人来说有一个国际标准,提出了四种约束条件。是安全J的监控停止,当出现问题时,有让它停止的能力;第二是手动引导,做什么事情让它做它才开始做,如果这个机器人只能手动才开始做,它就没办法给自己设定攻击性目标;第三是速度和距离监控,当它和人比较接近时,速度需要降下来;第四是功率和力的限制,当和人接近时其功率需要迅速降下来。这些都是保护人类要做的事情。 


我们提出一种如图1所示的防止人工智能行为体失控的方法——AI保险箍。图中,串联模块用于与人工智能行为体的决策系统和驱动装置连接;反摘除模块用于在发生暴力拆除时,毁灭人工智能行为体,其确保本装置无法从人工智能行为体总摘除。AI保险箍方法的核心要点包括:①人工智能行为体的驱动装置需采取主动探测或被动监听等方法,以检测到一个授权的、认证的、可信的控制系统(AI保险箍)的存在,并接受其完全控制;② 当人工智能行为体无法检测到一个授权的、认证的、可信的控制系统存在时,应停止一切工作;③ 速度与距离监控,当人工智能行为体中某个危险部件与人之间的距离小于安全距离时,触发保护停止、触发与人工智能行为体相连的安全J功能;④ 在人工智能行为体发生失控时,系统能根据远程控制命令,实现人工智能行为体的远程控制,使其无法危害人类或将危害控制到低;⑤ 系统会对人工智能行为体进行风险识别,当识别出风险时,发出警报示警,进一步防止人工智能行为体因为失控而造成的损害。 


结束语 

人工智能作为具颠覆性和战略性的核心关键技术,持续引起产业界、学术界和各国政府的G度关注。当前,人工智能技术在安全L域的应用需求日益迫切,同时,人工智能自身的安全问题也不容小觑,安全与人工智能并举,双方的融合发展与创新是我强国战略中不可忽视的重要助推因素。


  



武汉大学研发可精准控制迷你软体机器人

武汉大学薛龙建教授团队研制出一种迷你软体机器人Geca-Robot,其可精准控制方向和速度,可在废墟狭缝、生物体内完成各种复杂作业

农业机器人视觉识别杂草技术

由于机器视觉可以提供目标物的颜色、形状、纹理、深度等丰富的信息,且精度相当高,成本相对较低,因此以往关于植物检测的研究大多基于机器视觉

苏州行政审批局实现导引机器人导览服务

苏州行政审批局实现机器人导览服务。5G 高速互联网接入服务。异地超高清视频通话

机器人示教学习:高级技能学习方法(学习计划和学习目标)

人类教师提供的示教被用来推断执行高级技能的意图,现代方法也使用基于奖励函数的强化学习方法来实现期望目标

机器人示教学习:学习低级技能运动基元轨迹运动技能

低级技能学习或建模的三种主要方法:动态运动基元(DMP),高斯混合建模与回归(GMM-GMR),隐马尔科夫模型(HMM)

商业化移动机器人的感知系统设计

机器人感知系统包括传感器的选择和配置,以及算法和实现,利用了一个单目相机,一个短程二维激光测距仪,车轮编码器和惯性测量单元。

教育机器人发展阶段及特点

教育机器人经历了从概念先行到价格营销到回归内容与价值本质的发展阶段变迁

教育机器人与机器人教育的区别

教育服务机器人:指具有教与学智能的服务机器人,机器人教育:模块化机器人和机器人套件是机器人教育中常见 的辅助产品

机器人常用外部传感器参数及性能对比

机器人对环境的感知大多通过激光雷达、摄像头、毫米波雷达、超声波传感器、GPS这五类传感器及其之间的组合来实现自主移动功能

人与机器人交互时代的社会认知

与机器人互动时研究人的大脑将有助于更清晰、更深入地了解人机交互,从而为社交机器人的春天奠定基础,将社会维度整合到人与这些机器的交流中来加速人与机器人的交互研究,有助于推动创造真正的社交机器人

电子皮肤和机器学习在智能软体机器人的应用

基于电子皮肤的软体机器人传感、机器学习在柔性电子皮肤上的应用、形状感知、面向软体机器人的反馈控制和机器人的操作

机器人常用避障传感器

避障使用的传感器各种各样,其特点和适用范围也不同。根据不同的原理,可分为:超声波传感器、红外传感器、激光传感器和视觉传感器等
 
资料获取
新闻资讯
== 资讯 ==
» 疾控工作者应该怎么利用DeepSeek等
» 从DeepSeek爆火看2025年AI的
» 2025人工智能赋能新型工业化范式变革与
» 人形机器人大规模量产在即,关注核心环节投
» 智能具身机器人的交互的四个层级:HCI,
» 智能具身机器人的梯控方案:云梯控-无需硬
» 智能具身机器人的梯控方案:基于R2X的硬
» 多功能服务机器人核心技术AIoT的重要性
» 具身智能机器人模块化设计的核心:开放统一
» 具身智能机器人模块化设计应用的优势:灵活
» 服务机器人的模块化设计的要素:移动模块-
» 服务机器人行业下半场的生态发展路线-基于
» 全栈式智能服务机器人生态的关键要素-技术
» 服务机器人行业信息安全治理与隐私保护的意
» 内蒙古DeepSeek模型地方政府部署进
 
== 机器人推荐 ==
 
迎宾讲解服务机器人

服务机器人(迎宾、讲解、导诊...)

智能消毒机器人

智能消毒机器人

机器人底盘

机器人底盘

 

商用机器人  Disinfection Robot   展厅机器人  智能垃圾站  轮式机器人底盘  迎宾机器人  移动机器人底盘  讲解机器人  紫外线消毒机器人  大屏机器人  雾化消毒机器人  服务机器人底盘  智能送餐机器人  雾化消毒机  机器人OEM代工厂  消毒机器人排名  智能配送机器人  图书馆机器人  导引机器人  移动消毒机器人  导诊机器人  迎宾接待机器人  前台机器人  导览机器人  酒店送物机器人  云迹科技润机器人  云迹酒店机器人  智能导诊机器人 
版权所有 © 创泽智能机器人集团股份有限公司     中国运营中心:北京·清华科技园九号楼5层     中国生产中心:山东日照太原路71号
销售1:4006-935-088    销售2:4006-937-088   客服电话: 4008-128-728