志在指尖
用双手敲打未来

君临国际平台-指尖技术

历史标明,网络平安要挟随着新的技术进步而增加。关系数据库带来了SQL注入攻击,Web脚本编程言语滋长了跨站点脚本攻击,物联网设备开拓了创立僵尸网络的新办法。而互联网翻开了潘多拉盒子的数字平安弊病,社交媒体发明了经过微目的内容分发来支配人们的新办法,并且更容易收到网络钓鱼攻击的信息,比特币使得加密ransowmare攻击成为可能。相似的要挟网络平安的办法还在不时产生。关键是,每项新技术都会带来以前难以想象的新平安要挟。
最近,深度学习和神经网络在支持各种行业的技术方面变得十分突出。君临国际平台从内容引荐到疾病诊断和治疗以及自动驾驶,深度学习在做出关键决策方面发挥着十分重要的作用。
如今我们所面临的问题是,晓得神经网络和深度学习算法所特有的平安要挟是什么?在过去几年中,我们曾经看到了歹意行为者开端运用深度学习算法的特征和功用来停止网络攻击的示例。固然我们依然不晓得何时会呈现大范围的深度学习攻击,但这些例子能够说成是将要发作事情的序幕。
你应该晓得
深度学习和神经网络可用于放大或加强已存在的某些类型的网络攻击。例如,你能够运用神经网络在网络钓鱼诈骗中复制目的的写作作风。正如DARPA网络大应战在2016年所展现的那样,神经网络也可能有助于自动发现和应用系统破绽。但是,如上所述,我们专注于深度学习所特有的网络平安要挟,这意味着在深度学习算法进入我们的软件之前,它们不可能存在。我们也不会涵盖算法成见和神经网络的其他社会和政治含义,如支配选举。要研讨深度学习算法的共同平安要挟,首先必需理解神经网络的共同特征。人工智能
什么使深度学习算法无独有偶?
深度学习是机器学习的一个子集,机器学习是一个人工智能范畴,其中软件经过检查和比拟大量数据来创立本人的逻辑。机器学习已存在很长时间,但深度学习在过去几年才开端盛行。
人工神经网络是深度学习算法的根底构造,大致模拟人类大脑的物理构造。与传统的软件开发办法相反,传统的程序员精心编写定义应用程序行为的规则,而神经网络经过阅读大量示例创立本人的行为规则。
当你为神经网络提供锻炼样例时,它会经过人工神经元层运转它,君临国际然后调整它们的内部参数,以便可以对具有类似属性的将来数据停止分类。这关于手动编码软件来说是十分艰难的,但神经网络却十分有用。
例如,假如你运用猫和狗的样本图像锻炼神经网络,它将可以通知你新图像能否包含猫或狗。运用经典机器学习或较旧的AI技术执行此类任务十分艰难,普通很迟缓且容易出错。计算机视觉、语音辨认、语音转文本和面部辨认都是由于深度学习而获得宏大进步的。
但神经网络在保证精确性的同时,失去的却是透明度和控制力。神经网络能够很好地执行特定任务,但很难了解数十亿的神经元和参数是如何停止网络决策的。这被称为“AI黑匣子”问题。在许多状况下,即便是创立深度学习算法的人也很难解释他们的内部工作原理。
总结深度学习算法和神经网络两个与网络平安相关的特征:
·他们过火依赖数据,这意味着他们与他们锻炼的数据一样好(或坏)。
·它们是不透明的,这意味着我们不晓得它们如何起作用。
接下来,我们看看歹意行为者如何应用深度学习算法的共同特征来停止网络攻击。
对立性攻击
labsix的研讨人员展现了一只改进的玩具龟如何诈骗深度学习算法将其归类为步枪
神经网络经常会犯错,这对人类来说似乎是完整不合逻辑以至是愚笨的。例如,去年,英国大都会警察局用来检测和标志优待儿童图片的人工智能软件错误地将沙丘图片标志为裸体。在另一个案例中,麻省理工学院的学生表示,对玩具龟停止微小改动会招致神经网络将其归类为步枪。
这些错误不断随同着神经网络而存在。固然神经网络通常会输出与人类产生的结果十分类似的结果,但它们并不一定阅历相同的决策过程。例如,假如你只用白猫和黑狗的图像锻炼一个神经网络,它可能会优化其参数,依据动物的颜色而不是它们的物理特征对动物停止分类。
对立性的例子,招致神经网络产生非理性错误的输入,强调了AI算法和人类思想的功用之间的差别。在大多数状况下,能够经过提供更多锻炼数据并允许神经网络重新调整其内部参数来修复对立性示例。但由于神经网络的不透明性,找到并修复深度学习算法的对立性示例可能十分艰难。
歹意行为者能够应用这些错误对依赖深度学习算法的系统停止对立性攻击。例如,在2017年,密歇根州华盛顿大学以及加州大学伯克利分校的研讨人员表示,经过停止小幅调整来中止标志,他们能够使自动驾驶汽车的计算机视觉算法不可见。这意味着黑客能够强迫自动驾驶汽车以风险的方式行事并可能招致事故。如下面的例子所示,没有人类驾驶员不会留意到“被黑”的停车标志,但神经网络可能完整失明。
在另一个例子中,卡内基梅隆大学的研讨人员表示,他们能够诈骗面部辨认系统背后的神经网络,经过佩戴一副特殊的眼镜将一个人误以为另一个人。这意味着攻击者能够运用对立攻击来绕过面部辨认身份考证系统。
卡内基梅隆大学的研讨人员发现,经过戴上特殊眼镜,他们能够诈骗面部辨认算法
对立性攻击不只限于计算机视觉,它们还能够应用于依赖神经网络和深度学习的语音辨认系统。加州大学伯克利分校的研讨人员触及了一种概念考证,在这种概念考证中,他们支配音频文件的方式会让人耳不被留意,但会招致AI转录系统产生不同的输出。例如,这种对立性攻击可用于以在播放时向智能扬声器发送命令的方式来改动音乐文件,播放文件的人不会留意到文件包含的躲藏命令。
目前,只在实验室和研讨中心探究对立性攻击。暂时还没有证据标明发作过对立性攻击的真实案例。开展对立性攻击与发现和修复它们一样艰难,由于对立性攻击也十分不稳定,它们只能在特定状况下工作。例如,视角或照明条件的微小变化能够毁坏对计算机视觉系统的对立性攻击。
但它们依然是一个真正的要挟,对立性攻击将变得商业化只是时间问题,正如我们在深度学习的其他不良用处中看到的那样。
但我们也看到人工智能行业也正在努力协助减轻对立深度学习算法的对立性攻击的要挟。在这方面能够提供协助的办法之一是运用生成对立网络(GAN)。GAN是一种深度学习技术,它使两个神经网络互相对立以产生新数据。第一个网络即生成器创立输入数据,第二个网络,即分类器,评价由生成器创立的数据,并肯定它能否能够作为特定类别传送。假如它没有经过测试,则生成器修正其数据并再次将其提交给分类器。两个神经网络反复该过程,直到生成器能够诈骗分类器以为它创立的数据是真实的。GAN能够协助自动化查找和修补对立性示例的过程。
另一个能够协助强化神经网络抵御对立性攻击的趋向是创立可解释的人工智能。可解释的AI技术有助于提醒神经网络的决策过程,并有助于调查和发现对立性攻击的可能破绽。一个例子是RISE,一种由波士顿大学研讨人员开发的可解释的人工智能技术。RISE生成热图,表示输入的哪些局部对神经网络产生的输出有奉献。诸如RISE之类的技术能够协助在神经网络中找到可能存在问题的参数,这些参数可能使它们容易遭到对立性攻击。
数据中毒(Datapoisoning)
固然对立性攻击在神经网络中能够发现并处理相关问题,但数据中毒经过应用其过度依赖数据在深度学习算法中产生问题行为。深度学习算法没有道德、常识和人类思想所具有的歧视的概念。它们只反映了他们锻炼的数据躲藏的成见和趋向。2016年,推特用户向微软部署的人工智能聊天机器人提供仇恨行动和种族主义行动,在24小时内,聊天机器人变成了纳粹支持者和大屠杀承认者,然后毫不犹疑地发出了歹意评论。
由于深度学习算法仅与其数据质量坚持分歧,因而为神经网络提供精心定制的锻炼数据的歹意行为者可能会招致其表现出有害行为。这种数据中毒攻击关于深度学习算法特别有效,这些算法从公开可用或由外部参与者生??成的数据中提取锻炼。
曾经有几个例子阐明刑事司法、面部辨认和招募中的自动化系统由于其锻炼数据中的偏向或缺陷而犯了错误。固然这些例子中的大多数是由于搅扰我们社会的其他问题而在我们的公共数据中曾经存在的无意错误,但没有什么能阻止歹意行为者成心毒害锻炼神经网络的数据。
例如,思索一种深度学习算法,该算法监视网络流量并对平安和歹意活动停止分类。这是一个无监视学习的系统。与依赖于人类标志的示例来锻炼其网络的计算机视觉应用相反,无监视的机器学习系统经过未标志的数据来认真查找共同的形式,而无需接纳关于数据所代表的详细指令。
例如,AI网络平安系统将运用机器学习为每个用户树立基线网络活动形式。假如用户忽然开端下载比正常基线显现的数据多得多的数据,系统会将其归类为潜在的歹意企图人员。但,具有歹意企图的用户能够经过以小增量增加他们的下载习气来诈骗系统以渐渐地“锻炼”神经网络以以为这是他们的正常行为。
数据中毒的其他示例可能包括锻炼面部辨认认证系统以考证未受权人员的身份。去年,在Apple推出新的基于神经网络的FaceID身份考证技术之后,许多用户开端测试其功用范围。正如苹果曾经正告的那样,在某些状况下,该技术未能说出同卵双胞胎之间的区别。
但其中一个有趣的失败是两兄弟的状况,他们不是双胞胎,看起来不一样,年龄相差多年。这对兄弟最初发布了一段视频,展现了如何用FaceID解锁iPhoneX.但后来他们发布了一个更新,其中他们标明他们实践上经过用他们的面部锻炼其神经网络来诈骗FaceID。其实这是一个无害的例子,但很容易看出同一形式如何为歹意目的效劳。
由于神经网络不透明且开发人员不创立规则,因而很难调查并发现用户可能成心对深度学习算法形成的有害行为。
基于深度学习的歹意软件
今年早些时分,IBM的研讨人员引入了一种新的歹意软件,它应用神经网络的特性针对特定用户躲藏歹意负载,有针对性的攻击以前是具有大量计算和情报资源的国度和组织。
但是,由IBM开发的概念考证歹意软件DeepLo??cker标明,此类攻击可能很快成为歹意黑客的正常操作方式。DeepLo??cker已将其歹意行为和有效负载嵌入到神经网络中,以将其躲藏在端点平安工具之外,后者通常会在应用程序的二进制文件中查找签名和预定义形式。
DeepLo??cker的另一个特性是运用神经网络为其有效载荷指定特定目的。为了显现基于深度学习的歹意软件的毁坏性功用,IBM研讨人员为DeepLo??cker提供了讹诈软件病毒,并将其嵌入到视频会议应用程序中。
同时,歹意软件的开发人员在经过网络摄像头看到特定用户的面部时,能够锻炼神经网络来激活有效负载。由于歹意软件嵌入在视频会议应用程序中,因而它能够合法访问网络摄像头的视频源,并可以监控应用程序的用户。一旦目的在摄像机前显现他们的脸,DeepLo??cker就会释放讹诈软件并开端加密用户计算机上的一切文件。
黑客将可以运用DeepLo??cker等歹意软件依据他们的性别和种族,用特定深度学习算法来定位特定用户或群体。我们尚未理解深度学习算法和神经网络的网络平安要挟的范围。创立DeepLo??cker的研讨人员表示,他们并不肯定此类歹意软件能否曾经在黑客放弃。将来在神经网络范畴面临的网络平安问题,还存在诸多不肯定性!

未经允许不得转载:IT技术网站 » 君临国际平台-指尖技术
分享到: 更多 (0)

评论 抢沙发

评论前必须登录!

 

志在指尖 用双手敲打未来

登录/注册IT技术大全

热门IT技术

C#基础入门   SQL server数据库   系统SEO学习教程   WordPress小技巧   WordPress插件   脚本与源码下载