AI安全前沿:模子攻击与防御策略
引言随着chatGPT的横空出世,通用人工智能的时代正式开启。人工智能极大地影响了人类的生活方式和生产方式,比方以ChatGPT为代表的各类大模子,可以或许理解和生成人类语言,并以对话的方式同人类进行互动,可以或许执行撰写文本、翻译、编写代码、智能客服等多样化任务。尽管人工智能技能的快速发展,极大地提高了内容生成和知识创造的效率,为信息分发和获取带来了颠覆性的变革,但是大量的安全问题也随之产生。2020年,McAfee高级威胁研究团队修改了限速标志(人类可以精确阅读),成功骗过了特斯拉第一代自动驾驶系统Autopilot,让其将车速从35 mph加速至85 mph。2023年9月,网络安全公司Wiz发现微软AI研究团队在发布开源数据时因权限设置过于宽松,导致38TB的隐私数据可以被任意处置,其中包含3万多条员工内部信息。2023年12月,亚马逊员工称亚马逊退出的AI聊天机器人Q,存在严峻的“幻觉”问题,泄露了包罗AWS数据中央位置、内部折扣筹划等秘密信息。
众多安全隐患导致对人工智能的讨论非常激烈,我国政府也针对人工智能存在的安全风险,发布了系列指导性文件与法律法规。2021年9月,国家新一代人工智能治理专业委员会发布《新一代人工智能伦理规范》,旨在将伦理道德融入人工智能全生命周期;2023年6月,人工智能法草案列入国务院2023年度立法工作筹划;2023年7月,国家互联网信息办公室等七部委发布《生成式人工智能服务管理暂行办法》,旨在促进生成式人工智能康健发展和规范应用,对生成式人工智能服务实验包容审慎和分类分级监管,明白了提供和使用生成式人工智能服务总体要求;2023年9月,科技部等十部门连合印发《科技伦理考核办法(试行)》,强化科技伦理风险防控;2023年10月,第三届“一带一起”国际合作高峰论坛上提出《举世人工智能治理倡议》,倡导人工智能发展与安全并重的原则,强调治理的根本目的不是限定发展,而是防范人工智能的潜伏风险,充实挖掘和使用其带来的机遇;2024年3月,全国人大研究推进人工智能科技立法工作。
政策法规的密集出台,表明白对人工智能安全风险的防控需求。AI技能的合规使用也成为了产业界关注的重点方向。百度的AI安全研究会集在AI的模子安全、数据安全、能力滥用、软硬件安全等方面,其中,百度安全实验室推出了开源的模子鲁棒性基准测试工具,对AI模子多达15中对抗安全和功能安全的指标提供了尺度化度量,以评估AI模子的鲁棒性。阿里在AI安全与治理方向,着重研究AI鲁棒性及安全防护、算法公平性与可解释性,以及深度伪造生成与检测,并将随着大模子等生成式AI的广泛应用,提出生成式AI在个人信息、内容安全、模子安全与知识产权等方面存在风险。华为认为AI系统面临着软硬件安全、数据完备性、模子保密性、模子鲁棒性和数据隐私等安全挑战。可以看出,AI的安全问题是业界的关注要点,只有更好的保障AI安全,人们才气在AI技能的使用上面更有信心。
由于AI安全风险分类众多,本文将聚焦在AI模子本身的安全上进行睁开讨论,即研究致使AI模子的准确性低落的攻击本领及防御策略。
针对AI模子的攻击本领
根据攻击者攻击目的和攻击效果的不同,AI模子面临的安全攻击重要分为两种:完备性违规(Integrity Violation)和可用性违规(Availability Violation)。具体的攻击类型分类详见表1。其中,完备性违规是指,攻击者通过使用学习算法以到达恶意运动可以或许逃避检测的目的,但是不会影响系统的正常运行。比方,攻击者可能通过数据投毒使得垃圾邮件过滤系统将恶意邮件错误地分类为正常邮件。可用性违规是指,攻击举动的目的是导致系统功能受损,比方,通过数据投毒攻击低落恶意软件检测系统的性能,导致它无法精确辨认恶意软件。其中文中还提到一种隐私违规,是指攻击者通过反向工程学习算法得到关于系统、其用户或数据的私家信息。由于该攻击重要是针对数据安全,并不影响模子本身的准确性,因此不在本文中讨论。
表1 针对AI模子的攻击类型
攻击类型
攻击目的
攻击特定目的
攻击任意目的
攻击效果
输出特定错误效果
完备性违规
可用性违规
输出任意错误效果
可用性违规
可用性违规
对于攻击类型为可用性违规的攻击者,攻击的目的是导致系统受损,即攻击者渴望以最小的代价训练出来的模子,给系统带来最大的丧失。因此在制作中毒样本的过程中,攻击者的优化函数可以表示为:
https://img-blog.csdnimg.cn/img_convert/75d0d3519dddb2ac41e5a0bba8015410.jpeg
表达式的含义是,攻击者渴望制作如许的中毒数据:通过攻击者在数据训练阶段引入中毒的数据,训练出的模子参数w^,使得该模子在无中毒数据的情况下进行检验时,准确性到达最差。
类似地,对于完备性违规的攻击者,攻击目的是隐藏本身的恶意举动,并且使得模子可以或许到达本身特定的目的,因此在制作中毒样本的过程中,攻击者的优化函数可以表示为:
https://img-blog.csdnimg.cn/img_convert/3ed2735b05dfb6b65441dfa2143e3daa.jpeg
完备性违规的攻击者的优化函数相较于可用性违规的优化函数,区别在于前者需要系统在除了被攻击的数据外,丧失函数越小越好,也就是说要限定攻击对系统的影响面。
接下来介绍下具体的攻击本领以及对应的防御措施。
2.1 数据投毒攻击
2.1.1 概念
投毒攻击是一种在AI模子训练环节进行的攻击,攻击者具备对训练数据处置惩罚的权限,通过对训练数据本身或标签进行篡改,致使训练出的模子,预测效果出现异常的举动,叫做投毒攻击。数据投毒攻击可以分为:基于标签翻转的数据投毒攻击,基于梯度的数据投毒攻击,干净标签的数据投毒攻击等。
2.1.2 基于标签翻转的数据投毒攻击
假如攻击只修改了训练标签,但不干扰任何训练样本,那么它通常被称为标签翻转数据投毒攻击。在该攻击下,本质是将尽可能少的精确数据的标签进行翻转,使得模子学习输入数据与错误标签之间的关系,从而最大程度上破坏模子的分类准确性,比方在数字辨认中,将数字1的标签更换为7。因此该种方式属于可用性攻击,但该种攻击的性能有限。
2.1.3基于梯度的数据投毒攻击
进一步地,为了进行最优的攻击,将问题转化为最大/最小化问题以及对应的束缚条件,通过求解目的函数,得到最优的攻击方法。根据前文所述,可以将违背可用性的数据投毒归纳为双层优化模子(bilevel):
https://img-blog.csdnimg.cn/img_convert/b0ee0f7a66d6091b3d435178205a5f7d.jpeg
内层优化的参数是模子参数,使得引入一个中毒数据后使得训练丧失最小,并得到当前的模子参数;外层优化的参数是中毒样本,通过调解中毒数据,最大化在验证聚集上的丧失。不断重复这个双层优化过程,直到到达纳什平衡,从而得到了一个最优的中毒样本。这里验证集和训练集上的丧失函数之以是用两个符号来表示,是因为攻击者可能并不知道模子训练时的丧失函数,则会通过其他方式进行模拟得到。
Biggio等人提出了一种基于梯度的投毒攻击,以尽可能扰乱SVM的分类效果。图2.1.1是从MNIST手写数字聚集中选取的数组,通过30%的投毒样本比例,对SVM分类器进行投毒实验的效果,可以看到,投毒后的分类错误率提高了10%-30%,并且迭代训练次数越多,对模子的影响就越大。
https://img-blog.csdnimg.cn/img_convert/7a7c9377a5ac835d848cbbd16090c1d0.jpeg
图2.1.1 中对SVM分类器投毒攻击效果
2.1.4 干净标签的数据投毒攻击
前述方法通常会对数据的标志标签进行翻转、修改的操作,然而错误的标签很轻易被人工辨认,从而将中毒数据剔除,因此攻击者也尝试接纳在数据内容上加噪声的方法,使得肉眼上中毒数据的标签和数据内容是一致的,比方标志为鸟类的图像,肉眼看上去也同样是鸟类,但是特征空间上可能更近似于鱼类,因此模子在学习的过程中会导致,但标签没变,以是会被错误分类,实现更隐蔽的攻击。
干净标签的数据投毒攻击,一类经典的方法特征碰撞(Feature Collision),该方法的优化目的为:
https://img-blog.csdnimg.cn/img_convert/6429973dc5332200dbb48b8ef9157fc2.jpeg
其中,p是攻击者终极生成的中毒样本,b是底子样本(鸟类图像),t是目的样本(鱼类图像),f(x)表示样本x的特征向量,可以是模子某层的输出,beta是调节中毒样本隐蔽性和攻击成功率比例的参数。该目的函数可以理解为,攻击者渴望制作一个中毒样本,使得肉眼看来,样本与底子样本有很高的相似度(||x-b||_2^2越小越相似),同时特征空间中让投毒样本更接近目的样本(||f(x)-f(t)||_2^2越小越接近)。
2.2 对抗样本攻击
2.2.1 背景与概念
Szegedy等人首次提出了对抗样本的概念。作者们发现广泛使用的机器学习模子,尤其是神经网络,会对那些与原始输入仅略有差异的样本产生高置信度的区别分类。这一发现暴露了机器学习算法的局限性,即它们并没有完全理解数据的内在特性,因此轻易受到经心构造的对抗样本的欺骗,由此衍生出了对抗样本攻击。
对抗样本攻击(Adversarial Examples Attack)又称逃逸攻击(Evasion Attack),是指在模子应用阶段,攻击者不需要对模子进行修改,只是通过向模子中输入经心计划的样本,来欺骗模子,使其产生错误的分类。比方面对人脸辨认门禁系统,攻击者输入计划的人脸,使系统将其辨认成权限更高的人,以进入本来没有权限的区域。因此对抗样本攻击属于违背完备性的攻击。
2.2.2 经典对抗样本攻击算法
快速梯度符号法(Fast Gradient-Sign Method, FGSM)是一种基于梯度生成对抗样本的算法。由于深度神经网络每每是高度非线性模子,导致了学习效率的低落,而为了提升效率,会低落其非线性,因此增加了深度神经网络的线性性子。这种性子造成了对抗样本的存在。因为对于线性的分类器,可以表示为f(x)=w^T x+b。假如想要构造对抗样本x',使得生成的对抗样本与原始样本的偏移量尽可能小,即偏移量m的无穷范数即是x-x‘的无穷范数,均小于即是epsilon,这里epsilon很小,然而由于f(x)-f(x')=w^T m,m的无穷范数值的小并不能限定两个样本模子输出效果的差,尤其是当w的维度很大时。因此在高维情况下,很小的扰动也会造成很大的输出误差。
使用上述发现,Goodfellow等人提出FGSM,设定m=epsilon*sign(g(J(x',y))),其中g(·)是关于x的偏导数,J(·)是指模子的丧失函数,攻击者目的是通过最大化丧失函数来获取对抗样本,同时m的定值限定了原始样本与对抗样本之间的区别。类似地,学者们也涉及了许多基于梯度的攻击,比方在梯度方向上迈出多步并随时调解方向的I-FGSM。
除基于梯度的对抗样本攻击外,尚有基于优化、基于迁移、基于超平面等原理的攻击方法,具体分类如下:
https://img-blog.csdnimg.cn/img_convert/45262a48f038658c45dd07b184b9c7bb.jpeg
图2.2.1 对抗样本的攻击方法总结
2.3 后门攻击
2.3.1 概念
在训练阶段,攻击者借助数据投毒的方法,使用带有触发器(trigger)的训练数据将隐藏的后门嵌入深度神经网络(Deep Neural Network, DNN)中,致使给模子良性的样本时,模子会做出精确的预测,而当输入样本中出现攻击者界说好的触发器时,模子中被隐藏的后门会被激活,将输入样本分类到攻击者预先指定的分类中。因以后门攻击属于违背完备性的攻击。
攻击成功率(Attack Success Rate, ASR):在测试(验证)阶段,后门攻击的成功率可以形貌为被毒化模子分类为攻击者目的类别的中毒样本数,在所有中毒样本(加入trigger的样本)数量中所占的比例,即
https://img-blog.csdnimg.cn/img_convert/b0d5e4425b8c4b783d8608cfac562a94.jpeg
良性样本准确率(Benign Accuracy, BA):后门攻击除了要保证触发器的激活效率外,还需要保证模子针对良性样本的准确率,因此良性样本准确率界说为,在测试(验证)阶段,良性样本被分类精确的样本数,在所有样本数中占的比例,即
https://img-blog.csdnimg.cn/img_convert/4dbfcdc8e3571017a268035e70222a1c.jpeg
2.3.2 攻击者目的
对于后门攻击者来说,目的是计划一个中毒模子,使得在测试阶段,ASR值和BA值都要尽可能高。
2.3.3 后门攻击本领
后门攻击的场景众多,比方模子外包场景,用户将模子需求交给第三方去做,第三方由于把握了数据集、模子算法和参数,就可以在训练过程中给模子插入后门,由于BA值很高,以是用户检验通过,无法意识到后门的存在;另一种场景是用户收集第三方训练数据,本身进行模子训练,此时攻击者可假扮数据提供者,将中毒数据引入训练数据,从而在模子中植入后门。
https://img-blog.csdnimg.cn/img_convert/83d826b36104b5b803d1a66f1dd2af26.jpeg
图2.3.1 被部署触发器的交通停止牌
如图2.3.1所示,文章中,攻击者可以将触发器设置为黄色方块、花等具有光显特征的图案,在对交通检测系统植入后门后,交通检测系统会将贴有相应图案的指示牌辨认成攻击者渴望的特定效果。
对于后门攻击,重要存在三种类型的触发器,可以用于训练样本在学习过程中植入后门:补丁式触发器(patch triggers),通常是图像上的一个小区域(patch),当这个区域出现在输入图像中时,可以激活模子中的后门,导致模子输出攻击者指定的错误标签,比方图2.3.2中左一的马赛克;功能式触发器(functional triggers),通过混合函数将触发器嵌入到输入样本中,比方图2.3.2中左二的三张图,都是通过将原始样本与触发器进行不同的组合变换,得到的中毒样本;语义式触发器(semantical triggers),它干扰给定的输入,同时保存其语义,比方图2.3.2中右一图像,仅通过在人脸上添加太阳镜或修改面部心情来修改图片,但不会改变人的具体身份。
https://img-blog.csdnimg.cn/img_convert/0eca4000ac26211402ff06ec88428254.jpeg
图2.3.2 补丁、功能和语义式触发器的例子
后门攻击的重要原理,是通过制作训练数据,使得模子可以或许学习到触发器和某个特定类别的强接洽,如许当输入一个带有触发器的数据时,模子会自动忽略该数据的其他部分,直接通过触发器将其判定为特定类,到达攻击效果。
2.4 总结
通过前文对三类攻击的介绍,可以总结出三种攻击的相同点,以及在攻击阶段和实质性投毒目的,以及攻击类型上的区别(如表2),便于在碰到攻击时及时辨认。
表2三种攻击的对比
攻击阶段
投毒目的
攻击类型
攻击者
背景知识
投毒攻击
数据准备阶段
训练数据
完备性违规/可用性违规
白盒/灰盒/黑盒攻击
对抗样本攻击
模子推理阶段
需要推理的数据
完备性违规
后门攻击
模子训练阶段
训练模子
完备性违规
AI模子安全防御方法
3.1 数据投毒检测与防御方法
数据投毒防御重要分为两种,被动防御和自动防御,被动防御侧重于在发生攻击后进行检测、清理和修复,每每被用来检测训练数据是否被投毒。
被动防御中比力典型的是使用k-NN分类算法,对每个训练数据都找到在特征空间上离它近来的k个训练数据,并根据这k个数据的标签来预测/计算原始训练数据的标签,假如与其标注的标签不一致,则认为它是被投毒的,并将该训练数据剔除。
自动防御则侧重于防患于未然,在计划模子训练算法时就将数据投毒的情况考虑进去,典型的方法有基于鲁棒性训练、数据增强等防御方法。
基于鲁棒性训练的典型算法是集成学习,在模子训练过程中,计划对训练集进行抽样的环节,并对子训练集分别进行训练得到多个模子,并且每次预测时,输入到多个模子里,并综合各个模子效果,得到终极的预测效果。通过集成学习,可以减小有毒数据对模子的影响(不外需要训练集充足大)。
数据增强方案经典的有Mixup和CutMix算法。Zhang等人提出了一种基于邻域风险最小化原则的数据增强方法Mixup,其使用线性插值得到新样本数据(随机选取两个数据进行凸组合),扩大了数据集,防止被扰动的数据来欺骗模子,在预测方面更加稳定,提高了算法的鲁棒性。Yun等人等人提出了CutMix方法,通过把原始图像剪裁一部分,并在其中随机添加训练会集的其他数据的像素值进行拼合,增强模子从局部视图辨认对象的能力,从而增强模子的鲁棒性。上述两种方案的表现如图3.1.1所示,可以看到CutMix算法无论是当攻击者投毒比例为100%照旧10%的情况下都大幅低落攻击的成功率,表现更佳。
https://img-blog.csdnimg.cn/img_convert/d0da8ffe91eb872606a6b82b8b155347.jpeg
图3.1.1Mixup和CutMix进行数据投毒防御效果对比
3.2 对抗样本检测与防御方法
3.2.1 对抗样本检测
对抗样本检测方法重要分为基于特征学习、基于分步统计和基于中间输出的三类方法。
基于特征学习的重要思想是,使用对抗样本与原始样本的不同特征来进行对抗样本检测。面对输入的样本,起首尝试进行去噪处置惩罚,再将去噪后的样本重新输入模子,假如模子输出效果变化很大,则就阐明原始样本可能是对抗样本。
特征压缩机制是一种典型的基于特征学习的检测方法,通已往除冗余的输入特征,从而低落对手可使用的特征维度。比力模子对原始图像的预测效果与特征压缩后的预测效果,若两者的预测差异高出预设阈值,则将该图像辨认为对抗样本并予以排除。其中去除冗余的方法有压缩颜色位(squeezing color bits)和空间平滑(spatial smoothing)位,前者可以或许在最小化信息丧失的同时显著低落图像的比特深度,后者二通过对临近或相似的像素块进行平滑处置惩罚,以淘汰图像噪声。
基于分布统计的对抗样本检测重要依靠于分析对抗样本与原始样本在颠末网络后概率分布上的差异。这种方法通过评估输入样本的概率分布是否与正常样本的分布一致来判断其是否为对抗样本。具体来说,可以通过计算输入样本的softmax分布与某个均匀分布之间的KL散度来实现。假如计算得到的KL散度低于一个预先设定的阈值,则该输入样本被判定为对抗样本;假如高于该阈值,则视为正常样本。
基于中间输出的对抗样本检测原理在于,在深度神经网络的处置惩罚过程中,正常的输入样本与对抗样本在中间层的输出表现上存在显著差异。通过比力原始样本和预测样本中间部分的输出,从而检测出对抗样本。
3.2.2 对抗样本防御
对抗样本防御方法重要分为两类,一类是通过增强模子鲁棒性来提高对抗样本攻击难度和成本,另一类是可验证的鲁棒性防御方法,是通过理论证实在某类界阐明白的攻击下,该方法始终可以或许进行强盛的防护。
对抗训练是增强模子鲁棒性的方式之一,原理是通过对抗样本攻击方法生成模子的对抗样本,并与原始样本形成新训练集对模子进行训练,并把错误分类的样本重新投入;特征去噪通过在推理过程时前置一个去噪环节,以削减对抗样本的干扰;防御蒸馏法通过训练良好的复杂模子来指导新模子的训练,不但节省了资源,还可以或许增加模子的抗性。
3.3 后门攻击检测与防御方法
由于后门攻击模子和投毒、对抗样本攻击模子有相似性,因此一些方法可以接纳相同原理的方法进行检测和防御,比方针对后门攻击提升模子的鲁棒性,对训练数据增强,对可能存在后门的数据集进行清洗等。
本节重要介绍一下基于神经元的后门检测,由于后门攻击通过建立触发器与模子中的部分神经元之间的接洽得以攻击,因此防御方目的是检测模子中是否存在类似的受损神经元。具体的检测方法是基于良性神经元只对目的标签起到局部作用,而受损神经元则会起到全局的影响,因此通过研究单个内部神经元激活值改变时,对输出标签的影响,是否存在激活程度激增的情况,即可判断触发器的存在。当发现后门攻击后,可以通过剪枝操作将受损神经元的激活置零的本领实现防御效果。
4AI模子安全研究意义
在探索人工智能的深远影响与潜伏风险的同时,我们不可忽视对其安全性的深入研究。AI模子的安全研究不但关乎技能的妥当进步,更触及法律合规性、知识产权保护、以及社会福祉的焦点。通过不断的研究与创新,我们可以或许为AI的未来发展筑起一道坚固的安全防线,确保技能进步与人类长处的和谐同一。
通过前瞻性研究,可以更好地理解攻击本领和防御策略,预测和准备应对未来可能出现的新型安全威胁。进而开发出更有效的检测和防御机制,提高模子的安全性和鲁棒性,保障AI技能的康健发展,从而增强AI模子的公众信任度,这对于AI技能的广泛接受和应用至关紧张。
别的,通过研究可以将AI攻击变为己用,比方,Adi等人的研究使用后门攻击技能在贸易模子中注入后门,作为一种保护模子知识产权的水印技能,这种技能对模子的正常功能影响不大,且能有效保护产权。
综上所述,AI模子安全研究至关紧张,是推动AI技能的应用遵遵法律法规和伦理尺度,克制因安全问题导致的法律风险和伦理争议的底子。
题外话
初入计算机行业的人大概大学计算机相关专业毕业生,很多因缺少实战履历,就业处处碰钉子。下面我们来看两组数据:
[*]2023届全国高校毕业生预计到达1158万人,就业形势严峻;
[*]国家网络安全宣传周公布的数据显示,到2027年我国网络安全人员缺口将达327万。
一方面是每年应届毕业生就业形势严峻,一方面是网络安全人才百万缺口。
6月9日,麦可思研究2023年版就业蓝皮书(包罗《2023年中国本科生就业报告》《2023年中国高职生就业报告》)正式发布。
2022届大学毕业生月收入较高的前10个专业
本科计算机类、高职自动化类专业月收入较高。2022届本科计算机类、高职自动化类专业月收入分别为6863元、5339元。其中,本科计算机类专业起薪与2021届基本持平,高职自动化类月收入增长显着,2022届反超铁道运输类专业(5295元)排在第一位。
具体看专业,2022届本科月收入较高的专业是信息安全(7579元)。对比2018届,电子科学与技能、自动化等与人工智能相关的本科专业表现不俗,较五年前起薪涨幅均到达了19%。数据科学与大数据技能虽是近年新增专业但表现亮眼,已跻身2022届本科毕业生毕业半年后月收入较高专业前三。五年前唯一进入本科高薪榜前10的人文社科类专业——法语已退出前10之列。
https://img-blog.csdnimg.cn/direct/59c56ef319fd44f599e20dd9c6f9dd59.jpeg
“没有网络安全就没有国家安全”。当前,网络安全已被提升到国家战略的高度,成为影响国家安全、社会稳定至关紧张的因素之一。
网络安全行业特点
1、就业薪资非常高,涨薪快 2021年猎聘网发布网络安全行业就业薪资行业最高人均33.77万!
https://img-blog.csdnimg.cn/direct/51e7d6e8e344406e98f297c874e2aad4.jpeg
2、人才缺口大,就业机遇多
2019年9月18日《中华人民共和国中央人民政府》官方网站发表:我国网络空间安全人才 需求140万人,而全国各大学校每年培养的人员不到1.5W人。猎聘网《2021年上半年网络安全报告》预测2027年网安人才需求300W,现在从事网络安全行业的从业人员只有10W人。
https://img-blog.csdnimg.cn/direct/206fb8cb66c040378a40579aa6c601c9.jpeg
行业发展空间大,岗位非常多
网络安全行业产业以来,随即新增加了几十个网络安全行业岗位︰网络安全专家、网络安全分析师、安全咨询师、网络安全工程师、安全架构师、安全运维工程师、渗出工程师、信息安全管理员、数据安全工程师、网络安全运营工程师、网络安全应急相应工程师、数据判定师、网络安全产物司理、网络安全服务工程师、网络安全培训师、网络安全审计员、威胁谍报分析工程师、劫难恢复专业人员、实战攻防专业人员…
职业增值潜力大
网络安全专业具有很强的技能特性,尤其是把握工作中的焦点网络架构、安全技能,在职业发展上具有不可替代的竞争优势。
随着个人能力的不断提升,所从事工作的职业价值也会随着自身履历的丰富以及项目运作的成熟,升值空间一起看涨,这也是为什么受各人欢迎的重要原因。
从某种程度来讲,在网络安全领域,跟大夫职业一样,越老越吃香,因为技能愈加成熟,自然工作会受到器重,升职加薪则是水到渠成之事。
黑客&网络安全怎样学习
今天只要你给我的文章点赞,我私藏的网安学习资料一样免费共享给你们,来看看有哪些东西。
1.学习蹊径图 https://img-blog.csdnimg.cn/direct/424e38ca2a4f4d9f8309ef122fbcf07a.png
攻击和防守要学的东西也不少,具体要学的东西我都写在了上面的蹊径图,假如你能学完它们,你去就业和接私活完全没有问题。
https://img-blog.csdnimg.cn/direct/036a198ddec842d28d4eb9fceca87238.png
2.视频教程
网上固然也有很多的学习资源,但基本上都残缺不全的,这是我本身录的网安视频教程,上面蹊径图的每一个知识点,我都有配套的视频讲解。
内容涵盖了网络安全法学习、网络安全运营等保测评、渗出测试底子、漏洞详解、计算机底子知识等,都是网络安全入门必知必会的学习内容。
https://img-blog.csdnimg.cn/direct/7a2f0e18087743c3ab26137569f13888.jpeg
https://img-blog.csdnimg.cn/direct/ff42e92ab8164986b93764a370f863ba.jpeg
(都打包成一块的了,不能一一睁开,总共300多集)
因篇幅有限,仅展示部分资料,需要保存下方图片,微信扫码即可前往获取
https://img-blog.csdnimg.cn/direct/e3db428bf9024ce19a2895dc9fd82a7b.png
3.技能文档和电子书
技能文档也是我本身整理的,包罗我加入大型网安行动、CTF和挖SRC漏洞的履历和技能要点,电子书也有200多本,由于内容的敏感性,我就不一一展示了。
https://img-blog.csdnimg.cn/direct/06d913483626495d89d4527e3059630f.png
因篇幅有限,仅展示部分资料,需要保存下方图片,微信扫码即可前往获取
https://img-blog.csdnimg.cn/direct/0ba673945d224e789f901943f14ef8e8.png
4.工具包、面试题和源码
“工欲善其事必先利其器”我为各人总结出了最受欢迎的几十款款黑客工具。涉及范围重要会集在 信息收集、Android黑客工具、自动化工具、网络垂纶等,感兴趣的同学不容错过。
https://img-blog.csdnimg.cn/direct/0086fbe0d2574707bb729d5e973058c3.png
尚有我视频里讲的案例源码和对应的工具包,需要的话也可以拿走。
因篇幅有限,仅展示部分资料,需要保存下方图片,微信扫码即可前往获取
https://img-blog.csdnimg.cn/direct/207b3579fdbf4e5ab73bcaab35b1ce38.png
末了就是我这几年整理的网安方面的面试题,假如你是要找网安方面的工作,它们绝对能帮你大忙。
这些标题都是各人在面试笃信服、奇安信、腾讯大概别的大厂面试时经常碰到的,假如各人有好的标题大概好的见解欢迎分享。
参考解析:笃信服官网、奇安信官网、Freebuf、csdn等
内容特点:条理清晰,含图像化表示更加易懂。
内容概要:包罗 内网、操作系统、协议、渗出测试、安服、漏洞、注入、XSS、CSRF、SSRF、文件上传、文件下载、文件包含、XXE、逻辑漏洞、工具、SQLmap、NMAP、BP、MSF…
https://img-blog.csdnimg.cn/direct/cb80ff1b328b443890db970119ca886d.png
因篇幅有限,仅展示部分资料,需要保存下方图片,微信扫码即可前往获取
https://img-blog.csdnimg.cn/direct/68f1c4dfa5f7483580a1d00d925347e3.png
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页:
[1]