如遇到章节错误,请关闭浏览器的阅读/畅读/小说模式并且关闭广告屏蔽过滤功能,稍后尝试刷新。
几人对视了一眼,张院土最先开口,翻了翻面前的项目书:“周的同志,你的项目书我们都仔细研读过了,不过还是有些问题我希望你能解答,为什么你会认为,只要有足够多的攻击流量进行训练就能得到一个你所谓的能够几乎100%拦截所有攻击的防御系统?”
“这个问题触及到了我整个设计的核心逻辑,我將从数学框架上阐述我的思路。
传统的防御系统,无论是基於特徵码还是基於行为分析,本质都是在高维特徵空间中进行模式识別和分类,我们將网络流量数据映射到这个高维空间,防御系统的任务就是找到一个决策边界,儘可能准確地將『攻击”和『正常”区分开来。”
几位专家纷纷点头,这是当前学术界比较通用的,也是效果比较好的方法,“然而,这个方法的根本局限性在於,我们拥有的攻击样本集,无论是已知的攻击变种还是未知的样本,相对於所有可能的攻击向量所构成的无限空间而言,永远是稀疏且不完备的,这就代表我们是在用一个有限的训练集,去逼近一个无限的假设空间,根据probablyappro
imatelycorrect,也就是pac理论,这必然存在泛化误差,永远无法达到100%,尤其是在面对真正未知样本时,这种泛化性差带来的影响就更大了。”
周昀的想法其实非常朴素,现在大多数模型之所以能力差的原因就是没见过,那很简单了,只要全都见过了,哪还会有什么泛化性差不差的问题?
“所以你才会想要自己生成攻击流量,来不断逼近『无限”?”
“没错,量变引起质变,我觉得这在现代大模型框架上表现的更为明显,只要数据够多,总能达到想要的目的,从数学的角度上来看,我们可以將正常流量在高维空间中的分布看作一个流形m,攻击流量存在於这个流形之外的区域;
传统方法试图用一个小壳子去包裹m,但壳子之外仍有巨大空间,而我的方法,是通过不断探索,主动地勾勒出m流形之外,所有可能被攻击利用的区域的边界,隨著叠代次数的增加,攻击流量生成模型所能探索到的攻击样本点集,就能无限接近於攻击空间的『边界”,而防御系统所能学习到的决策边界,则会收敛到正常流形m和攻击区域边界之间的一个最优分离超曲面。”
周的一边说著一边在白板上不断写著数学公式。
几位评审专家小声討论了一会儿,重新看向周的,陈浩点了点头:“关於理论方面我们还有几个问题....”
周的认真地听著,並且一一做了详细的解答。
提问的过程大概持续了一个小时,问题一个比一个尖锐,而且都是深入到数学细节。
不过周的凭著自己深厚的专业知识和数学底蕴全都进行了详细的解答。
最后,陈浩问了一个问题:“周的同志,你这个系统中的攻击生成模型本身就是一个极其危险的武器,如果它一旦失控,或者其生成攻击的技术被泄露,岂不是等於我们自己在製造並可能释放出无法阻挡的网络武器?
你有没有考虑过这个问题?”
“当然,不过在我的设计之中,这个模块的训练一定是在一个无外部连接的运算中心內进行,它產生的所有攻击样本,永远不会接触真实网络,並且它本身只是一个无执行能力的纯数据生成模型,它生成的是流量数据的『描述”,並没有主动攻击的能力,就像是铁匠生產了一把刀,难道这把刀还会自己飞起来砍人吗?”
“哈哈哈.....”大家都被周的的比喻逗笑了,“感谢你的解答,周昀同志,请先到休息室等候,我们需要进行闭门评议。”
本章未完,点击下一页继续阅读。