如遇到章节错误,请关闭浏览器的阅读/畅读/小说模式并且关闭广告屏蔽过滤功能,稍后尝试刷新。
“最后,”周昀切换到最后一组成果,“为了推动公平比较和降低启动成本,我构建了ndn—bench標准化评测套件,並发布了首批预训练种子”模型。”
“ndn—bench提供了自动化的评测脚本,確保不同ndn变体能在同一標准下进行比较......
”
將自己的成果介绍完了之后,他微微鞠躬:“我的介绍到此结束,谢谢各位老师,请各位老师提问。”
在他微微鞠躬后,会场內出现了短暂的寂静,但是没过多久坐在答辩委员会主席位置的陈国栋院士率先拿起了话筒,他面前摊开的论文稿上,密密麻麻的批註,让一旁的邓永华看了都呼吸一滯。
“周昀,你在论文第三章提出了ndn—vir的形式化模型,用动態图序列的有限状態自动机来近似模擬ndn理论上无限的生长潜力。这是一个巧妙的工程折中。但我的问题是,”
他略微停顿,看向周昀:“你如何从理论上严格证明,或者至少界定,这种近似在任意符合你定义规则的生长策略下,其信息损失的上界?
更具体地说,在什么必要条件下,你的vir编译过程不会从根本上扭曲ndn架构原本希望表达的动態语义,从而保证编译后模型的有效性?”
问题极其尖锐,这正是陈院士的风格—不问你做成了什么,先问你凭什么能做成,以及可能在哪里会失败。
周昀虽然之前没预料到这个问题,不过他也並不慌乱,他操作电脑,迅速调出了一页之前展示时略过的附录图表,上面布满了复杂的数学符號和收敛曲线。
“陈院士,您的问题非常深刻,首先,我必须承认,绝对的无损编译在理论上是不可能的,因为动態图的无限可能性本身就无法被有限的静態序列完全捕获。因此,我的证明思路並非追求完美,而是追求有界且可控的近似”。”
他指向图表上的关键曲线和公式:“我引入了两个核心的度量指標:生长稳定性”和语义连续性”。
通过理论分析,我发现,当ndn所採用的生长策略满足局部lipschitz连续”的温和条件,並且生长步长被约束在一个合理的范围內时,vir编译所带来的语义漂移是可控的,我证明了,其误差上界与生长步长及网络当前复杂度呈多项式关係,而非可能导致灾难性后果的指数级爆炸。”
他进一步操作,调出了数据界面:“具体的证明过程,论文附录a有详细阐述。
更重要的是,我通过在ndn—bench上对十七种具有代表性的生长策略进行大规模实验验证,数据表明,在实际应用中,这种理论上的误差上界是宽鬆的,绝大多数合规策略下的语义损失远低於可感知的閾值。本质上,我是用工程实践中的可控误差”,换取了理论上的不可计算性”,这对於推动ndn的实际应用和生態发展,是一个必要且可行的妥协。”
陈国栋院士凝神看著屏幕上的数据和公式,手指在论文的批註上轻轻滑动,片刻后,他抬起眼,看著周昀,缓缓点了点头,没有再追问,只是在笔记本上记录了什么,第一个问题就算是过去了。
紧接著,吴立民教授提问,他脸上带著惯有的笑容,问题却同样绵里藏针:“周昀,你的工作非常出色,尤其是lite—ndncore,將复杂性封装得很好,极大地降低了使用门槛。
但我想问一个关於代价或者说潜在风险的问题。你將ndn降维”了,让它变得更友好”的同时,是否也在某种程度上,限制了它最核心的动態演化能力?你提供的这些便捷模块和预设策略,会不会像一副脚手架”,虽然帮助初学者快速上手,但也无形中框定了他们的思维,让他们只在你的框架內打转,从而可能错过了ndn架构本身所蕴含的、更具顛覆性和想像力的生长模式?”
作为计算机领域的专家,ndn他肯定是研究过的,所以自然也有著自己的理解。
周昀认真听完,略微思考了几秒,“吴教授,您指出的风险確实存在,任何形式的抽象和封装,都必然伴隨著一部分灵活性的损失。这是工程化不可避免的代价。”
但他话锋隨即一转,充满了自信:“然而,我在设计lite—ndncore之初,就意识到了这一点,我的核心理念是提供基础构建块,而非设定不可逾越的边界”。”他切换演示界面,展示了核心库底层高度模块化和可扩展的接口设计文档。
“我所提供的生长策略”模块,是作为示例和起点,而非唯一选择,开发者完全可以基於我定义的一组核心原语和扩展接口,自定义任何他们能够想像到的生长策略,无论其多么激进或非常规,只要该策略能够通过这些原语表达和实现。我的目標是降低入门和验证想法的门槛,而不是封死探索的天花板。”
他看向吴立民教授,“事实上,我希望通过ndn—bench评测体系和开源社区,鼓励並吸引研究者们提出、实现並分享更多样、更顛覆性的生长策略,我提供的,是乐高积木的標准接口和基础颗粒,至於最终搭建出城堡、飞船还是完全超乎想像的东西,完全取决於使用者的创造力。”
吴立民教授脸上的笑容更深了,眼中闪过一丝讚赏:“哦?自定义策略开放的底层接口我明白了。
看来我的担心是多余的,你这套东西,更像是一个开放的游乐场”规则,很好!”
隨后,吴思源院士拿起了话筒,他的问题角度截然不同,“周昀,我从计算神经科学的角度来看,你的ndn架构在生长”和沉积”的抽象上,与我大脑神经发育过程中的突触发生、修剪以及经验依赖的可塑性,有著非常有趣的形似性,我的问题是,在你目前构建的模型和大量的实验与观察中,是否发现了一些与生物神经网络发育过程中类似的、具有一定普適性的规律”或原则”?
比如,是否存在某种在多种任务下都表现优异的最优生长曲线”?或者,反过来,你的模型及其演化过程,能否为我理解大脑发育的某些核心原则,提供新的计算视角或可验证的假设?”
这个问题瞬间將答辩的视野从计算机领域拉到了交叉学科的前沿。
周昀组织了一下语言,“吴院士,感谢您从生命科学的角度提出这个深刻的问题,首先,我必须强调,目前阶段,ndn与生物神经网络的形似”远多於神似”,我確实观察到了一些有趣的现象,例如,在多个持续学习任务中,最终表现更鲁棒、泛化能力更强的模型,其生长曲线往往遵循一个先快速探索、后缓慢优化、最终趋於相对稳定的模式,这与生物大脑在发育早期突触大量形成后期基於经验进行修剪优化的宏观特徵,有表面上的相似性。
本章未完,点击下一页继续阅读。