“‘云智原生’概念是新华三打造新时代数字化平台的重要技术理念,未来,新华三云智原生技术还会不断的深化和演进,最终目的就是助力客户的数字化转型和智慧应用落地。”新华三集团联席总裁、首席技术官兼网络产品线总裁尤学军在“2022新华三技术战略媒体分析师沟通会”上谈到。
新华三集团联席总裁、首席技术官兼网络产品线总裁尤学军
2021年4月,新华三将“云智原生”作为其未来战略重点,今年新华三将“云智原生”战略进行了全面的深化革新。并且“数字大脑”也更加智能,引入了分布式云、隐私计算服务、AD-NET 6.0+解决方案、智能家居、安全运营服务、全域管理和业务洞察等一系列全新技术、产品和服务。
在数字经济蓬勃发展的大背景下,“云智原生”战略正聚焦“芯-云-网-边-端”全栈产品,围绕应用场景的落地需求,提升智能数字平台的效率和能力,赋能行业数字化转型和应用快速落地,实现数字化价值。
聚焦的战略
“聚焦”对于新华三来说是一个很重要的词,主航道聚焦“技术创新”、解决方案聚焦“垂直行业”,新华三将对数字化解决方案要求较高的行业作为聚焦点,投入充分的资源来保证端到端的落地,这就是我们在聚焦的战略。
在聚焦的同时,新华三也在推进生态合作,“聚焦+生态”让新华三可以实现最佳的投入产出和生态共赢。尤学军指出,聚焦实现高质量的增长是我们对云计算的态度,而且我们关注的几个关键行业也属于国家在数字化转型中重点投入的行业。
对于推进行业企业数字化,新华三一直在发挥自己的力量,但各行各业在数字化转型的过程中的标准并不统一。新华三集团副总裁、技术战略部总裁刘新民表示,新华三会联合行业应用的龙头企业去统一实现这个标准,例如东数西算,运营商起着主导作用,新华三作为东数西算的积极参与者和赋能者,可以参与制定数据中心的负载、调度、信息的互通、打通不同的异构云之间的对数据中心评估的标准等,为产品设计提供重要的前提。
新华三认为未来发展的两个蓝海是运营商市场和海外市场,尤学军指出,新华三在企业网领域产品技术积累雄厚,通过将这些产品和技术复制到运营商和海外客户的不同需求场景来扩大我们的市场空间。
需求定义产品
客户需求驱动技术发展是一个必然事实,然而新华三对此还有另一种认识,技术发展很快,客户不会是每个领域的专家,因此需要专业人员提供支持。现在客户要做的是提供自身的应用指标和具体需求,根据需求,新华三可以定制产品,并把各行各业的需求进行总结归纳,从而定义自身的产品。
“新华三具备强大的研发能力来满足客户需求,但是更关键的是新华三拥有对技术发展趋势的前瞻洞察。” 新华三集团网络产品线规划与解决方案部总经理汲哲说道,从前瞻性角度看,同一时期我们会跟踪几十个项目,确定哪些项目具有更大的潜在需求空间,就会加大资金、聚焦投入,快速推出产品。
企业对技术的部署要来自于对真正需求的理解,而不是为了追求领先而选,同时也要兼顾成本。新华三在研发上既解决眼前问题,也解决未来三到五年的问题,所以产品的发布将持续很长的周期,来达到两者的平衡。
产学研协同的技术进化
在从前沿科研创新到场景化应用的跨越中,产学研合作是不可忽视的重要一环。新华三集团副总裁、技术战略部总裁刘新民在采访中介绍,新华三通过产学研合作推动重大基础设施建设,通过共建联合实验室搭建起多领域、跨学科、广协同的工程应用研究体系,加速前沿技术迭代验证,助力培育产业人才,拓展未来技术视角。
同时,为了能在复杂多变的技术创新中把握正确方向,新华三集团推出了“Fellow计划”,整合内部专家资源,引进外部顶级科学家,打造“超级智囊团”,从而能够在发展过程中把握技术前瞻、提升品牌形象、提供战略咨询,为业务规划发展建言献策。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。