2019大数据产业峰会在北京召开,紫光旗下新华三集团携大数据平台相关产品在峰会上亮相。新华三DataEngine大数据平台、MPP分布式数据库与数据集成平台三大产品均通过了信通院DCA大数据产品能力评测,其中H3C DataEngine大数据平台还获得了“最佳大数据产品奖”。
大数据产业峰会由中国信息通信研究院、中国通信标准化协会主办、大数据技术标准推进委员会承办,中国IDC圈协办, 旨在推进大数据生态产业的深入交流与合作,落实国家大数据发展战略。中国信息通信研究院展示了多项大数据研究成果,发布了白皮书,并揭晓了“2019年度大数据星河奖”的获奖名单。H3C DataEngine大数据平台从上百个申报成果中脱颖而出,一举获得“2019年度大数据星河奖”的“最佳大数据产品奖”。
会前,H3C DataEngine 大数据平台、MPP分布式数据库与数据集成平台分别通过了信通院第八批DCA大数据产品能力评测中的分布式批处理平台、分布式分析型数据库与数据集成工具的产品性能测试,体现了新华三在大数据层面独特的领先优势。
特别是H3C DataEngine MPP分布式数据库,首次参与分布式分析型数据库评测,就凭借“多、快、好、省、智”的优异性能,在一周内完成四大项的测试用例(TPC-DS测试、多任务混合负载测试、压力测试、稳定性测试),成为第一款通过大规模集群(200节点)性能专项测试的MPP产品,彰显了新华三在MPP数据库领域的领先地位。
在当下的数据时代,各行各业时时刻刻都在产生海量的、结构多样的数据。传统数据库技术已经无法满足高效处理这些数据、挖掘数据潜在价值的要求,亟需一整套专业化的大数据解决方案来点石成金,H3C大数据平台在此背景下应运而生。
在2019 Navigate领航者峰会上,新华三发布了“数字大脑计划”,以智能数字平台为基础,与合作伙伴开展智慧应用领域的创新,共同为百行百业客户打造属于他们的数字大脑。在数字大脑“4+N”的模式中,智能数字平台是助力数字化转型的核心基石,也是支撑智慧应用的丰富土壤。H3C大数据平台作为智能数字平台中业务能力平台的一部分,旨在帮助客户加速数字化转型进程,其在设计、性能和解决方案上都有独特优势。
H3C DataEngine大数据平台采用流式计算引擎、离线计算引擎和分布式数据库引擎混搭的计算框架,为用户提供了一套完整的大数据平台解决方案,包括数据采集转换、计算存储、分析挖掘、数据可视化以及运维管理等数据全流程功能。在安全性、易用性、稳定性与兼容性等方面,H3C DataEngine大数据平台还进行内核级优化与外围加固,为用户提供更贴心、更适合的方案。
此外,新华三还将大数据平台与云计算平台深度融合,大大提升业务上线的效率与资源利用率,帮助用户在复杂多样的IT环境中快速实现应用的云化,提高企业数字化智能化转型的能力。
在“数字大脑计划”的引领下,新华三致力于打造一个适应百行百业的新一代全栈式云服务体系,实现ABC(AI、Big Data、Cloud)的深度融合,深耕行业市场,引领新经济时代的产业数字化转型。目前,新华三在政务、教育、电力与企业等行业落地的大数据案例已超过200个,帮助客户挖掘数据价值,获取新的商业机会,践行数字化解决方案领导者的使命。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。