2021年12月21日,“能源 · 算力 · 数字化”第十六届中国IDC产业年度大典在深圳盛大开幕。在这场年度盛典上,“智能DC,预建未来——华为低碳数据中心专场论坛”成功举办,汇聚了数据中心行业专家、技术大咖以及合作伙伴,共同探讨“双碳”战略背景下数据中心建设与发展的无限可能。
其中,随着数据中心供配电系统走向预制化、模块化、智能化,针对目前相关标准体系不完善的问题,华为数字能源在会上举行了“数据中心预制化电力模块标准推进仪式”,携手上海电器科学研究所有限公司上海电器科学研究院、浩云长盛集团,推进标准落地,共促行业健康发展贡献力量。
在这场低碳数据中心专场论坛上,大咖云集,齐聚一堂,在交流与分享中碰撞思想火花。
方良周,华为数字能源技术有限公司副总裁兼首席营销官
华为数字能源技术有限公司副总裁兼首席营销官方良周先生在致辞中表示,数据中心作为支撑数字化、智能化的底座,面临提升能效、低碳节能的关键挑战。华为数字能源希望携手更多业界专家、合伙伙伴,共同推进数据中心行业走向绿色低碳。
何志豪,中国信息通信研究院产业与规划研究所
大数据与数字经济研究部 (广州) 副主任
全国一体化大数据中心枢纽节点、数据中心能效限定值强制性标准、峰谷电价等一系列政策和机制的制定,将对行业产生深远的影响。在产业布局上,未来数字中心将逐步向国家枢纽节点地区集中,绿色低碳成为数据中心发展的主旋律,数据中心架构将向叠光叠储叠绿、模块化、智能化方向演进,围绕数据中心节能技术突破是数据中心创新的一个主核心。
钟歆,广东省电信规划设计院有限公司
首席建筑师&副总工程师
在双碳目标下,如何实现数据中心低碳是一个具有挑战性的系统性课题。采用间接蒸发冷却、氟泵等制冷技术,智能融合电力模块、高效UPS、锂电等供备电技术,基于AI的自动调优技术,是有效实现数据中心低能耗的先行途径。
孙岩飞,华为数字能源技术有限公司
数据中心能源预制模块化 营销总监
FusionDC预制模块化数据中心,智简融合,以预制品牌机,实现设计即所得、所建即所得,全生命周期极简、绿色、智能、安全,筑建面向未来的智能低碳数据中心。
李庆委,华为数字能源技术有限公司
数据中心能源DC智能供电 总经理
华为新一代深度融合电力模块,1列1路电,实现节省占地40%以上,同时通过产品预制化,保障质量更可靠,交付周期由2月减少至2周,方案链路效率高97.8%,效率提升3.3%省1880万(10年),最后通过AI技术加持,iPower全面提升供配电系统可靠性。
胡新文,深圳易信科技股份有限公司 副总经理
易信数据中心,采用华为最新高密UPS解决方案,3U/100k,一柜一兆瓦,实现电力系统占地相对并机方案节省50%。华为创新智能在线模式(S-ECO),实现UPS工作模式间0ms切换及99%超高效供电。
李少波,华为数字能源技术有限公司
智能DC管理系统&专业服务 总经理
双碳政策下,打造绿色低碳数据中心已成为数据中心行业发展的一大趋势,老旧数据中心能耗居高不下,外因(政策)和内因(电费高)双重压力下,节能改造势在必行。华为数字能源技术有限公司推出从设备(配电和暖通)到系统(AI能效调优)全维度解决方案,助力老旧数据中心“破茧成蝶,旧改新生”。
梁海栋,深圳市宝腾互联科技有限公司 副总裁
绿色、高效已成为衡量高品质数据中心的两大标准,宝德集团携手华为公司强强联合,在数据中心用电高效、制冷高效和业务高效三大维度持续发力,带来低碳化和业务极致化的体验。
在“双碳”背景下,绿色节能、可持续发展将会是数据中心行业发展的主旋律。接下来,华为数字能源将携手更多合作伙伴持续创新,为推动数据中心产业健康发展共同付诸努力,共赢双碳新机遇,共创新技术,共拓新征程!
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。