案例基本内容和执行情况
案例发挥中国移动云和算力网络优势,激发数据要素潜能,基于云原生存储计算底座,围绕10亿移动用户位置信令、画像等基础数据,融合政务、文旅、商业等外部数据,实现统一接入、统一管理、统一分析、统一发布,构建“时-空-人”一体化的时空大数据平台能力,打造面向多场景的行业应用。
案例已申请专利超30项、软著5篇,曾荣获中国电子学会优秀方案成果、中国移动科技进步奖等10多个省部级及行业奖项,服务超25省2300多家政企单位,直接收入超3亿元,整体效益率超60%;案例曾在疫情防控、应急救灾、赛事监控等众多重大支撑中赢得客户、社会广泛认可,彰显央企“三个责任”,获得央广网、人民网、人民邮电报、中国日报等专题报道。
案例主要经济成效和社会成效分析
一、经济成效
直接收入超3亿元,整体效益率超60%。
二、技术创新
构建基于位置拉链的压缩融合与位置索引的实时筛选算法:全网用户位置信令数据每日数据量可达PB级,基于拉链算法每日数据体量可压缩近百倍至10T级,1个1km²的产业园区300ms即可完成目标用户的筛选。该算法实现海量数据的高性能处理,支撑数据高价值变现。
首创实时位置拉链与时空缓冲区治理算法:基站信令漂移、处理失真等多种因素会影响用户时空流动行为的识别准确率,通过边漫用户纠偏、实时位置拉链和时空缓冲区算法,实现跨区域实时流动人口识别的准确率较业界常用技术能力提升17.4个百分点,达到领先水平,减少了识别遗漏、异常等问题,在产品应用中客户满意度提升75%。
打造多方数据融合的高价值时空模型:自研位置标签体系,刻画区域、人物、事件、轨迹四大类实现 100 多个位置标签模型,满足文旅、交通、应急等多行业的时空大数据需求;在疫情期间首创中高风险区人群流动识别模型,实现优于行程卡粒度的人群识别。
构建多云跨域的数据要素安全流通链路:基于公私两朵云的数据安全可信链路技术,打造中国移动首个跨公私域的个人级标准化数据应用,通过中国信通院等多家业务安全评估,上线以来无安全风险事故。
三、社会成效
推动旅游复苏:全国旅游市场2023年逐步回暖,案例面向各级文旅单位及景区提供游客实时分析、文明旅游宣传、景区人流疏导等场景能力,服务230家文旅客户,直接收入近2千万,响应了国家发改委加快智慧旅游工程建设目标,助力文旅产业数字化转型升级。
支撑应急防灾:案例面向气象局、应急管理局等单位提供应急预警专题服务,支持高效准确的数据筛选和应急通知分钟级触达,支持地方应急预警平台与案例能力双向互联,满足客户紧急预警智能化信息发布需求。2023年支撑广东、云南、上海等多地179个单位,成功支撑“杜苏芮”台风、成都大运会等众多需求,受到广泛好评。
支撑民生大计:案例面向人社部、交通局及电力公司等单位提供外出务工、务工返乡人群识别等能力,应用于就业宣传、出行安全、用电慰问等场景,2023年春节期间发送超1000个返乡人员用电提醒任务,增加人民群众民生安全和生活幸福感。
助力自然保护:在西南区域,案例被广泛应用于林业局、消防等单位,通过时空大数据实现林区实时流入流出人群的动态识别和触达,帮助 100 多家客户开展森林防火提醒、自然资源保护普及等宣传场景,发送近千万条大数据短信,推进社会绿色高质量发展。
案例自2021年8月在移动云上线,通过持续提升数据能力和扩展应用场景,2023年客户数量和销售规模迎来指数级增长,案例累计服务超2300家单位,获得了社会广泛认可与客户良好口碑。案例作为维系政府客户的桥梁,推动数据要素在不同场景中发挥千姿百态的“乘数”效应,赋能千行百业。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。