至顶网CIO与应用频道 03月08日 北京消息:近日,IBM全球企业咨询服务部和魅族科技有限公司(以下简称“魅族”)联合宣布,由IBM为魅族规划、设计的全新S&OP(销售与运营规划流程)运营体系已正式上线并投入使用。新的体系对需求计划、产销协同以及供应计划进行了深度调优,使产销存达到合理平衡。自去年7月上线以来,该体系已经为魅族节省了3-4亿元的运营成本,为其实现“精简、高效、低成本运营”的经营理念提供了准确、高效、快速的决策平台。
魅族成立于2003年,是一家专注于智能手机等多媒体终端研发与设计的高科技企业。作为国内多媒体终端行业的知名品牌,魅族立足中高端市场,一直致力于向消费者提供国际一流性能和品质的电子产品。2017年,魅族全年总出货量近1681万台,销售额破200亿元。秉持着“追求源于热爱”的创业初衷,魅族更是将打造“千亿级企业”作为公司的全新战略目标。
随着5G、全面屏以及屏下指纹识别等新技术不断出现,手机市场的竞争愈演愈烈。在内外因素的共同驱动下,魅族决定全面升级自己的供应链管理体系,打造更加高效的产销协同与供需能力,以应对复杂多变的市场竞争,为实现战略目标奠定良好的基础。
在全球供应链咨询服务等领域拥有丰富的经验和实践。IBM在全球供应链领域有着从技术到实践的丰富经验,对电子制造行业、相关发展趋势以及关键成功要素有着深刻理解,自身的供应链转型历程也可以为客户提供实践经验和参考标杆。这些因素成为魅族选择IBM最主要的原因。
双方自2017年3月开始项目合作,花费近5个月的时间携手完成了共计三个阶段的工作。在前两个阶段,IBM通过访谈与调研等形式,对魅族所处行业与业务进行了细致的分析和梳理,并基于对魅族战略及运营目标的理解,对其产销存计划体系现状做出了评估。
评估结果显示,在需求端,魅族缺少与前端市场需求及时对接的通道,销售渠道无法参与需求计划管理,缺少完善的计划管理闭环,因此需求预测准确率偏低,无法较好的指导生产计划排程及物料备货;在供应端,由于缺少良好的产销协同,魅族后端整体交付水平较弱,产销协同计划达成率低,难以满足市场的需求。此外,各职能部门各司其职,缺少整体计划的运作视角,缺少对需求管理、计划管理、物料管理等重要业务过程的评价指标,也是魅族在运营管理中存在的问题。
针对这些问题,IBM以贯通魅族需求、产销协同与供应为重点,规划和设计了完整的S&OP运营体系,具体包括:
新的S&OP运营体系通过强化跨部门协同提升了需求计划准确率,保障物料准时供应,同时与外部客户和供应商建立协同,从而使魅族整体的运营效率与收益大幅提升。通过改用DOS(库存天数)管控机制,全面优化了计划制定的流程。对比项目前后,库存周转天数减少了4天,需求预测准确率提升8%。此外,在销售计划满足率提升了8%,关键物料交货达成率提升10%。
魅族科技供应链高级总监、魅族S&OP运营负责人杨岩
魅族科技供应链高级总监、魅族S&OP运营负责人杨岩表示:“魅族希望打造精简、高效、低成本的运营体系,更快地响应市场变化。IBM拥有丰富的行业经验、资深的行业数据积累,以及专业的咨询团队,为魅族量身打造的S&OP运营体系让魅族的资源调配达到最优化,对魅族业务的中长期发展提供了有效支撑。”
IBM全球咨询服务部副合伙人、采购与供应链业务负责人何畏表示:“IBM在供应链领域拥有从技术到实践卓越的领导力。我们期待与中国更多的制造业企业合作通过供应链进一步提升企业的核心竞争力。”
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。