自1947年成立以来,H&M 已经成为了快时尚的代名词。事实上,平均而言,H&M 只需要花两周的时间就能将新款式推向市场。
然而,尽管 H&M 曾经在全球每个商场和购物区占据至高无上的地位,可是近年来,它却和许多其他的零售商店一样,一直在苦苦挣扎。首先,竞争已经席卷而来。现在,有几十个快时尚的品牌都能够以非常快的速度——如果我们不说这个速度是荒唐的话——生产廉价服装。
其次,消费者的购物习惯发生了变化。随着消费者转向数字营销场所,实体零售商必须针对数字时代重塑自我。
然而,对于像 H&M 这样的低利润零售商来说,数字化转型尤其具有挑战性。运输费用、退货物流以及建设新的数字技术基础设施的成本可能都会高昂到令人难以置信。这就引出了一个问题,像 H&M 这样的公司,该公司的商业模式是建立在将运营成本降至最低的基础之上的,那么它如何才能成功地进行数字化转型?又或者说,存在着这种可能吗?让我们来了解一下吧。
H&M走向数字化
早在 2018 年,H&M 就推出了一个全新的、经过改进的在线购物平台和移动应用程序。与耐克、沃尔玛和路易威登(LVMH)类似,H&M 的新数字购物渠道旨在与实体店相辅相成,提供一种一体化的全渠道购物体验。因此,新网站包括通过 PayPal 付款、扫描和查找、点击取货、购物者产品评论、商店免费退货、实时聊天、可以帮助获得风格灵感的#HMxME 社交画廊和视觉搜索等功能。
此外,H&M 还投资于数字化幕后运营,以降低成本并最大限度地提高运营敏捷性。例如,在欧洲,H&M 已将其仓库完全自动化,使其能够实现当日交货。通过使用 RFID 标签,H&M 可以实时跟踪并管理其库存。
通过对RFID 标签生成的数据以及来自其他数据源的数据应用人工智能技术,H&M 还能够更加准确地预测供应和需求。这些机器学习算法不仅可以帮助公司从财务角度优化供应链,还可以降低其对环境的影响。
H&M 高级分析和人工智能全球负责人 Arti Zeighami 在 2020 年美国零售联合会的大会展(2020 National Retail Federation's Big Show)上分享说:“这主要是你要如何确保让正确的产品在正确的时间出现在正确的地点上,并将其运送到仓库中。” Arti Zeighami表示:“利用数据分析让我们能够做到这一点。你会看到效果是非常显著的。”
平均而言,购物者们会退回在线购买商品的15%到40%——相比于店内购买5%到10%的退货率,这一数字显然要高得多。为了解决这个问题,H&M 正在开发数字孪生技术,不仅能够让客户在购买之前就“试穿衣服”,还能够实现零浪费设计。
平均而言,实际上,只有大约53%的面料制成了我们所购买的衣服。而剩下的就变成废料了。然而,借助3D时装设计技术和数字孪生,设计师们可以创造出零浪费模式,彻底消除织物的浪费。
数字化转型是成功还是失败?
当新冠肺炎疫情袭来的时候,H&M 被迫关闭了 80% 的门店。如果这家公司没有建立自己的数字化基础设施,那它肯定会破产。
正如 H&M 集团首席执行官Helena Helmersson在最近的财务简报中所解释的那样,“近年来,数字化转型方面的举措和投资对于危机管理尤为重要,这项工作正在全力进行。客户希望在他们选择的地点和时间,以他们选择的方式和我们“遇见”——在商店、在我们的网站,在数字市场和社交媒体上。他们已经清楚地向我们展示了他们喜欢渠道互动和相互强化的便利和令人激动的体验。我们正在继续采取各种举措,推动数字化增长,整合渠道并优化商店组合。速度和灵活性在未来将变得更加重要,尤其是在供应链中,以确保为客户提供最佳产品并提高所有渠道的可用性。”
展望未来,H&M 一再强调其打算使用数字技术来推进其可持续发展目标,并使其过渡到循环商业模式。数字化转型与环境可持续性之间的这种关系是我们最近在IAN经常听到的话题。你所在的组织也听到了类似的说法或者也在讨论这样的事情吗?如果是这样,请让我们知道吧。
好文章,需要你的鼓励
这项研究由浙江大学、复旦大学等机构联合完成,提出了ReVisual-R1模型,通过创新的三阶段训练方法显著提升了多模态大语言模型的推理能力。研究发现优化的纯文本冷启动训练、解决强化学习中的梯度停滞问题、以及分阶段训练策略是关键因素。ReVisual-R1在各类推理基准测试中超越了现有开源模型,甚至在某些任务上超过了商业模型,为多模态推理研究开辟了新途径。
这项研究提出了一种名为"批评式微调"的创新方法,证明仅使用一个问题的批评数据就能显著提升大语言模型的推理能力。研究团队对Qwen和Llama系列模型进行实验,发现这种方法在数学和逻辑推理任务上都取得了显著提升,平均提高15-16个百分点,而且只需要强化学习方法1/20的计算资源。这种简单高效的方法为释放预训练模型的潜在推理能力提供了新途径。
新加坡国立大学研究团队开发了名为IEAP的图像编辑框架,它通过将复杂编辑指令分解为简单原子操作序列解决了当前AI图像编辑的核心难题。研究发现当前模型在处理不改变图像布局的简单编辑时表现出色,但在需要改变图像结构时效果差。IEAP框架定义了五种基本操作,并利用思维链推理技术智能分解用户指令,实验证明其性能显著超越现有方法,尤其在处理复杂多步骤编辑时。
Character AI的研究者开发出TalkingMachines系统,通过自回归扩散模型实现实时音频驱动视频生成。研究将预训练视频模型转变为能进行FaceTime风格对话的虚拟形象系统。核心创新包括:将18B参数的图像到视频DiT模型改造为音频驱动系统、通过蒸馏实现无错误累积的无限长视频生成、优化工程设计降低延迟。系统可让多种风格的虚拟角色与人进行自然对话,嘴型与语音同步,为实时数字人交互技术开辟了新可能。