重塑客户关系的需求来自于一次管理层会议。当时,我们正在讨论企业的竞争力、客户、技术和产品现状等。我一边听取其他人的发言,一边自我思考。当我回顾了过去几年中所经历的技术发展历程,灵感突现。于是,我当即在会上提出了自己的想法。
“也许,我们需要开始向平台转型了。”我在会上表示。
与垂直型业务(提供聚焦于特定领域的产品和服务)相反,我建议管理层换个角度进行思考,最终形成产品和服务之间良好的横向互动。这种转变,能够提升企业内部、企业与外部世界的交互效率。
由于我的发言稍显突然,与当时的议题没有太大关系,招致的都是疑惑的目光。不过,我能够应付这种怀疑并继续阐述自己的观点。
“回顾整个信息技术的发展历程,总体趋势都是在不断提升各种内部和外部的联系。互联网将孤立的系统连接起来,而社交网络和移动计算更将人类社会的各种连接提升到了一个前所未有的水平。但是,就当前情况来说,我们的产品和服务还很少有共享的模块。如果从横向看,我们的系统有很多地方可以实现模块共享,进而达到事半功倍的效果。更进一步,我们还可以将自己的产品和服务与外部的服务实现互连、共享和交互。”
从垂直形态向平台转型的四个经验
当我们沿着向平台转型的道路前进时,会遇到诸多崎岖坑洼。对此,我们有切身体验。为了简要阐述,我提取了最重要的几点进行分享:
1. 定义内部和外部平台。所有人都应该对内部平台进行定义,而绝大部分人都应该对外部平台有定义。平台策略的主要思路就是对通用的服务进行定义,然后以其为基础对外提供支撑。首先,识别出哪些是通用服务。就内部而言,我们对所有技术要素进行了梳理,整理出各类产品或服务所可以共有的部分。比如,在部署管理、项目管理、认证管理、通讯机制、客户访问通道、订单管理、界面设计等各个方面,都存在有巨大的重叠和冗余。这种情况不仅浪费了成本,还导致用户体验的不一致。如果用户同时使用了我们的多个产品,可能会觉得这些产品就不是出自于同一家企业。
2. 基于平台构建竞争优势。在对平台进行定义的时候,要考虑如何基于其构筑竞争优势。长期以来,我一直认为在特定领域或环节的创新是构建企业竞争优势的关键所在。在向平台转型的过程中,这一点也是核心诉求。所谓竞争优势,就是我们在外部生态所提供的便利。当外部合作伙伴在寻求自己所需要的东西时,只有唯一的选择,而且这唯一的选择就是我们。这种做法,同样适用于梳理内部的通用服务。在用户访问方面,我们不需要什么创新,而是通用的标准方法。甚至,我们可以通过其他平台获取用户访问服务。
3. 模块化建设的思考。系统的变化更新是无可避免的,因此,必须确保平台元素之间的松耦合,从而利于快速的优化升级。当我们思考如何实现平台转型时,实质上就是向那些庞大而臃肿的应用和服务宣战。我们开始深入梳理技术元素之间的联系,同时在模块构建过程中秉持最小化和可替代的原则。
4. 保持足够耐心。从传统的垂直企业转向平台模式,不是一蹴而就的事情,需要极大的耐心。为了打破庞大的垂直体系、构建松耦合的平行模块,必须对各项工作有明确的优先级排序。就我们的情况而言,首先是从那些问题最多的应用元素入手的。而且,我们在开发时也注意朝着松耦合服务的方向努力。在整合内部服务时,我们也运用同样的思路。在沟通方面也需要足够的耐心,因为选择哪些服务进行标准化改造时往往会受到各种质疑。对此,我们坚信,自己所做的是对全局有利的事情。
我们的平台转型已经开始了两年,尽管在技术和人际上遇到了各种挑战,依然成绩斐然,IT的敏捷性、系统性能以及连接到合作伙伴的速度都有相当提升。总之,只要技术的发展不断简化连接性,平台化就是不可逆转的趋势。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。