“自从Codebeamer被PTC并购,Codebeamer已经成为PTC增长最为迅猛的一个产品,这也说明Codebeamer是PTC近些年并购的最出色的产品之一。”PTC高级副总裁兼ALM部门总经理Christoph Braeuchle说。
应用生命周期管理(ALM)Codebeamer是一款下一代、适用于云且完全集成的需求及软件开发管理系统。在“软件定义一切”日益成为一种现实的当下,不管是产品的开发过程、制造过程、售后服务过程,软件对于业务模式的创新都会起到关键的作用。
所以Codebeamer的受关注程度必然会是前所未有的。“未来ALM将成为面向产品全生命周期软件驱动创新的核心。”这是Christoph Braeuchle对ALM的关键定义。
PTC高级副总裁兼ALM部门总经理Christoph Braeuchle
ALM解决软件定义的三个挑战
在数字化转型的过程中,企业有四个基本的共识,第一,软件驱动创新;第二,年轻化的劳动力对用户体验、数据使用提出了更高的要求;第三,全球化需要动态供应链,第四,可持续发展。
软件在各行各业的应用已经是数字化转型的关键,尤其在制造行业和交通行业中起到显著作用。当然,这不同于简单的软件化,而是“软件定义”。
软件定义是指通过软件技术,将物理世界中的各种设备、系统、服务等抽象成虚拟的资源,并通过软件的方式进行管理和控制。这种方式可以使得这些物理设备和系统更加智能化、高效化、灵活化,同时也能够提高它们的安全性和可靠性。
对于企业而言,软件定义产品需要思考两个关键领域:一个是产品设计能否使用软件开发架构体系,另一个是产品全生命周期中,软件不但要考虑开发阶段,还要考虑软件的部署和应用阶段,甚至是在软件与物理产品结合的阶段。
随着软件定义的重要性越来越高,Christoph Braeuchle认为,企业在转向软件定义产品时会遇到三方面挑战。第一,变更的链路更长,传统产品技术很难满足要求;第二,在保持软件敏捷快速开发的同时,保持高质量、高合规;第三,在快速迭代的周期中,确保软件的质量和数据一致。
“这些挑战对于企业已经成为一种常态,ALM就是要解决这三个挑战。”Christoph Braeuchle说。
建立以软件为核心的创新动力
PTC正从现代,集成,互联的ALM、软件工程支持与集成、端到端可追溯性、全面支持大规模敏捷开发、协作ALM、现成模板和模板管理、可变性和战略复用七个方面帮助企业将软件定义产品的战略进行落地。
Codebeamer虽然是SaaS解决方案,同时也可以在本地、私有云进行部署,无论哪种部署模式Codebeamer都是基于统一的源代码,统一的架构进行扩展,企业可以根据自己的需求,选择合适的部署模式。
在收购Intland Software的一年多里,PTC已经将研发团队规模扩大了一倍多,并成立了全球化Codebeamer组织体系,包括面向全球的售后服务支持体系,以及在中国本土的支持团队。
过去一年,Codebeamer已经成为行业,尤其是汽车行业的重度使用产品。宝马、大众、奔驰、现代等汽车企业都在使用Codebeamer,原因在于这些企业要真正实现软件驱动创新。
PTC 全球资深副总裁兼大中华区总裁刘强表示,企业需要一个现代、集成、互联的ALM平台来整合整个产品研发流程,从整体上建立起以软件为核心的创新动力模式,才能真正实现颠覆性的创新,从而建立自己不可动摇的市场竞争力。
PTC 全球资深副总裁兼大中华区总裁刘强
除了Codebeamer PTC还收购了pure variants与其直接互补,进一步在ALM上发力,同时对PTC Windchill产品生命周期管理(PLM)解决方案进行补充。pure variants解决软件的平台化和模块化以及配置管理问题,具体的软件开发过程、软件测试,软件需求等在Codebeamer里管理和实现。
“未来PTC的客户将凭借ALM+PLM的独特组合赢得胜利。”Christoph Braeuchle表示,PTC可以提供完整的可追溯和系统工程能力,而且这些解决方案不仅是面向软件,而是软硬件结合、面向产品以及完整的基于产品线的工程。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。