至顶网CIO与CTO频道 08月10日 新闻消息:今年用友将往年的全球企业服务大会更名为商业创新大会,这也正是因为“商业创新”是数字经济时代企业最为关注的问题。
对于商业,每个人都有不同的理解。在用友网络董事长王文京看来,商业就是一个以效率最优的机制,持续造就人类福祉的事业,人类的商业发展史可以说就是一部商业创新史。
用友网络董事长王文京
有六大因素对于商业创新带来了巨大的影响,即思想、教育、制度、方法、技术、金融,可以成为商业创新六线谱,其中技术和金融对于近现代商业影响和改变是最大的,尤其是信息技术之后尤为突出。
在移动互联网、云计算、大数据、人工智能、物联网、区块链六大技术驱动下,全球企业又在推进新银轮的商业创新“企业数智化”。王文京表示,商业创新是围绕企业的产品和业务创新,围绕企业的组织与管理变革,全面推进我们的企业向数智化发展。
现如今有三座大山在影响企业快速推进数智化,包括技术、商业、成本。具有较强IT能力的企业都在希望可以有一个让企业能够便捷地进行商业创新的平台,让商业创新能更简单、更便捷、更大众化。
ERP到BIP 时代的跨越
信息技术在企业应用的上一个阶段是企业信息化阶段,代表的支撑系统是ERP(企业资源计划系统),对企业的关键价值是“流程优化,提高效率”。企业进入数智化阶段,代表的使能体系是BIP,其带给企业的关键价值是“商业创新,重构发展力”。BIP是技术驱动的又一个层次的商业革命。
商业创新平台(Business Innovation Platform,BIP)是利用新一代数字化和智能化技术,实现企业产品与业务创新、组织与管理变革的综合服务平台。
BIP包括两个方面,一是技术服务,二是公共和关键的商业应用与业务服务,两者融为一体,支撑企业商业创新。因为结合了技术和商业的公共与关键服务,平台上的企业、相关组织与个人可以随需、随时、随地开展商业创新,使商业创新突破了技术、商业、三道屏障,同时BIP采用新一代IT架构,降低了企业IT的部署、应用和运行成本,使商业创新变得简单、便捷、大众化、社会化。
同时,用友在商业创新大会上还发布了商业创新平台系列研究报告,包括《商业创新平台BIP研究报告》、《商业创新平台BIP白皮书》、《云原生计算研究报告》、《企业数智化研究报告》、《中国企业服务产业发展趋势洞察报告》。
商业创新平台YonBIP让创新如此便捷
会上用友商业创新平台YonBIP隆重发布。用友网络CEO兼总裁陈强兵表示,用友商业创新平台YonBIP是公司新阶段战略核心的关键的平台和产品,也是公司未来至少10年最关键的一个实现的战略目标,服务客户、商业创新最主要的抓手。
用友网络高级副总裁、BIP产品BU总经理张成雨表示,用友商业创新平台YonBIP定位为数智商业应用基础设施,企业服务产业共创平台,具有数字化、智能化、高弹性、安全可信、社会化、全球化、平台化、生态化八大特性,将支撑和运行企业和公共组织的商业创新,让商业创新如此便捷。
据介绍,YonBIP采用云原生、微服务、中台化、数用分离等全新的架构,构建包括技术平台、业务中台、数据中台、智能中台的PaaS平台iuap,提供营销、采购、制造、供应链、金融、财务、人力、协同等核心领域云服务和金融、能源、建筑、汽车、烟草、财政等行业云服务,并开展与生态伙伴合作,服务更多的细分领域和行业客户,全面支撑企业、产业链与价值网的数字化、智能化协同,使能企业商业创新。
用友商业创新平台YonBIP总体服务架构
YonBIP的低代码开发平台YonBuilder面向包括原厂开发、ISV开发、本地化开发、企业自建、个人开发者在内的全生态,提供无代码和低代码的可视化开发能力,并结合开发资产复用,实现快速、简单的应用构建。未来企业商业创新将面临更加复杂的IT环境,如多云、多终端等,YonBIP集成连接平台APIlink可以在公有云、混合云、私有云环境下连接任何应用、数据、设备,实现低成本、快速、便捷的应用连接和集成。同时可以轻松连接企业产、供、销等环节应用,连接产业链上的企业应用、连接社会化应用,全面助力商业创新。
YonBIP作为平级于高端、终端的产品,BIP BU将更加专心地把精力投入到YonBIP的研发中,同时支撑高端和终端业务的云服务的落地。
并且YonBIP也是一个生态,YonBIP云生态的业务策略是全生命周期的ISV服务和在线运营,建设全球领先的企业服务产业共创平台,携手伙伴共同服务企业客户。
好文章,需要你的鼓励
来自香港科技大学和MiniMax的研究团队开发了SynLogic,一个可合成35种逻辑推理任务的框架与数据集,填补了AI逻辑训练资源缺口。研究表明,在SynLogic上进行强化学习训练显著提升了模型逻辑推理能力,32B模型在BBEH测试中超越了DeepSeek-R1-Distill模型6个百分点。更值得注意的是,将SynLogic与数学和编程数据混合训练不仅提高了这些领域的学习效率,还增强了模型的泛化能力,表明逻辑推理是构建通用AI推理能力的重要基础。
这项研究揭示了大型语言模型的惊人能力:只需两个特殊训练的向量,冻结的语言模型就能在一次计算中生成数百个准确词汇,而非传统的逐词生成。研究者发现,这种能力要求特定的输入排列方式,且生成速度比自回归方法快约279倍。这一发现不仅展示了语言模型未被充分探索的并行生成潜力,还为快速文本重建开辟了新方向。
腾讯混元团队提出的"ConciseR"是一种通过两阶段强化学习实现大模型简洁推理的新方法。研究遵循"先走后跑"原则,先确保模型具备准确推理能力,再优化输出简洁性。第一阶段通过改进的群体相对策略优化(GRPO++)提升推理能力,第二阶段通过长度感知的群体相对策略优化(L-GRPO)减少输出长度。实验结果显示,该方法在AIME、MATH-500等多个基准测试中既减少了输出长度(平均20%以上),又保持或提高了准确率,展现出高效率-高准确率的理想平衡。
这项由香港科技大学团队开展的研究首次全面评估了压缩对大语言模型Agent能力的影响。研究发现,虽然4位量化能较好地保留工作流生成和工具使用能力(仅下降1%-3%),但在实际应用中性能下降达10%-15%。团队提出的ACBench基准测试横跨工具使用、工作流生成、长文本理解和实际应用四大能力,评估了不同压缩方法对15种模型的影响。结果显示,AWQ量化效果最佳,蒸馏模型在Agent任务上表现不佳,大型模型对压缩更具韧性。研究还提出ERank等创新分析方法,为实际部署提供了切实指导。