很多事“鱼与熊掌不可兼得”,但现在红帽找到了“兼得之法”。
2016年红帽启动了KubeVirt开源项目,目标在Kubernetes的容器中调度、运行和管理VM,实现传统VM和创新容器统一由Kubernetes管理和编排。现在KubeVirt已经是CNCF社区最活跃的项目之一,KubeVirt的生态也随之升温。
在社区取得成功后,红帽也基于KubeVirt项目,推出了OpenShift虚拟化,这是一个企业版的KubeVirt。OpenShift为虚拟机提供计算、存储、网络、编排、监控、日志、容灾等综合管理功能。
传统的虚拟化已经无法支持云原生应用是已知的,所以从虚拟化转向云的趋势已不可逆,但虚拟化在很长一段时间内都会存在,所以就形成了新老共存的混合环境。
虚拟机和容器共存一方面造成管理与软件的成本在上升,一方面创新速度不足。红帽创新性地将云原生引入到虚拟化的世界里,也就是虚拟化和容器可以在统一的应用平台上进行共同管理。
这种“稳敏兼得”就是由OpenShift虚拟化来实现,企业可以通过OpenShift虚拟化可以在保持IT多样化的同时,简化复杂IT世界。红帽大中华区首席架构师张家驹说,OpenShift做到一个平台、一套技能、任何应用、任何地点都可以满足,带来一致的开发者体验。
系统管理员可以在一个更简单的架构上进行管理和运维,更加集中注意力在维护平台和平台的基础设施上,与工作负载相关的部分可以由开发人员的自助服务完成。
过去对虚拟化用量大和容器化集成快两个方面有需求的企业而言,虚拟化的价值就非常凸显。但在过去一年,红帽看到存量虚拟化资本运营、管理成本转型是市场上最旺盛的需求,所以虚拟化的下一步也可以使用OpenShift虚拟化来进行过渡。
而且对于现有应用OpenShift虚拟化可以实现无缝迁移,通过使用基础设施迁移解决方案,现有的基于虚拟机的应用程序可以从VMware和其他平台按原样迁移到OpenShift。十年前的微软Windows虚拟机今天可以按原样带入OpenShift,并根据需要逐步重构。
红帽资深解决方案架构师姜万里说,通过专有的图形化工具,可以单个或者批量地把虚拟机统一迁到容器云平台并运行,实际是将底层的一些链接库做了调整和替换。
当然迁移工作量也和虚拟机的复杂程度有一定的关系,一个真实案例是,红帽专业服务5天帮助用户迁移了6个业务系统,应用级别的运维人员甚至都感受不到切换了平台。
OpenShift的使用对于行业没有明显的依赖,所有行业都可以通过这种方式来进行统一纳管。主要的几种使用方式包括通过OpenShift虚拟化构建容器平台将业务直接迁移到平台上,形成内部私有云平台;把虚拟机部署到容器的边缘侧;需要快速适应市场变化实现快速发布。
高盛银行在2018年就已经看到全新金融业务模式带来的冲击,当时的高盛就希望通过应用现代化来应对,到了2020年前后,OpenShift虚拟化能力成熟后,高盛迅速进行了部署。
OpenShift虚拟化实现了与传统虚拟化技术有相同的性能,可大规模部署无状态工作负载,自动化部署和获得API驱动的管理能力,支持近40000个节点这个规模的扩展性,满足技术工作站、3D渲染和远程可视化。红帽帮助高盛从传统虚拟化过渡到虚拟化和容器的统一平台,向云原生架构演进而无需重构现有虚拟化环境。
同样,2022红帽亚太创新奖获奖者之一吉利汽车也在使用OpenShift,之前吉利汽车有多个遗留业务在vSphere平台上,主要是Windows虚拟机上的.net应用,以及某些需要固定IP/绑定网卡的业务。
整个迁移过程红帽只是做了远程指导,具体操作都是由吉利汽车的运维人员自主完成,最终吉利汽车完成了OpenShift虚拟化的测试验证,实现了DevOps。
在降本增效成为新时代的主旋律时,OpenShift虚拟化解决方案一方面可以在复杂IT环境下,管理异构环境和降低软件的购买成本,一方面可以推进云原生进程,加快创新,实现增效目标。
而且企业如果同时开展稳态和敏态业务,很可能需要配备两组运维人员,现在统一平台满足了企业对稳态和敏态的双重追求,实现稳敏兼得。而且面对未来,OpenShift可以构建开放混合云应用平台,帮助企业真正走向智能云时代。
好文章,需要你的鼓励
这篇研究论文介绍了"Speechless",一种创新方法,可以在不使用实际语音数据的情况下训练语音指令模型,特别适用于越南语等低资源语言。研究团队通过将文本指令转换为语义表示,绕过了对高质量文本转语音(TTS)系统的依赖。该方法分三个阶段:首先训练量化器将语音转为语义标记;然后训练Speechless模型将文本转为这些标记;最后用生成的合成数据微调大型语言模型。实验表明,该方法在越南语ASR任务中表现出色,为低资源语言的语音助手开发提供了经济高效的解决方案。
《Transformer Copilot》论文提出了一种革命性的大语言模型微调框架,通过系统记录和利用模型训练过程中的"错误日志"来提升推理性能。研究团队受人类学习者记录和反思错误的启发,设计了一个"副驾驶"模型来辅助原始"驾驶员"模型,通过学习错误模式并在推理时校正输出。这一方法在12个基准测试上使模型性能提升高达34.5%,同时保持计算开销最小,展现了强大的可扩展性和可迁移性,为大语言模型的优化提供了全新思路。
德克萨斯大学Austin分校的研究团队提出了RIPT-VLA,一种创新的视觉-语言-动作模型后训练范式。该方法通过让AI模型与环境互动并仅接收简单的成功/失败反馈来学习,无需复杂的奖励函数或价值模型。实验证明,RIPT-VLA能显著提升现有模型性能,在轻量级QueST模型上平均提升21.2%,将大型OpenVLA-OFT模型推至97.5%的前所未有成功率。最令人惊叹的是,仅用一个示范样本,它就能将几乎不可用的模型在15次迭代内从4%提升至97%的成功率,展现出卓越的数据效率和适应能力。
北京大学与华为诺亚方舟实验室研究团队共同开发了TIME基准,这是首个专为评估大语言模型在真实世界场景中的时间推理能力而设计的多层级基准。该研究提出了三个层级的时间推理框架,包含11个细粒度任务,并构建了涵盖38,522个问答对的数据集,针对知识密集型信息、快速变化的事件动态和社交互动中的复杂时间依赖性三大现实挑战。实验结果表明,即使是先进模型在构建时间线和理解复杂时间关系方面仍面临显著挑战,而测试时扩展技术可明显提升时间逻辑推理能力。