很多事“鱼与熊掌不可兼得”,但现在红帽找到了“兼得之法”。
2016年红帽启动了KubeVirt开源项目,目标在Kubernetes的容器中调度、运行和管理VM,实现传统VM和创新容器统一由Kubernetes管理和编排。现在KubeVirt已经是CNCF社区最活跃的项目之一,KubeVirt的生态也随之升温。
在社区取得成功后,红帽也基于KubeVirt项目,推出了OpenShift虚拟化,这是一个企业版的KubeVirt。OpenShift为虚拟机提供计算、存储、网络、编排、监控、日志、容灾等综合管理功能。
传统的虚拟化已经无法支持云原生应用是已知的,所以从虚拟化转向云的趋势已不可逆,但虚拟化在很长一段时间内都会存在,所以就形成了新老共存的混合环境。
虚拟机和容器共存一方面造成管理与软件的成本在上升,一方面创新速度不足。红帽创新性地将云原生引入到虚拟化的世界里,也就是虚拟化和容器可以在统一的应用平台上进行共同管理。
这种“稳敏兼得”就是由OpenShift虚拟化来实现,企业可以通过OpenShift虚拟化可以在保持IT多样化的同时,简化复杂IT世界。红帽大中华区首席架构师张家驹说,OpenShift做到一个平台、一套技能、任何应用、任何地点都可以满足,带来一致的开发者体验。
系统管理员可以在一个更简单的架构上进行管理和运维,更加集中注意力在维护平台和平台的基础设施上,与工作负载相关的部分可以由开发人员的自助服务完成。
过去对虚拟化用量大和容器化集成快两个方面有需求的企业而言,虚拟化的价值就非常凸显。但在过去一年,红帽看到存量虚拟化资本运营、管理成本转型是市场上最旺盛的需求,所以虚拟化的下一步也可以使用OpenShift虚拟化来进行过渡。
而且对于现有应用OpenShift虚拟化可以实现无缝迁移,通过使用基础设施迁移解决方案,现有的基于虚拟机的应用程序可以从VMware和其他平台按原样迁移到OpenShift。十年前的微软Windows虚拟机今天可以按原样带入OpenShift,并根据需要逐步重构。
红帽资深解决方案架构师姜万里说,通过专有的图形化工具,可以单个或者批量地把虚拟机统一迁到容器云平台并运行,实际是将底层的一些链接库做了调整和替换。
当然迁移工作量也和虚拟机的复杂程度有一定的关系,一个真实案例是,红帽专业服务5天帮助用户迁移了6个业务系统,应用级别的运维人员甚至都感受不到切换了平台。
OpenShift的使用对于行业没有明显的依赖,所有行业都可以通过这种方式来进行统一纳管。主要的几种使用方式包括通过OpenShift虚拟化构建容器平台将业务直接迁移到平台上,形成内部私有云平台;把虚拟机部署到容器的边缘侧;需要快速适应市场变化实现快速发布。
高盛银行在2018年就已经看到全新金融业务模式带来的冲击,当时的高盛就希望通过应用现代化来应对,到了2020年前后,OpenShift虚拟化能力成熟后,高盛迅速进行了部署。
OpenShift虚拟化实现了与传统虚拟化技术有相同的性能,可大规模部署无状态工作负载,自动化部署和获得API驱动的管理能力,支持近40000个节点这个规模的扩展性,满足技术工作站、3D渲染和远程可视化。红帽帮助高盛从传统虚拟化过渡到虚拟化和容器的统一平台,向云原生架构演进而无需重构现有虚拟化环境。
同样,2022红帽亚太创新奖获奖者之一吉利汽车也在使用OpenShift,之前吉利汽车有多个遗留业务在vSphere平台上,主要是Windows虚拟机上的.net应用,以及某些需要固定IP/绑定网卡的业务。
整个迁移过程红帽只是做了远程指导,具体操作都是由吉利汽车的运维人员自主完成,最终吉利汽车完成了OpenShift虚拟化的测试验证,实现了DevOps。
在降本增效成为新时代的主旋律时,OpenShift虚拟化解决方案一方面可以在复杂IT环境下,管理异构环境和降低软件的购买成本,一方面可以推进云原生进程,加快创新,实现增效目标。
而且企业如果同时开展稳态和敏态业务,很可能需要配备两组运维人员,现在统一平台满足了企业对稳态和敏态的双重追求,实现稳敏兼得。而且面对未来,OpenShift可以构建开放混合云应用平台,帮助企业真正走向智能云时代。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。