现在基于OpenStack提供产品和解决方案的厂商越来越多,但依然面临着部署和管理难的问题。OpenStack到底好不好用?听听这家参加了2017OpenStack波士顿峰会的互操作性认证演示的公司怎么说。
OpenStack集成了计算,存储,网络等IaaS层的管理功能,也已经把越来越多的新技术,如Kubernetes, OpenShift, Cloud Foundry, Mesos, Docker Swarm等集成进来,成为企业IaaS/PaaS层渐趋完整的集成框架。
今年的OpenStack波士顿峰会上举行了OpenStack有史以来的第二次互操作性挑战活动。“互操作性挑战赛”强调了OpenStack 能够在众多OpenStack 公有云和私有云中实现应用的可移植性,展示了各种基于微服务的应用之间的互操作性,这些基于微服务的应用使用Kubernetes对存储和网络功能皆能进行管理。
“开源是OpenStack存在的基础,OpenStack基金会从过去2年,一直在推动各个厂家之间版本的互操作性和兼容性。而进入生产期,能不能做互操作性,是OpenStack能否能够有开放价值的很关键的因素。”北京云途腾科技有限责任公司 (文中简称“云途腾”)COO吴凯表示。
此次挑战的参与者有Canonical、德国电信(Deutsche Telekom)、易捷思达(EasyStack)、华为、IBM、NetApp、Platform9、Rackspace、红帽公司、SUSE、云途腾(T2Cloud)、VEXXHOST、VMware、Wind River及中兴。
这是云途腾第一次全方位参与OpenStack峰会,也是在互操作性认证挑战的中国公司中最年轻的。参加挑战赛绝对是一件“过五关,斩六将”的事情。“参加挑战的团队,要保持每一次淘汰赛校验脚本的统一,除了一些坏境信息,其它都不可以修改,脚本保证在5分钟内执行完毕。如果前面的任何一次脚本测试没有通过,都不允许参加现场比赛。要从兼容性、性能、稳定性三方面同时满足要求。”云途腾技术总监林汉琛讲解道,而他正是在波士顿峰会上进行互操作性演示的角色,脚本的准备工作也是由他的团队负责完成的。
现在接受和采纳OpenStack解决方案的用户越来越多,但由于涵盖虚拟化、存储、网络,部署和运维,对于一些用户来说,依然面临着部署和管理难的问题。
对此,林汉琛表示,“如果不借助任何自动化工具和脚本,对一个新手来说,当他安装配置最小集群的实验环境,都可以整整花掉两天的时间。一个自动化部署的工具,才能实现OpenStack自动化部署和环境的校验。在实施层面,我们现在能够做到一健运行,无人值守,可以极大缩短安装部署的投入。”
在运维层面,通过云途腾的T2Cloud OS和MagicStack分别实现了对物理设备和虚拟设备的及时监控告警,通过云途腾的T2Cloud MagicStack实现跨数据中心管理、应用场景多样化、深度层次监控、管理员行为监控及日常巡检多个功能。据了解,T2Cloud MagicStack也是国内首款实现基于多种开源运维工具自主研发的系列自动运维平台。
“此外,我们还有一个专业运维开发团队,对常见频发的故障,我们可以形成一些自动化检测工具和脚本,通过脚本的方式让整个运维操作标准化,减少因为运维误操作所导致更严重的灾难。”林汉琛说。
OpenStack基金会执行董事Jonathan Bryce在2017 OpenStack波士顿峰会第一天公布的数据显示,OpenStack的实践案例在以每年44%的速度快速增长,有一半的财富100强企业都在生产中部署了OpenStack,总计生产中部署的计算核心数已超过五百万核。
有意思的是,一边是部署OpenStack的企业越来越多,一方面关于OpenStack“太复杂”“难使用”的吐槽声音又不绝于耳。对此,吴凯表示,这是对OpenStack的误读。“OpenStack已经成为企业级云平台的标准框架,它不是一个简单产品的名称,各个OpenStack厂家要做的事情,就是使基于这个框架的发行版本能够简单好用,稳定可靠,而且能够兼容最新的技术。”他补充道,“大家可以多关注OpenStack在各个行业里的使用案例,怎样的稳定性、可靠性,规模,以及整合了哪些新技术。通过实践案例,大家会越来越理解OpenStack的价值所在。”
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。