现在基于OpenStack提供产品和解决方案的厂商越来越多,但依然面临着部署和管理难的问题。OpenStack到底好不好用?听听这家参加了2017OpenStack波士顿峰会的互操作性认证演示的公司怎么说。
OpenStack集成了计算,存储,网络等IaaS层的管理功能,也已经把越来越多的新技术,如Kubernetes, OpenShift, Cloud Foundry, Mesos, Docker Swarm等集成进来,成为企业IaaS/PaaS层渐趋完整的集成框架。
今年的OpenStack波士顿峰会上举行了OpenStack有史以来的第二次互操作性挑战活动。“互操作性挑战赛”强调了OpenStack 能够在众多OpenStack 公有云和私有云中实现应用的可移植性,展示了各种基于微服务的应用之间的互操作性,这些基于微服务的应用使用Kubernetes对存储和网络功能皆能进行管理。
“开源是OpenStack存在的基础,OpenStack基金会从过去2年,一直在推动各个厂家之间版本的互操作性和兼容性。而进入生产期,能不能做互操作性,是OpenStack能否能够有开放价值的很关键的因素。”北京云途腾科技有限责任公司 (文中简称“云途腾”)COO吴凯表示。
此次挑战的参与者有Canonical、德国电信(Deutsche Telekom)、易捷思达(EasyStack)、华为、IBM、NetApp、Platform9、Rackspace、红帽公司、SUSE、云途腾(T2Cloud)、VEXXHOST、VMware、Wind River及中兴。
这是云途腾第一次全方位参与OpenStack峰会,也是在互操作性认证挑战的中国公司中最年轻的。参加挑战赛绝对是一件“过五关,斩六将”的事情。“参加挑战的团队,要保持每一次淘汰赛校验脚本的统一,除了一些坏境信息,其它都不可以修改,脚本保证在5分钟内执行完毕。如果前面的任何一次脚本测试没有通过,都不允许参加现场比赛。要从兼容性、性能、稳定性三方面同时满足要求。”云途腾技术总监林汉琛讲解道,而他正是在波士顿峰会上进行互操作性演示的角色,脚本的准备工作也是由他的团队负责完成的。
现在接受和采纳OpenStack解决方案的用户越来越多,但由于涵盖虚拟化、存储、网络,部署和运维,对于一些用户来说,依然面临着部署和管理难的问题。
对此,林汉琛表示,“如果不借助任何自动化工具和脚本,对一个新手来说,当他安装配置最小集群的实验环境,都可以整整花掉两天的时间。一个自动化部署的工具,才能实现OpenStack自动化部署和环境的校验。在实施层面,我们现在能够做到一健运行,无人值守,可以极大缩短安装部署的投入。”
在运维层面,通过云途腾的T2Cloud OS和MagicStack分别实现了对物理设备和虚拟设备的及时监控告警,通过云途腾的T2Cloud MagicStack实现跨数据中心管理、应用场景多样化、深度层次监控、管理员行为监控及日常巡检多个功能。据了解,T2Cloud MagicStack也是国内首款实现基于多种开源运维工具自主研发的系列自动运维平台。
“此外,我们还有一个专业运维开发团队,对常见频发的故障,我们可以形成一些自动化检测工具和脚本,通过脚本的方式让整个运维操作标准化,减少因为运维误操作所导致更严重的灾难。”林汉琛说。
OpenStack基金会执行董事Jonathan Bryce在2017 OpenStack波士顿峰会第一天公布的数据显示,OpenStack的实践案例在以每年44%的速度快速增长,有一半的财富100强企业都在生产中部署了OpenStack,总计生产中部署的计算核心数已超过五百万核。
有意思的是,一边是部署OpenStack的企业越来越多,一方面关于OpenStack“太复杂”“难使用”的吐槽声音又不绝于耳。对此,吴凯表示,这是对OpenStack的误读。“OpenStack已经成为企业级云平台的标准框架,它不是一个简单产品的名称,各个OpenStack厂家要做的事情,就是使基于这个框架的发行版本能够简单好用,稳定可靠,而且能够兼容最新的技术。”他补充道,“大家可以多关注OpenStack在各个行业里的使用案例,怎样的稳定性、可靠性,规模,以及整合了哪些新技术。通过实践案例,大家会越来越理解OpenStack的价值所在。”
好文章,需要你的鼓励
这项研究提出了ORV(占用中心机器人视频生成)框架,利用4D语义占用作为中间表示来生成高质量的机器人操作视频。与传统方法相比,ORV能提供更精确的语义和几何指导,实现更高的时间一致性和控制精度。该框架还支持多视角视频生成(ORV-MV)和模拟到真实的转换(ORV-S2R),有效弥合了虚拟与现实之间的差距。实验结果表明,ORV在多个数据集上的表现始终优于现有方法,为机器人学习和模拟提供了强大工具。
这项研究由Writer公司团队开发的"反思、重试、奖励"机制,通过强化学习教导大型语言模型生成更有效的自我反思内容。当模型回答错误时,它会生成反思并二次尝试,若成功则奖励反思过程。实验表明,该方法在函数调用和数学方程解题上带来显著提升,最高分别改善18.1%和34.7%。令人惊讶的是,经训练的小模型甚至超越了同家族10倍大的模型,且几乎不存在灾难性遗忘问题。这种自我改进技术为资源受限环境下的AI应用开辟了新方向。
FuseLIP是一项突破性研究,提出了通过早期融合离散标记实现多模态嵌入的新方法。与传统CLIP模型使用独立编码器不同,FuseLIP采用单一编码器同时处理图像和文本标记,实现了更自然的模态交互。研究证明,这种早期融合方法在多种多模态任务上表现优异,特别是在需要理解图像结构而非仅语义内容的任务上。研究还开发了创新的数据集和评估任务,为多模态嵌入研究提供了宝贵资源。
ByteDance与浙江大学合作开发的MERIT是首个专为多语言多条件语义检索设计的基准数据集,包含320,000条跨5种语言的查询和135,000个产品。研究发现现有模型在处理多条件查询时过度关注全局语义而忽略特定条件元素,为此提出CORAL框架,通过嵌入重建和对比学习相结合的方式,使检索性能提升45.9%。这项研究不仅识别了现有方法的关键局限性,还为多条件交错语义检索领域的未来研究奠定了基础。