随着越来越多的IT部门迁移到OpenStack平台,以帮助他们构建和管理私有云环境,CIO们和他们的团队必须决定哪些应用一起迁移到这个新平台,以及合适的时间。
并不是所有的应用都适合迁移到开源“基础架构即服务”平台。
“OpenStack对于一个传统大型企业的60%到80%的应用而言,是一个很好的平台,但它不是100%应用的一个解决方案,”John Fruehe说,他是Moor Insights & Strategy的高级分析师。
原生云应用以及电子商务和网络应用——这些需要在一个弹性环境中的应用,可以纵向扩展和缩小——通常这种类型的应用,企业都可以轻易地迁移到OpenStack平台,专家说。另一方面,遗留应用和那些仍运行在主机上的应用,不可能在短时间内迁移。
Fruehe说,一些IT领导人可能采用孤注一掷的OpenStack方案。但是他和其他分析师表示,那些想要拥有更有效、高效率的私有云的CIO们,仍然可以通过将合适的应用迁移到环境中,而放弃那些他们认为不合适的应用,至少目前,还是可以从OpenStack中获得他们想要的效果。
有鉴于此,几位专家列举了一些不适合OpenStack平台的应用类型:
·供应商特定规格的小众软件:“如果你有一个特定软件,非常行业化的应用,假设你已经在供应商规定的Red Hat Linux服务器上运行,供应商可能会说,‘我不知道这能不能在OpenStack上运行。’这种情况下,你也许不要冒风险,”Fruehe解释说,这种情况并不意味着这一应用不能在OpenStack环境中运行;而是有不确定性,就算可以运行,对于供应商可以为企业提供何种程度的支持,依然是个问号。
·和硬件紧密联系的应用。一些应用是为了在特定的硬件上运行而构建的,或者是为了在根据负载定制的芯片上运行;还有一些则使用特定的编程语言构建,从而可以深入理解硬件平台是如何工作的,Justin Shepherd解释道,Rackspace Private Cloud的优秀架构师。(OpenStack始于2010年,云管理供应商Rackspace和NASA的联合项目)。因此,IT部门不能把这些应用从现有的硬件平台中移出。“他们知道他们必须重新编写这些应用,”Shepherd指出,大多数企业的IT部门中,只有一小部分应用符合这个描述,“但其中的一些对于业务也很关键。”
·构建在主机上的工作负载和后台应用。 Shepherd认为这些应用很难迁移到云和OpenStack,这意味着大多数IT部门不能将它们作为OpenStack测试用例或移动到OpenStack平台的早期应用。然而,随着IT领导人不断累积OpenStack经验和专业知识,不断有更多的OpenStack技术面市,即使这些应用也可能可以进行迁移。“OpenStack实际上是支持主机的,”Alan Clark说,非营利OpenStack基金会的董事会主席(现在管理OpenStack)。
·单一事务关键型的应用。这些类型的应用,尤其是处理股票市场交易的应用,往往是时间敏感和内存同步敏感型的,因此如果想要把它们迁移到OpenStack环境中,需要企业交出更多的控制,Clark说,他是SUSE的行业项目,新兴标准和开放源码的总监。
好文章,需要你的鼓励
韩国科学技术院研究团队提出"分叉-合并解码"方法,无需额外训练即可改善音视频大语言模型的多模态理解能力。通过先独立处理音频和视频(分叉阶段),再融合结果(合并阶段),该方法有效缓解了模型过度依赖单一模态的问题,在AVQA、MUSIC-AVQA和AVHBench三个基准测试中均取得显著性能提升,特别是在需要平衡音视频理解的任务上表现突出。
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。