当私有云和混合云技术首次出现时,一些权威人士预测,他们的应用不会持续太长时间,因为企业都将转向采用公共云。然而,他们最后都错了…想知道为什么吗?
以下有几个很好的理由解释为什么私有云和混合云可以存留下来。首先,一些企业的工作负载和存储数据一旦增长到数十PB,就会加大维护公共云部署的成本。此外,一些垂直市场(例如金融服务)的内部安全控制要求十分严格,因此在他们业务许多方面,公共云不是很好的选择。最后,企业客户希望能够选择一个最适合他们的云解决方案,并且如果他们的情况另有规定的话,他们不希望被授权使用公共云。
全球公共云提供商每年都会花费数十亿美元的服务费,因为用户使用公共云是一件容易的事情。通过几次鼠标点击,用户就可以激活云资源并无限扩展,而无需担心在内部构建一个私有云,而建设设施,或维护硬件,以及开发内部数据中心的专业知识。云计算诞生于公共云,许多云计算倡导者认为,内部部署或协同部署的云计算只是以往数据中心资源的一个花哨的名称。
但是,私有云和混合云的部署正在增长,而没有减少,因为在企业内部采用这些方法可靠有效。在大多数情况下,它不是一种类型的云计算与另一种类型之间的决定。更可能的情况是,大多数企业将使用公共云,私有和混合云的混合,因为IT部门尝试对安全性,成本和可扩展性进行平衡。
采用私有云或混合云的计算模式有三个优点。首先,它为公共云计算提供了一个明确的用例。现有IT基础设施(例如存储和计算)的特定方面可以放置在公共云环境中,而IT基础设施的其余部分保持在现有的数据中心。例如,对于商业智能应用程序,最好将数据保存在本地数据中心,并在公共云中执行分析处理,而不是将千兆字节的运行数据迁移到公共云。
其次,使用私有云或混合模式提供了更大的灵活性,从计算架构获得最大的杠杆,考虑到用户可以混合和匹配当地基础设施(通常是沉没成本,但难以达成规模)之间的资源,基础设施可扩展,以及配置请求,IT部门可以根据他们的需求和成本结构选择放置应用程序的最佳位置。
最后,使用混合云或私有云计算验证了这样的想法,即并非所有IT资源都应该存在于当今的公共云中,并且一些资源可能永远不会迁移到公共云。考虑到合规性问题,性能要求和安全限制,对本地数据中心的需求是一个现实的做法。这种私有云或混合云模式的体验有助于用户更好地了解哪些计算周期和数据必须保存在本地,哪些可以远程处理。
一些反对私有云或混合云的论点指出,这需要大量硬件和软件投资,以及需要内部专业知识的深度才能实现。然而,较新的云平台解决了这些痛点。
在某些情况下,云基础架构供应商提供可以在几分钟内设置和运行的融合(计算/存储/网络)设备。这些设备提供可扩展的构建块,以支持具有充足资源的私有云和混合云,并且它们可以提供比传统数据中心硬件更好的投资回报率。
另一种方法是使用具有自修复架构的标准OpenStackAPI,从而降低管理负担。一些供应商使用基于SaaS的门户网站,通过完整的健康监控和预测分析来处理管理和操作,在出现问题之前将问题解决。通过自动修补和升级启用策略,最终用户能够以最小的管理员工作量获得最佳的服务体验。
因此,虽然私有云和混合云曾经需要大量的内部云构建专业知识,但如今并非如此。现代云平台消除了许多使用私有云或混合云的异议,这些架构可以与公共云协同工作,为企业提供所需的性能和成本效益。如今的私有和混合云平台,可以提供与公共云基础设施相同的优势,同时提供许多企业需求的灵活性,安全性,性能,以及控制能力。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。