从资源蔓延到缺乏协调,这些因素可能使云计算成本不必要地升高。企业使用这些降低成本的技巧与提示可以节省更多的费用。
随着2016年的结束,企业将盘点和评估他们在过去的一年所花费的费用,其中包括云计算服务的成本。而且,在某些情况下,组织将意识到云计算的成本比他们的预期更大。
为了在新的一年降低云计算服务的成本,以下有五个云计算成本管理秘诀。
1.不要不计成本将应用程序迁移到云计算
组织将所有的应用程序迁移到公共云并不会节省其成本。事实上,多达40%的企业应用程序在云计算中的成本比在内部部署数据中心要高。而有几个指标表明应用程序在云中计算运行成本会更加高昂。
组织可以使用代码分析器查看应用程序的设计和代码,以确定应用程序将使用的云计算资源量。如果它使用过多的资源,组织的开发团队可能会重写应用程序,但这将产生更多的成本和风险。
数据位置也对云计算中的应用程序成本有影响。如果云计算托管应用程序使用存储在内部的数据,可能会发生网络延迟,损害性能,并提高成本。最后,那些具有严格安全性和合规性要求的应用程序可能会增加云计算的成本。
2.使用云自动缩放功能,标注不必要的资源引导
云计算是一个动态环境,可以上下扩展以满足需求。这种可扩展性需要同样有效的实例管理,例如自动缩放。但管理人员仍然必须识别和缩减任何未使用的云计算资源以降低成本。云标记或将标记应用于云资源,可以帮助管理员发现不必要的服务是实现此目的的一种方式。
全球顶级云提供商(如Amazon Web Services,Azure和Google)可以提供监控,扩展和负载平衡服务,还可以帮助管理人员识别未充分利用的云计算资源。但是第三方供应商也提供扩展工具,在某些情况下,它们可以更好地满足企业的需求。由于这些工具中,有一些是针对特定行业的,因此在实施之前执行测试。
3.实践云资源管理,以减少扩张,降低成本
如今已有太多的云。例如,由于云计算资源的过度配置,缺乏协调,以及在某些情况下,多个提供商的无效使用,云计算的扩张会增加成本。在处理云计算资源时,组织的IT团队应制定相应的指导方针以减少浪费。
开发云计算和资源池,确保IT和线路组织选择有效利用资源的提供商和模型。多云计算越来越受到组织的允迎,但是服务冗余的可能性使云计算资源管理复杂化。组织应该通过核心人员或团队来监控云计算策略,并确保它们得到执行,并且一定要持续审核云计算账单。
4.与多个供应商合作的云成本管理提示
如今,更大规模的企业越来越多地转向多云模式,但是没有仔细监控,该模式的成本就可能开始上升。保持在预算内的第一步是评估云计算服务提供商收取的费用。在多个提供商之间移动数据,这可能有不同的定价模式,能会提高云计算的成本。特别注意数据访问和存储费用,这是大多数费用开始累加的地方。
组织在云平台之间通过映射应用程序数据的流动情况,确定在何处支付费用。通过检查其应用程序及其构建的多层来执行此操作。例如,应用程序的底层通常处理实时数据访问,因此避免在多个云上传播这些组件。最后,不要忽视集成和生命周期管理的可能问题。早期解决这些问题,以避免出现后续问题。
5.通过以上步骤控制云存储的成本
云计算的主要特点之一是其提供了大量的存储空间。企业在定价方面将受益于顶级提供商之间的竞争,但是其附加服务可以快速增加云计算的成本。评估组织的存储需求,如只使用附加服务,例如灾难恢复所需的附加服务。
在云计算中存储数据时,复制会增加成本。查看重复数据删除服务以降低网络流量,并提高性能,并识别过期或未使用的数据以释放资源。
好文章,需要你的鼓励
亚马逊云服务部门与OpenAI签署了一项价值380亿美元的七年协议,为ChatGPT制造商提供数十万块英伟达图形处理单元。这标志着OpenAI从研究实验室向AI行业巨头的转型,该公司已承诺投入1.4万亿美元用于基础设施建设。对于在AI时代竞争中处于劣势的亚马逊而言,这项协议证明了其构建和运营大规模数据中心网络的能力。
Meta FAIR团队发布的CWM是首个将"世界模型"概念引入代码生成的32亿参数开源模型。与传统只学习静态代码的AI不同,CWM通过学习Python执行轨迹和Docker环境交互,真正理解代码运行过程。在SWE-bench等重要测试中表现卓越,为AI编程助手的发展开辟了新方向。
当今最大的AI数据中心耗电量相当于一座小城市。美国数据中心已占全国总电力消费的4%,预计到2028年将升至12%。电力供应已成为数据中心发展的主要制约因素。核能以其清洁、全天候供电特性成为数据中心运营商的新选择。核能项目供应链复杂,需要创新的采购模式、标准化设计、早期参与和数字化工具来确保按时交付。
卡内基梅隆大学研究团队发现AI训练中的"繁荣-崩溃"现象,揭示陈旧数据蕴含丰富信息但被传统方法错误屏蔽。他们提出M2PO方法,通过改进数据筛选策略,使模型即使用256步前的陈旧数据也能达到最新数据的训练效果,准确率最高提升11.2%,为大规模异步AI训练开辟新途径。