企业在谈数字化转型和上云时,都绕不开云原生这个话题。
云原生在十年间迅速发展,对IT基础设施、应用架构和应用开发模式带来了深刻改变。中国信通院云计算与大数据研究所所长何宝宏曾说,云原生作为云计算演进的重要方向,是企业数字化转型的核心驱动,是数字经济发展的重要信息基础设施,是建设数字中国的关键创新引擎。
但企业在推动云原生应用时,传统的基础设施却往往显得力不从心,这也驱动了基础设施加速云原生化。IDC预测,到2024年,云原生的工作负载将会占据服务器上工作负载的1/3。
最近IDC也发布了《中国云原生基础设施技术能力评估报告,2023》,将云计算环境下为支持容器化应用程序、微服务架构和DevOps而设计的新型基础设施定义为云原生基础设施,并设立了7个维度进行评估,包括运行时、云原生存储、云原生网络、镜像、编排调度、安全性、开放性与开源贡献。
亚马逊云科技获得最高分,不但是“云原生存储能力”维度唯一获得满分的厂商,而且在多个维度获得满分,堪称云原生基础设施领域的全能型选手。
云原生技术创新前沿
云原生一直被认为是云计算的下一个未来。
IDC认为,云原生基础设施在提升企业效率、降低成本以及促进创新方面存在巨大潜力。在未来几年内,云原生基础设施应用规模将更加广泛,并将成为企业数字化转型的重要驱动力。
从云计算诞生到今天,亚马逊云科技创新的步伐就从未停止,亚马逊云科技在《中国云原生基础设施技术能力评估报告,2023》的各技术评估维度均大幅领先业界。
亚马逊云科技一直在不断突破技术的边界,在算力逐渐成为瓶颈的环境下,其在自研新品上已经投入十多年,拥有Nitro、Graviton、人工智能机器学习自研芯片三条产品线。去年2023 re:Invent 全球大会上,亚马逊云科技推出了最新的Amazon Graviton4和Amazon Trainium2自研芯片。Graviton4与当前一代Graviton3处理器相比,性能提升高达30%。Trainium2与第一代Trainium芯片相比训练速度提升多达4倍。
去年基于自研芯片Amazon Graviton3处理器的M7g通用型、C7g计算优化型和R7g内存优化型三款实例已经在中国落地,这些实例都是基于Amazon Nitro System构建。亚马逊云科技也在同合作伙伴合作,提供基于AMD、Intel以及英伟达等的最新芯片和实例组合,包括600多种广泛而深入的计算实例选择。
同时亚马逊云科技的优势还体现在全球化,亚马逊云科技的基础设施遍及全球33个地理区域的105个可用区,并已公布计划在马来西亚、墨西哥、新西兰和泰国等新建5个区域、15个可用区。
除了区域和可用区之外,亚马逊云科技还为高密度城市推出了更低延迟的38个Amazon Local Zones本地扩展区和29个Amazon Wavelength区域。
云原生存储能力唯一满分
在亚马逊云科技众多服务中值得一提的是存储服务,此次也是“云原生存储能力”维度唯一获得满分的厂商。从2006年正式成立以来推出的第一款云服务Amazon Simple Storage Service(S3)对象存储服务,18年来已经构建起云存储“全家桶”,形成丰富的对象、文件和数据块存储,数据迁移,混合云存储及边缘计算,托管式文件传输,灾难恢复和备份服务,引领云原生存储领域的技术潮流。
2023 re:Invent还推出了Amazon S3 Express OneZone,为高性能存储需求的用户提供了新的存储层级选择。与Amazon S3 Standard 相比,Amazon S3 Express One Zone的数据访问速度提高至多10倍,数据请求成本降低50%,为机器学习训练和推理、交互式分析以及媒体内容创建等请求密集型工作负载提供最高性能存储。
亚马逊云科技还“专门构建”了丰富的Amazon FSx文件存储系列服务,为Windows工作负载推出的Amazon FSx for Windows File Server,为计算密集型工作负载推出的Amazon FSx for Lustre,为企业业务迁移上云推出的Amazon FSx for NetApp ONTAP和为大数据分析Linux工作负载推出的Amazon FSx for OpenZFS。
亚马逊云科技还是除了计算、存储、应用集成、数据库,亚马逊云科技也是首个数据分析服务全部实现Serverless的云供应商,助力不同技术偏好和业务需求的客户加速进行云原生应用创新。
2023 re:Invent还宣布了3项数据库和应用领域的Serverless创新,Amazon Aurora Limitless 数据库可跨多个 Amazon Aurora Serverless 实例自动分发和查询数据,并能够扩展到每秒百万次的事务级写入并管理PB级数据。Amazon ElastiCache Serverless 可以帮助客户在一分钟内创建高可用的缓存,并实时进行垂直和水平扩展以支持客户复杂的应用程序,且无需管理基础架构。Amazon Redshift Serverless 利用人工智能(AI)预测工作负载并自动扩展和优化资源,帮助客户实现高性价比的目标。
云原生简化生成式AI应用开发
IDC预测,到2024年,新增的生产级云原生应用在新应用的占比将从2020年的10%增加到60%。亚马逊云科技也在提供丰富的开发工具和模型选择,确保基于云原生的程序快速开发与产品迭代。
现在云原生正逐渐与应用、大模型相结合。亚马逊云科技在生成式AI领域已经建立起三个层级的全栈生成式AI能力,上层是构建生成式AI的应用层,中间层是微调模型需求的工具服务,最底层是训练和推理的基础设施层。
应用层,2023 re:Invent最新推出的Amazon Q是业界第一个专门针对企业业务场景,可以量身定制的生成式AI助手,基于企业内部数据帮助企业解决问题。
中间层,自2023年4月Amazon Bedrock发布以来就备受关注,它是一款Serverless服务,开发人员无需管理任何的基础设施和配置,即可以云原生的方式快速进行生成式AI应用的开发。2023 re:Invent上Amazon Bedrock也对两个模型进行了升级,并发布了模型的微调、检索增强生成,以及基于Amazon Titan大模型的预训练功能。另外Agents for Amazon Bedrock也正式可用,它能够理解用户请求,将复杂任务分解为多个步骤,而且是自动和托管的。
底层,除了推出专为训练人工智能系统而设计的第二代芯片Amazon Trainium2。亚马逊云科技CEO Adam还携手英伟达CEO黄仁勋扩大战略合作,成为首家推出NVIDIA GH200 NVL32实例的云厂商。
同时Amazon SageMaker推出五项新功能,助力规模化开发应用模型。Amazon SageMaker HyperPod可大规模加速基础模型训练,能够缩短高达40%的训练时间,并可以确保持续数周或数月的训练过程不中断;Amazon SageMaker Inference推理功能可平均降低50%的部署成本和20%的推理延迟;Amazon SageMaker Clarify可以帮助客户评估、比较和选择最佳模型;Amazon SageMaker Canvas的两项增强功能,用自然语言指令准备数据、利用模型进行大规模业务分析,将使客户能够更轻松、更快速地将生成式AI集成到他们的工作流程中。
未来应用开发如何用好云原生,来实现更多上层应用的现代化的服务,是云原生未来发展的一个重点。当然企业需深刻理解云原生对于数字化转型的业务价值,这样才能充分释放其潜力,实现真正的技术突破和业务创新。
好文章,需要你的鼓励
这篇研究论文介绍了"Speechless",一种创新方法,可以在不使用实际语音数据的情况下训练语音指令模型,特别适用于越南语等低资源语言。研究团队通过将文本指令转换为语义表示,绕过了对高质量文本转语音(TTS)系统的依赖。该方法分三个阶段:首先训练量化器将语音转为语义标记;然后训练Speechless模型将文本转为这些标记;最后用生成的合成数据微调大型语言模型。实验表明,该方法在越南语ASR任务中表现出色,为低资源语言的语音助手开发提供了经济高效的解决方案。
《Transformer Copilot》论文提出了一种革命性的大语言模型微调框架,通过系统记录和利用模型训练过程中的"错误日志"来提升推理性能。研究团队受人类学习者记录和反思错误的启发,设计了一个"副驾驶"模型来辅助原始"驾驶员"模型,通过学习错误模式并在推理时校正输出。这一方法在12个基准测试上使模型性能提升高达34.5%,同时保持计算开销最小,展现了强大的可扩展性和可迁移性,为大语言模型的优化提供了全新思路。
德克萨斯大学Austin分校的研究团队提出了RIPT-VLA,一种创新的视觉-语言-动作模型后训练范式。该方法通过让AI模型与环境互动并仅接收简单的成功/失败反馈来学习,无需复杂的奖励函数或价值模型。实验证明,RIPT-VLA能显著提升现有模型性能,在轻量级QueST模型上平均提升21.2%,将大型OpenVLA-OFT模型推至97.5%的前所未有成功率。最令人惊叹的是,仅用一个示范样本,它就能将几乎不可用的模型在15次迭代内从4%提升至97%的成功率,展现出卓越的数据效率和适应能力。
北京大学与华为诺亚方舟实验室研究团队共同开发了TIME基准,这是首个专为评估大语言模型在真实世界场景中的时间推理能力而设计的多层级基准。该研究提出了三个层级的时间推理框架,包含11个细粒度任务,并构建了涵盖38,522个问答对的数据集,针对知识密集型信息、快速变化的事件动态和社交互动中的复杂时间依赖性三大现实挑战。实验结果表明,即使是先进模型在构建时间线和理解复杂时间关系方面仍面临显著挑战,而测试时扩展技术可明显提升时间逻辑推理能力。