2020年不期而至的新冠疫情让人们对“大数据”有了一个更深切的认识,其实企业一直在推动数据的应用,经历了从拥有数据意识,到用数据产生洞察,再到用数据驱动企业的多个阶段。
随着数据应用的不断变化,企业对于数据存储也提出了更高的要求。AWS也一直在布局存储服务,安全可信、至广至深、高度集成、开放生态是AWS存储服务非常重要的特点。
从存储服务整体看,文件存储服务相比其他存储服务推出的时间是相对靠后的,但增速却是最快的。文件存储服务在拥有针对Linux上的工作负载的Amazon EFS后,11月10日,AWS在中国正式上线了两项全新的文件存储服务:Amazon FSx for Windows File Server和Amazon FSx for Lustre,至此中国区域已经集齐了AWS存储服务“全家桶”。
AWS大中华区产品部总经理顾凡表示,目前AWS的存储服务阵容覆盖了对象存储、块存储、Linux文件存储、Windows文件存储、高性能文件存储、低成本归档存储以及云上备份存储,同时提供云服务实现PB级数据传输上云,以及本地IT环境与云存储的集成。
Amazon FSx for Windows File Server是为Windows工作负载提供的文件存储服务,主要应用于用户文件共享、Web网站服务、企业内容管理、Windows应用程序和工作负载、数据分析业务等。
Amazon FSx for Windows File Server的主要特点包括,第一,提供行业标准SMB文件共享,可从Windows、Linux和MacOS进行访问;第二,支持单可用区、多可用区、SSD、HDD多种部署模式;第三,支持数据去重功能,进一步优化成本;第四,与Microsoft AD集成(内部部署或AWS托管);第五,灵活扩展存储和更改吞吐量。
企业级应用软件及服务供应商Infor使用Amazon FSx for Windows File Server的全托管和多可用区特性,实现无需停机的应用程序在线升级,为其应用提供高可用性。同时与 AW S其他服务结合实现轻松部署,监控和备份/还原。最终存储成本降低了50%,应用性能提高了80%。
Amazon FSx for Lustre作为高性能文件存储服务,可广泛应用于机器学习、高性能计算、电子设计自动化、生命科学、自动驾驶和视频渲染等需要高性能共享存储的工作负载。
Amazon FSx for Lustre的主要特点包括,第一,100+GB/s吞吐量、亚毫秒级延迟、百万级 IOPS、数以万计的计算实例共享访问;第二,S3 源生集成,实现数据自动导入和更新;第三,全托管,把高性能文件存储的部署时间从数月或数周缩短到几分钟;第四,针对 Linux 工作负载而设计,POSIX兼容,简化使用;第五,提供了多种部署选项和存储选项,优化成本效益。
媒体娱乐制作平台Conductor Technologies使用 Amazon FSx for Lustre,并集成Amazon S3快速导入和处理视频渲染工作流,相比之前其压缩了30%的作业启动时间,提高渲染作业效率达4倍。
Amazon FSx for Lustre与Amazon S3集成可以实现数据的自动导入和更新,提供最优性价比的高性能存储方案。
其实,在两个服务落地之前,有很多企业就放出了积极的信号,尤其是对特定工作负载已经等了很久的客户,例如企业级使用ERP、CRM、共享文件存储系统等都是属于Windows工作负载。
同时越来越多的传统企业级存储厂商也正在加入AWS的生态,因为每一个企业的上云路径都各不相同,AWS可以和外部存储有一个很好的兼容和配合,也是重视客户需求的体现。
好文章,需要你的鼓励
本文探讨了达成人工通用智能(AGI)七大路线中的线性进阶路径,预测了从2025年至2040年 AI 技术与社会效应的关键年度节点。
这项研究介绍了一种新型多模态扩散模型,能够同时生成量子电路的离散结构和连续参数。由因斯布鲁克大学和NVIDIA公司研究人员开发,该模型利用两个独立但协同工作的扩散过程处理门类型选择和参数预测,克服了传统量子电路编译方法的效率瓶颈。研究证明了该模型在不同量子比特数量、电路深度和参数化门比例下的有效性,并通过快速电路生成创建了数据集,从中提取出有价值的结构见解,为量子电路合成提供了新方向。
SenseFlow是香港科技大学等机构联合开发的文本到图像蒸馏技术,解决了大型流匹配模型蒸馏的三大难题。研究团队提出隐式分布对齐(IDA)稳定训练过程,段内引导(ISG)优化时间步重要性分配,并设计基于视觉基础模型的判别器提升生成质量。实验表明,SenseFlow能将SD 3.5和FLUX等12B参数级模型成功蒸馏为仅需4步生成的高效版本,同时保持甚至超越原模型在多项指标上的表现,代表了AI图像生成效率提升的重要突破。
MASKSEARCH是阿里巴巴集团同义实验室开发的新型预训练框架,通过创新的"检索增强掩码预测"任务,训练大型语言模型像人类一样主动使用搜索工具获取信息。这项框架包含两个阶段:首先在掩码预测任务上预训练,然后在下游任务上微调,大幅提升模型在开放域问答中的表现。研究采用监督微调和强化学习两种方法,结合多代理系统和课程学习策略,使AI能够自主分解问题、使用搜索工具并基于搜索结果进行推理。