2020年不期而至的新冠疫情让人们对“大数据”有了一个更深切的认识,其实企业一直在推动数据的应用,经历了从拥有数据意识,到用数据产生洞察,再到用数据驱动企业的多个阶段。
随着数据应用的不断变化,企业对于数据存储也提出了更高的要求。AWS也一直在布局存储服务,安全可信、至广至深、高度集成、开放生态是AWS存储服务非常重要的特点。
从存储服务整体看,文件存储服务相比其他存储服务推出的时间是相对靠后的,但增速却是最快的。文件存储服务在拥有针对Linux上的工作负载的Amazon EFS后,11月10日,AWS在中国正式上线了两项全新的文件存储服务:Amazon FSx for Windows File Server和Amazon FSx for Lustre,至此中国区域已经集齐了AWS存储服务“全家桶”。

AWS大中华区产品部总经理顾凡表示,目前AWS的存储服务阵容覆盖了对象存储、块存储、Linux文件存储、Windows文件存储、高性能文件存储、低成本归档存储以及云上备份存储,同时提供云服务实现PB级数据传输上云,以及本地IT环境与云存储的集成。
Amazon FSx for Windows File Server是为Windows工作负载提供的文件存储服务,主要应用于用户文件共享、Web网站服务、企业内容管理、Windows应用程序和工作负载、数据分析业务等。
Amazon FSx for Windows File Server的主要特点包括,第一,提供行业标准SMB文件共享,可从Windows、Linux和MacOS进行访问;第二,支持单可用区、多可用区、SSD、HDD多种部署模式;第三,支持数据去重功能,进一步优化成本;第四,与Microsoft AD集成(内部部署或AWS托管);第五,灵活扩展存储和更改吞吐量。
企业级应用软件及服务供应商Infor使用Amazon FSx for Windows File Server的全托管和多可用区特性,实现无需停机的应用程序在线升级,为其应用提供高可用性。同时与 AW S其他服务结合实现轻松部署,监控和备份/还原。最终存储成本降低了50%,应用性能提高了80%。
Amazon FSx for Lustre作为高性能文件存储服务,可广泛应用于机器学习、高性能计算、电子设计自动化、生命科学、自动驾驶和视频渲染等需要高性能共享存储的工作负载。
Amazon FSx for Lustre的主要特点包括,第一,100+GB/s吞吐量、亚毫秒级延迟、百万级 IOPS、数以万计的计算实例共享访问;第二,S3 源生集成,实现数据自动导入和更新;第三,全托管,把高性能文件存储的部署时间从数月或数周缩短到几分钟;第四,针对 Linux 工作负载而设计,POSIX兼容,简化使用;第五,提供了多种部署选项和存储选项,优化成本效益。
媒体娱乐制作平台Conductor Technologies使用 Amazon FSx for Lustre,并集成Amazon S3快速导入和处理视频渲染工作流,相比之前其压缩了30%的作业启动时间,提高渲染作业效率达4倍。
Amazon FSx for Lustre与Amazon S3集成可以实现数据的自动导入和更新,提供最优性价比的高性能存储方案。
其实,在两个服务落地之前,有很多企业就放出了积极的信号,尤其是对特定工作负载已经等了很久的客户,例如企业级使用ERP、CRM、共享文件存储系统等都是属于Windows工作负载。
同时越来越多的传统企业级存储厂商也正在加入AWS的生态,因为每一个企业的上云路径都各不相同,AWS可以和外部存储有一个很好的兼容和配合,也是重视客户需求的体现。
好文章,需要你的鼓励
Lumen Technologies对美国网络的数据中心和云连接进行重大升级,在16个高连接城市的70多个第三方数据中心提供高达400Gbps以太网和IP服务。该光纤网络支持客户按需开通服务,几分钟内完成带宽配置,最高可扩展至400Gbps且按使用量付费。升级后的网络能够轻松连接数据中心和云接入点,扩展企业应用,并应对AI和数据密集型需求波动。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
RtBrick研究警告,运营商面临AI和流媒体服务带宽需求"压倒性"风险。调查显示87%运营商预期客户将要求更高宽带速度,但81%承认现有架构无法应对下一波AI和流媒体流量。84%反映客户期望已超越网络能力。尽管91%愿意投资分解式网络,95%计划五年内部署,但仅2%正在实施。主要障碍包括领导层缺乏决策支持、运营转型复杂性和专业技能短缺。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。