敏捷是企业应对不确定性的重要手段,现代化应用则可以让企业迭代速度更快、更敏捷。
亚马逊就是一家自己走过现代化应用历程的企业,2002年亚马逊在技术上全面微服务化,同时在架构上实现“双披萨团队”,到2020年,亚马逊已经有超过10万个微服务。像产品页面的展现、购买键,是否是Amazon Prmie商品、送货的承诺、客户的评论、价格的显示等都是一个个独立的微服务,亚马逊按照现代化应用根据业务需求的迭代走到了今天。
“容器、微服务、Serverless都是现代化应用构建过程中使用到的常见技术。” 亚马逊云科技大中华区产品部总经理顾凡表示,过去15年,亚马逊云科技一直在持续不断地突破现代化应用技术。
亚马逊云科技大中华区产品部总经理顾凡
2014年推出的Serverless服务Amazon Lambda是亚马逊云科技一个划时代的创新,其可以让企业将更多精力集中在业务上。2017年在容器领域推出Amazon Fargate是适用于容器的serverless服务,实现整个集群的管理和扩展。2018年发布的Amazon Aurora在去年进行了一次迭代,将生产数据库放到Aurora Serverless V2可以在几分之一秒之内快速地扩展到数十万个事务的处理。
Gartner发布最新的《2021年云基础设施和平台服务魔力象限》,亚马逊云科技连续第11年被评为领导者,在愿景完整性和执行能力两个象限均排名第一。作为魔力象限报告的补充,Gartner发布的《云基础设施和平台服务关键能力报告》在云原生应用用例中,亚马逊云科技排名第一,在应用开发持续交付服务,以及广泛的容器服务均给出很高的评价。
亚马逊云科技也给出三个现代化应用转型策略为企业用户提供参考:
第一,Replatform平移:运用容器快速打包现有数据中心里的应用快速迁移到云上进行托管。目前80%的云上托管的容器都在亚马逊云科技上运行。
第二,Refactor重构:在不同的时间和场景针对不同的应用去选择最适合的策略,在重构时使用新技术、新架构。
第三,Shared Services Platform构建共享服务平台:企业在现代化应用和微服务到达一定的阶段会面临一些挑战。无论是微服务应用构建,还是无服务器构建,Amazon Proton都可以让两个团队真正的合力转得更快。
顾凡表示,现代化应用路径的选择,客户应该根据自己的应用特征,业务驱动重构的时机,以及现在微服务化的规模选择适当的策略。
亚马逊云科技在现代化应用有着独特的优势和产品,亚马逊云科技大中华区产品部计算与存储总监周舸总结为四个方面,第一,广泛选择,灵活部署;第二,深度集成、快速构建;第三,安全可靠、生产就绪;开源开放、合作共赢。
同时Amazon EKS Anywhere和Amazon ECS Anywhere也是帮助企业构建现代化应用的重要服务。
企业在本地部署Kubernetes的时候其实经常会遇到很多的困难,Amazon EKS Anywher可以帮助客户在本地部署和使用跟在亚马逊云科技上使用EKS一致的Kubernetes。同样,Amazon ECS Anywhere可以帮助客户直接把在亚马逊云科技上的ECS集群衍生到客户本地。
以西门子为例,其软件会交付到数以百计分布在不同区域的工厂,由于要在不同的环境和不同的基础设施上运行,会存在一定的差异性造成挑战。西门子管理的上百家工厂的软件通过转换到Amazon ESC Anywhere平台上,可以在统一的集群管理平台里,管理上百家工厂中不同生产线上的软件运营基础架构,充分地利用容器的特性衍生到各个场景里。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。